Datasets:
metadata
language:
- en
tags:
- text
- reasoning
license: mit
task_categories:
- question-answering
size_categories:
- n<1K
元データ: https://huggingface.co/datasets/HangHor/FinQA_CoT_Small
使用したコード: https://github.com/LLMTeamAkiyama/0-data_prepare/tree/master/src/FinQA_CoT_Small
- データ件数: 309
- 平均トークン数: 1,036
- 最大トークン数: 2,787
- 合計トークン数: 320,198
- ファイル形式: JSONL
- ファイル分割数: 1
- 合計ファイルサイズ: 1.3 MB
加工内容:
1. データセットの準備と初期設定
- データソース: Hugging Face Hub上の
HangHor/FinQA_CoT_Small
データセットを読み込んでいます。 - トークナイザー: トークン数の計算には
deepseek-ai/DeepSeek-R1-Distill-Qwen-32B
モデルのトークナイザーが使用されています。 - 列の役割設定: 元のデータセットの
Question
、Context
、Answer
列が、それぞれ「質問」「思考(コンテキスト)」「回答」として扱われるように設定されています。
2. 前処理とクレンジング
一連のクレンジング処理が順番に適用されています。
- IDの付与: 元のデータの各行に、後から参照できるよう一意のID(
base_datasets_id
)が割り当てられました。 - 列名の標準化:
Context
列がthought
列に、Question
列がquestion
列に、Answer
列がanswer
列にそれぞれリネームされ、データ構造が統一されました。 - 空白文字の除去:
thought
列に含まれるテキストの先頭と末尾にある不要な空白文字(改行コードやスペースなど)が削除されました。 - 繰り返し表現のチェック:
thought
列のテキスト内で、類似した文章が何度も繰り返されていないかがJaccard類似度を用いてチェックされました(このデータセットでは、この処理によって除外されたデータはありませんでした)。
3. トークン数の計算
- 「質問」「思考」「回答」の各列について、指定されたトークナイザーを用いてトークン数が計算され、
question_token
,thought_token
,answer_token
という新しい列に追加されました。 - 各行の合計トークン数が
total_token
列として算出されました。
4. 最終フィルタリングと出力準備
最終的に出力するデータセットを作成するため、以下の条件でフィルタリングが実施されました。
- 質問 (
question
) が空やハイフン("-")ではないこと。 - 合計トークン数 (
total_token
) が50以上、32,000以下であること。 - 回答のトークン数 (
answer_token
) が0ではなく、2,000以下であること。