kevineen's picture
Upload 2 files
60af2f0 verified
metadata
language:
  - en
tags:
  - text
  - reasoning
license: mit
task_categories:
  - question-answering
size_categories:
  - n<1K

元データ: https://huggingface.co/datasets/HangHor/FinQA_CoT_Small

使用したコード: https://github.com/LLMTeamAkiyama/0-data_prepare/tree/master/src/FinQA_CoT_Small

  • データ件数: 309
  • 平均トークン数: 1,036
  • 最大トークン数: 2,787
  • 合計トークン数: 320,198
  • ファイル形式: JSONL
  • ファイル分割数: 1
  • 合計ファイルサイズ: 1.3 MB

加工内容:

1. データセットの準備と初期設定

  • データソース: Hugging Face Hub上の HangHor/FinQA_CoT_Small データセットを読み込んでいます。
  • トークナイザー: トークン数の計算には deepseek-ai/DeepSeek-R1-Distill-Qwen-32B モデルのトークナイザーが使用されています。
  • 列の役割設定: 元のデータセットの QuestionContextAnswer 列が、それぞれ「質問」「思考(コンテキスト)」「回答」として扱われるように設定されています。

2. 前処理とクレンジング

一連のクレンジング処理が順番に適用されています。

  1. IDの付与: 元のデータの各行に、後から参照できるよう一意のID(base_datasets_id)が割り当てられました。
  2. 列名の標準化: Context列がthought列に、Question列がquestion列に、Answer列がanswer列にそれぞれリネームされ、データ構造が統一されました。
  3. 空白文字の除去: thought列に含まれるテキストの先頭と末尾にある不要な空白文字(改行コードやスペースなど)が削除されました。
  4. 繰り返し表現のチェック: thought列のテキスト内で、類似した文章が何度も繰り返されていないかがJaccard類似度を用いてチェックされました(このデータセットでは、この処理によって除外されたデータはありませんでした)。

3. トークン数の計算

  • 「質問」「思考」「回答」の各列について、指定されたトークナイザーを用いてトークン数が計算され、question_token, thought_token, answer_token という新しい列に追加されました。
  • 各行の合計トークン数が total_token 列として算出されました。

4. 最終フィルタリングと出力準備

最終的に出力するデータセットを作成するため、以下の条件でフィルタリングが実施されました。

  • 質問 (question) が空やハイフン("-")ではないこと。
  • 合計トークン数 (total_token) が50以上、32,000以下であること。
  • 回答のトークン数 (answer_token) が0ではなく、2,000以下であること。