|
---
|
|
language:
|
|
- en
|
|
tags:
|
|
- text
|
|
- reasoning
|
|
license: "mit"
|
|
task_categories:
|
|
- question-answering
|
|
size_categories:
|
|
- n<1K
|
|
---
|
|
元データ: https://huggingface.co/datasets/HangHor/FinQA_CoT_Small
|
|
|
|
使用したコード: https://github.com/LLMTeamAkiyama/0-data_prepare/tree/master/src/FinQA_CoT_Small
|
|
|
|
- データ件数: 309
|
|
- 平均トークン数: 1,036
|
|
- 最大トークン数: 2,787
|
|
- 合計トークン数: 320,198
|
|
- ファイル形式: JSONL
|
|
- ファイル分割数: 1
|
|
- 合計ファイルサイズ: 1.3 MB
|
|
|
|
加工内容:
|
|
|
|
### 1. データセットの準備と初期設定
|
|
* **データソース**: Hugging Face Hub上の `HangHor/FinQA_CoT_Small` データセットを読み込んでいます。
|
|
* **トークナイザー**: トークン数の計算には `deepseek-ai/DeepSeek-R1-Distill-Qwen-32B` モデルのトークナイザーが使用されています。
|
|
* **列の役割設定**: 元のデータセットの `Question`、`Context`、`Answer` 列が、それぞれ「質問」「思考(コンテキスト)」「回答」として扱われるように設定されています。
|
|
|
|
### 2. 前処理とクレンジング
|
|
一連のクレンジング処理が順番に適用されています。
|
|
1. **IDの付与**: 元のデータの各行に、後から参照できるよう一意のID(`base_datasets_id`)が割り当てられました。
|
|
2. **列名の標準化**: `Context`列が`thought`列に、`Question`列が`question`列に、`Answer`列が`answer`列にそれぞれリネームされ、データ構造が統一されました。
|
|
3. **空白文字の除去**: `thought`列に含まれるテキストの先頭と末尾にある不要な空白文字(改行コードやスペースなど)が削除されました。
|
|
4. **繰り返し表現のチェック**: `thought`列のテキスト内で、類似した文章が何度も繰り返されていないかがJaccard類似度を用いてチェックされました(このデータセットでは、この処理によって除外されたデータはありませんでした)。
|
|
|
|
### 3. トークン数の計算
|
|
* 「質問」「思考」「回答」の各列について、指定されたトークナイザーを用いてトークン数が計算され、`question_token`, `thought_token`, `answer_token` という新しい列に追加されました。
|
|
* 各行の合計トークン数が `total_token` 列として算出されました。
|
|
|
|
### 4. 最終フィルタリングと出力準備
|
|
最終的に出力するデータセットを作成するため、以下の条件でフィルタリングが実施されました。
|
|
* 質問 (`question`) が空やハイフン("-")ではないこと。
|
|
* 合計トークン数 (`total_token`) が50以上、32,000以下であること。
|
|
* 回答のトークン数 (`answer_token`) が0ではなく、2,000以下であること。
|
|
|
|
|