Datasets:
File size: 2,922 Bytes
6e1498d 60af2f0 6e1498d 60af2f0 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 |
---
language:
- en
tags:
- text
- reasoning
license: "mit"
task_categories:
- question-answering
size_categories:
- n<1K
---
元データ: https://huggingface.co/datasets/HangHor/FinQA_CoT_Small
使用したコード: https://github.com/LLMTeamAkiyama/0-data_prepare/tree/master/src/FinQA_CoT_Small
- データ件数: 309
- 平均トークン数: 1,036
- 最大トークン数: 2,787
- 合計トークン数: 320,198
- ファイル形式: JSONL
- ファイル分割数: 1
- 合計ファイルサイズ: 1.3 MB
加工内容:
### 1. データセットの準備と初期設定
* **データソース**: Hugging Face Hub上の `HangHor/FinQA_CoT_Small` データセットを読み込んでいます。
* **トークナイザー**: トークン数の計算には `deepseek-ai/DeepSeek-R1-Distill-Qwen-32B` モデルのトークナイザーが使用されています。
* **列の役割設定**: 元のデータセットの `Question`、`Context`、`Answer` 列が、それぞれ「質問」「思考(コンテキスト)」「回答」として扱われるように設定されています。
### 2. 前処理とクレンジング
一連のクレンジング処理が順番に適用されています。
1. **IDの付与**: 元のデータの各行に、後から参照できるよう一意のID(`base_datasets_id`)が割り当てられました。
2. **列名の標準化**: `Context`列が`thought`列に、`Question`列が`question`列に、`Answer`列が`answer`列にそれぞれリネームされ、データ構造が統一されました。
3. **空白文字の除去**: `thought`列に含まれるテキストの先頭と末尾にある不要な空白文字(改行コードやスペースなど)が削除されました。
4. **繰り返し表現のチェック**: `thought`列のテキスト内で、類似した文章が何度も繰り返されていないかがJaccard類似度を用いてチェックされました(このデータセットでは、この処理によって除外されたデータはありませんでした)。
### 3. トークン数の計算
* 「質問」「思考」「回答」の各列について、指定されたトークナイザーを用いてトークン数が計算され、`question_token`, `thought_token`, `answer_token` という新しい列に追加されました。
* 各行の合計トークン数が `total_token` 列として算出されました。
### 4. 最終フィルタリングと出力準備
最終的に出力するデータセットを作成するため、以下の条件でフィルタリングが実施されました。
* 質問 (`question`) が空やハイフン("-")ではないこと。
* 合計トークン数 (`total_token`) が50以上、32,000以下であること。
* 回答のトークン数 (`answer_token`) が0ではなく、2,000以下であること。
|