File size: 2,922 Bytes
6e1498d
60af2f0
 
 
 
 
 
 
 
 
 
6e1498d
60af2f0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
---

language:
- en
tags:
- text
- reasoning
license: "mit"
task_categories:
- question-answering
size_categories:
- n<1K
---

元データ: https://huggingface.co/datasets/HangHor/FinQA_CoT_Small

使用したコード: https://github.com/LLMTeamAkiyama/0-data_prepare/tree/master/src/FinQA_CoT_Small



- データ件数: 309

- 平均トークン数: 1,036

- 最大トークン数: 2,787

- 合計トークン数: 320,198

- ファイル形式: JSONL

- ファイル分割数: 1

- 合計ファイルサイズ: 1.3 MB



加工内容:



### 1. データセットの準備と初期設定

*   **データソース**: Hugging Face Hub上の `HangHor/FinQA_CoT_Small` データセットを読み込んでいます。

*   **トークナイザー**: トークン数の計算には `deepseek-ai/DeepSeek-R1-Distill-Qwen-32B` モデルのトークナイザーが使用されています。

*   **列の役割設定**: 元のデータセットの `Question`、`Context`、`Answer` 列が、それぞれ「質問」「思考(コンテキスト)」「回答」として扱われるように設定されています。



### 2. 前処理とクレンジング

一連のクレンジング処理が順番に適用されています。

1.  **IDの付与**: 元のデータの各行に、後から参照できるよう一意のID(`base_datasets_id`)が割り当てられました。

2.  **列名の標準化**: `Context`列が`thought`列に、`Question`列が`question`列に、`Answer`列が`answer`列にそれぞれリネームされ、データ構造が統一されました。

3.  **空白文字の除去**: `thought`列に含まれるテキストの先頭と末尾にある不要な空白文字(改行コードやスペースなど)が削除されました。

4.  **繰り返し表現のチェック**: `thought`列のテキスト内で、類似した文章が何度も繰り返されていないかがJaccard類似度を用いてチェックされました(このデータセットでは、この処理によって除外されたデータはありませんでした)。



### 3. トークン数の計算

*   「質問」「思考」「回答」の各列について、指定されたトークナイザーを用いてトークン数が計算され、`question_token`, `thought_token`, `answer_token` という新しい列に追加されました。
*   各行の合計トークン数が `total_token` 列として算出されました。

### 4. 最終フィルタリングと出力準備
最終的に出力するデータセットを作成するため、以下の条件でフィルタリングが実施されました。
*   質問 (`question`) が空やハイフン("-")ではないこと。
*   合計トークン数 (`total_token`) が50以上、32,000以下であること。
*   回答のトークン数 (`answer_token`) が0ではなく、2,000以下であること。