ShallowU's picture
Update README.md
8dae68c verified
metadata
license: mit
language:
  - en
tags:
  - gpt2
  - tokenized
  - education
  - fine-tuning
  - language-modeling
  - machine-learning
  - deep-learning
  - pytorch
  - numpy
task_categories:
  - text-generation
pretty_name: FineWeb-Edu 10B Tokens (Tokenized NPY Format)
size_categories:
  - 10B<n<100B
dataset_info:
  features:
    - name: tokens
      dtype: uint16
  config_name: default
  splits:
    - name: train
      num_bytes: 19800000000
      num_examples: 99
    - name: val
      num_bytes: 200000000
      num_examples: 1
  download_size: 20000000000
  dataset_size: 20000000000
configs:
  - config_name: default
    data_files:
      - split: train
        path: edufineweb_train_*.npy
      - split: val
        path: edufineweb_val_*.npy

FineWeb-Edu 10B Tokens (NPY Format)

数据集概述

这是一个预处理好的教育文本数据集,包含约100亿个tokens,专门为训练小型语言模型(如GPT-2 124M)而设计。数据来源于高质量的FineWeb-Edu数据集,已经使用GPT-2的tiktoken分词器进行预处理,并保存为numpy格式以提高训练效率。 Followed by Let's reproduce GPT-2 (124M). Thanks to Andrej Karpathy!!!

🎯 适用场景

  • 小型语言模型训练:特别适合GPT-2 124M/350M等参数规模的模型
  • 教育研究:高质量教育内容,适合教学和学术研究
  • 快速原型开发:预处理完成,可直接用于训练间

📊 数据统计

  • 总token数量:~10,000,000,000 tokens
  • 分片大小:100M tokens/分片
  • 数据格式:numpy (.npy) uint16数组
  • 分词器:GPT-2 tiktoken
  • 语言:英语
  • 质量:高质量教育内容(来自FineWeb-Edu筛选)

📁 文件结构

├── edufineweb_val_000000.npy      # 验证集 (100M tokens)
├── edufineweb_train_000001.npy    # 训练集分片1 (100M tokens)
├── edufineweb_train_000002.npy    # 训练集分片2 (100M tokens)
├── ...
└── edufineweb_train_000099.npy    # 训练集分片99 (100M tokens)

🚀 使用方法

快速开始

import numpy as np
from datasets import load_dataset

# 方法1:使用 datasets 库
dataset = load_dataset("ShallowU/FineWeb-Edu-10B-Tokens-NPY")

# 方法2:直接加载numpy文件
train_tokens = np.load("edufineweb_train_000001.npy")
val_tokens = np.load("edufineweb_val_000000.npy")

print(f"训练tokens形状: {train_tokens.shape}")
print(f"验证tokens形状: {val_tokens.shape}")

用于GPT-2训练

class DataLoaderLite:
    def __init__(self, B, T, process_rank, num_processes, split):
        self.B = B
        self.T = T
        self.process_rank = process_rank
        self.num_processes = num_processes
        assert split in {'train', 'val'}
        
        # 加载对应的分片
        if split == 'train':
            data_root = "path/to/dataset"
            shards = [f"edufineweb_train_{i:06d}.npy" for i in range(1, 100)]
        else:
            shards = ["edufineweb_val_000000.npy"]
            
        self.tokens = np.concatenate([
            np.load(os.path.join(data_root, shard)) for shard in shards
        ])
        
    def next_batch(self):
        B, T = self.B, self.T
        buf = self.tokens[self.current_position:self.current_position+B*T+1]
        x = torch.tensor(buf[:-1]).view(B, T)  # inputs
        y = torch.tensor(buf[1:]).view(B, T)   # targets
        self.current_position += B * T * self.num_processes
        return x, y

🔧 技术规格

  • 分词器tiktoken.get_encoding("gpt2")
  • 词汇表大小:50,257
  • 特殊token<|endoftext|> (token_id: 50256)
  • 数据类型numpy.uint16
  • 文件格式.npy

📈 训练建议

推荐配置 (GPT-2 124M)

# 训练参数
batch_size = 64
sequence_length = 1024
learning_rate = 6e-4
warmup_steps = 715
max_steps = 19073  # ~10B tokens

# 模型配置
model_config = {
    'vocab_size': 50304,  # 向上取整到64的倍数,no ugly number
    'n_embd': 768,
    'n_head': 12,
    'n_layer': 12,
    'block_size': 1024
}

🙏 致谢

感谢以下项目和团队:

📄 许可证

MIT License - 欢迎用于学术研究和教育目的


注意:此数据集专为教育和研究目的设计,使用时请遵守相应的伦理准则和法律法规。