ewdlop/shakespeare-transformer
模型描述
這是一個基於 Transformer 架構的文本生成模型,使用莎士比亞文本進行訓練。
模型架構
- 模型類型: Encoder-Decoder Transformer
- 詞彙表大小: 5,000
- 模型維度: 256
- 注意力頭數: 8
- 編碼器層數: 4
- 解碼器層數: 4
訓練數據
使用莎士比亞文本進行訓練,包含 0 個句子
使用方法
import torch
from transformers import AutoModel
# 載入模型
model = AutoModel.from_pretrained("ewdlop/shakespeare-transformer")
# 進行推理(需要自定義推理代碼)
# 詳見倉庫中的使用示例
訓練細節
- 優化器: Adam
- 學習率調度: StepLR
- 訓練框架: PyTorch
- 任務類型: 文本生成(復述任務)
限制和偏見
- 模型在莎士比亞文本上訓練,可能會反映該時代的語言特點
- 適用於古典英文文本生成,現代文本效果可能有限
- Downloads last month
- 6
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support