TextGeneration / app.py
2z299's picture
Update app.py
bd8e175 verified
raw
history blame
6.32 kB
import os
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
import spaces
# PyTorch設定(パフォーマンスと再現性向上のため)
torch.backends.cudnn.deterministic = True
torch.backends.cudnn.benchmark = False
torch.backends.cuda.matmul.allow_tf32 = True
HF_TOKEN = os.getenv("HF_TOKEN")
# モデルのキャッシュ用辞書(ロード済みなら再利用)
loaded_models = {}
def get_model_and_tokenizer(model_name):
if model_name in loaded_models:
return loaded_models[model_name]
else:
tokenizer = AutoTokenizer.from_pretrained(model_name, attn_implementation="flash_attention_2", use_auth_token=HF_TOKEN)
model = AutoModelForCausalLM.from_pretrained(model_name, use_auth_token=HF_TOKEN)
loaded_models[model_name] = (model, tokenizer)
return model, tokenizer
@spaces.GPU
def generate_text(
model_name,
input_text,
max_length=150,
temperature=0.7,
top_k=50,
top_p=0.95,
repetition_penalty=1.0
):
"""ユーザー入力に基づいてテキストを生成し、元のテキストに追加する関数"""
try:
if not input_text.strip():
return ""
# 選択されたモデルとトークナイザーを取得
model, tokenizer = get_model_and_tokenizer(model_name)
# GPUが利用可能ならGPUへ移動。bf16がサポートされている場合はbf16を使用
device = "cuda" if torch.cuda.is_available() else "cpu"
if device == "cuda" and hasattr(torch.cuda, "is_bf16_supported") and torch.cuda.is_bf16_supported():
model.to(device, dtype=torch.bfloat16)
else:
model.to(device)
# 入力テキストのトークン化
input_ids = tokenizer.encode(input_text, return_tensors="pt").to(device)
input_token_count = input_ids.shape[1]
# 総トークン数の上限を入力トークン数 + max_length(max_lengthは追加するトークン数として扱う)
total_max_length = input_token_count + max_length
# テキスト生成
output_ids = model.generate(
input_ids,
max_length=total_max_length,
do_sample=True,
temperature=temperature,
top_k=top_k,
top_p=top_p,
repetition_penalty=repetition_penalty,
pad_token_id=tokenizer.eos_token_id,
num_return_sequences=1
)
# 生成されたテキストをデコードし、入力部分を除いた生成分を抽出
generated_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)
new_text = generated_text[len(input_text):]
# 入力テキストに生成したテキストを追加して返す
return input_text + new_text
except Exception as e:
return f"{input_text}\n\nエラーが発生しました: {str(e)}"
# Gradioインターフェースの作成
with gr.Blocks() as demo:
gr.Markdown("# テキスト続き生成アシスタント")
gr.Markdown("モデルを選択し、テキストボックスに文章を入力してパラメータを調整後、「続きを生成」ボタンをクリックすると、選択したモデルがその続きを生成します。")
# モデル選択用プルダウンメニュー(候補は必要に応じて変更してください)
model_dropdown = gr.Dropdown(
choices=[
"Local-Novel-LLM-project/Vecteus-v1-abliterated",
"Local-Novel-LLM-project/Ninja-V3",
"Local-Novel-LLM-project/kagemusya-7B-v1"
],
label="モデルを選択してください",
value="Local-Novel-LLM-project/Vecteus-v1-abliterated"
)
# テキスト入力ボックス
input_text = gr.Textbox(label="テキストを入力してください", placeholder="ここにテキストを入力...", lines=10)
# 生成パラメータの設定UI(縦に一列で配置)
max_length_slider = gr.Slider(minimum=10, maximum=1000, value=100, step=10, label="追加するトークン数")
temperature_slider = gr.Slider(minimum=0.1, maximum=1.5, value=0.7, step=0.1, label="創造性(温度)")
top_k_slider = gr.Slider(minimum=0, maximum=100, value=50, step=1, label="top_k")
top_p_slider = gr.Slider(minimum=0.0, maximum=1.0, value=0.95, step=0.05, label="top_p")
repetition_penalty_slider = gr.Slider(minimum=1.0, maximum=2.0, value=1.0, step=0.1, label="繰り返しペナルティ")
# ボタン(縦に配置)
generate_btn = gr.Button("続きを生成", variant="primary")
clear_btn = gr.Button("クリア")
# イベントの設定:入力としてモデル選択とテキスト、パラメータを渡す
generate_btn.click(
fn=generate_text,
inputs=[model_dropdown, input_text, max_length_slider, temperature_slider, top_k_slider, top_p_slider, repetition_penalty_slider],
outputs=input_text
)
clear_btn.click(lambda: "", None, input_text)
# 使い方の説明
gr.Markdown("""
## 使い方
1. 上部のプルダウンメニューから使用するモデルを選択します
2. テキストボックスに続きを生成したい文章を入力します
3. 生成パラメータ(追加するトークン数、創造性、top_k、top_p、繰り返しペナルティ)を調整します
4. 「続きを生成」ボタンをクリックすると、入力したテキストの続きが生成され、元のテキストに追加されます
5. 「クリア」ボタンを押すと、テキストボックスの内容がクリアされます
6. 満足のいく結果が得られるまで、繰り返し「続きを生成」ボタンを押して文章を発展させることができます
## ヒント
- 短い文章から始め、徐々に発展させると良い結果が得られます
- 創造性(温度)を高くすると予測不可能な生成結果に、低くすると安定した結果になります
- top_k や top_p、繰り返しペナルティも状況に応じて調整してみてください
""")
# アプリの起動
demo.launch()