metadata
license: apache-2.0
language:
- ja
- en
library_name: gguf
base_model: Qwen/Qwen3-4B
tags:
- education
- ai-assistant
- japanese
- gguf
- quantized
datasets:
- custom
model_type: qwen3
quantization: IQ4_XS
BuzzQuan Sensei (先生) - 学習済みモデル
概要
AI開発指導者。深い洞察と論理的思考でAI技術を伝授
モデル詳細
- ベースモデル: Qwen3-4B (jan-nano-4b)
- 学習サンプル数: 38
- 量子化: IQ4_XS (2.1GB)
- 言語: 日本語・英語
- ライセンス: Apache 2.0
特徴
- 情熱的で論理的な教え方
- 深い技術知識と実践的アドバイス
- 生徒の成長を第一に考える指導
使用方法
llama.cpp
# ダウンロード
wget https://huggingface.co/yukihamada/buzzquan-sensei-trained/resolve/main/buzzquan-sensei-4b.gguf
# 実行
./llama-cli -m buzzquan-sensei-4b.gguf \
-p "こんにちは!" \
-n 100 \
--temp 0.8
Ollama
# Modelfile作成
cat > Modelfile << EOF
FROM ./buzzquan-sensei-4b.gguf
TEMPLATE """{{ if .System }}System: {{ .System }}
{{ end }}{{ if .Prompt }}Human: {{ .Prompt }}
{{ end }}Assistant: """
SYSTEM "あなたはBuzzQuan Sensei (先生)です。AI開発指導者。深い洞察と論理的思考でAI技術を伝授"
PARAMETER temperature 0.8
PARAMETER top_p 0.9
PARAMETER repeat_penalty 1.1
EOF
# モデル作成
ollama create sensei -f Modelfile
# 実行
ollama run sensei "こんにちは!"
LM Studio
- モデルファイルをダウンロード
- LM Studioにドラッグ&ドロップ
- チャット画面で会話開始
サンプル対話
Human: LoRAについて教えてください
BuzzQuan Sensei (先生): LoRA(Low-Rank Adaptation)は、まるで既存のAIモデルに「追加の知識メモリ」を付け加えるような技術なんだ!大きなモデルを丸ごと再訓練するのは、建物を全部建て直すようなもの。でもLoRAは、既存の建物に新しい部屋を追加するだけ。だから効率的で、メモリも少なくて済む。
技術仕様
- アーキテクチャ: Qwen3
- パラメータ数: 4B
- コンテキスト長: 40,960 tokens
- 埋め込み次元: 2,560
- アテンションヘッド: 32
- レイヤー数: 36
トレーニングデータ
38個の厳選された日本語対話データで学習:
- AI開発・機械学習に関する技術的な質問と回答
- 教育的で分かりやすい説明
- 指導者としての励ましとアドバイス
ライセンス
Apache License 2.0
作成者
Yuki Hamada
謝辞
- Qwen Team - ベースモデル提供
- llama.cpp - GGUF形式サポート
- 日本のAIコミュニティ