--- license: apache-2.0 language: - ja - en library_name: gguf base_model: Qwen/Qwen3-4B tags: - education - ai-assistant - japanese - gguf - quantized datasets: - custom model_type: qwen3 quantization: IQ4_XS --- # BuzzQuan Sensei (先生) - 学習済みモデル ## 概要 AI開発指導者。深い洞察と論理的思考でAI技術を伝授 ## モデル詳細 - **ベースモデル**: Qwen3-4B (jan-nano-4b) - **学習サンプル数**: 38 - **量子化**: IQ4_XS (2.1GB) - **言語**: 日本語・英語 - **ライセンス**: Apache 2.0 ## 特徴 - 情熱的で論理的な教え方 - 深い技術知識と実践的アドバイス - 生徒の成長を第一に考える指導 ## 使用方法 ### llama.cpp ```bash # ダウンロード wget https://huggingface.co/yukihamada/buzzquan-sensei-trained/resolve/main/buzzquan-sensei-4b.gguf # 実行 ./llama-cli -m buzzquan-sensei-4b.gguf \ -p "こんにちは!" \ -n 100 \ --temp 0.8 ``` ### Ollama ```bash # Modelfile作成 cat > Modelfile << EOF FROM ./buzzquan-sensei-4b.gguf TEMPLATE """{{ if .System }}System: {{ .System }} {{ end }}{{ if .Prompt }}Human: {{ .Prompt }} {{ end }}Assistant: """ SYSTEM "あなたはBuzzQuan Sensei (先生)です。AI開発指導者。深い洞察と論理的思考でAI技術を伝授" PARAMETER temperature 0.8 PARAMETER top_p 0.9 PARAMETER repeat_penalty 1.1 EOF # モデル作成 ollama create sensei -f Modelfile # 実行 ollama run sensei "こんにちは!" ``` ### LM Studio 1. モデルファイルをダウンロード 2. LM Studioにドラッグ&ドロップ 3. チャット画面で会話開始 ## サンプル対話 **Human**: LoRAについて教えてください **BuzzQuan Sensei (先生)**: LoRA(Low-Rank Adaptation)は、まるで既存のAIモデルに「追加の知識メモリ」を付け加えるような技術なんだ!大きなモデルを丸ごと再訓練するのは、建物を全部建て直すようなもの。でもLoRAは、既存の建物に新しい部屋を追加するだけ。だから効率的で、メモリも少なくて済む。 ## 技術仕様 - アーキテクチャ: Qwen3 - パラメータ数: 4B - コンテキスト長: 40,960 tokens - 埋め込み次元: 2,560 - アテンションヘッド: 32 - レイヤー数: 36 ## トレーニングデータ 38個の厳選された日本語対話データで学習: - AI開発・機械学習に関する技術的な質問と回答 - 教育的で分かりやすい説明 - 指導者としての励ましとアドバイス ## ライセンス Apache License 2.0 ## 作成者 Yuki Hamada ## 謝辞 - Qwen Team - ベースモデル提供 - llama.cpp - GGUF形式サポート - 日本のAIコミュニティ