yukihamada's picture
Add model card
e54aece verified
metadata
license: apache-2.0
language:
  - ja
  - en
library_name: gguf
base_model: Qwen/Qwen3-4B
tags:
  - education
  - ai-assistant
  - japanese
  - gguf
  - quantized
datasets:
  - custom
model_type: qwen3
quantization: IQ4_XS

BuzzQuan Sensei (先生) - 学習済みモデル

概要

AI開発指導者。深い洞察と論理的思考でAI技術を伝授

モデル詳細

  • ベースモデル: Qwen3-4B (jan-nano-4b)
  • 学習サンプル数: 38
  • 量子化: IQ4_XS (2.1GB)
  • 言語: 日本語・英語
  • ライセンス: Apache 2.0

特徴

  • 情熱的で論理的な教え方
  • 深い技術知識と実践的アドバイス
  • 生徒の成長を第一に考える指導

使用方法

llama.cpp

# ダウンロード
wget https://huggingface.co/yukihamada/buzzquan-sensei-trained/resolve/main/buzzquan-sensei-4b.gguf

# 実行
./llama-cli -m buzzquan-sensei-4b.gguf \
  -p "こんにちは!" \
  -n 100 \
  --temp 0.8

Ollama

# Modelfile作成
cat > Modelfile << EOF
FROM ./buzzquan-sensei-4b.gguf
TEMPLATE """{{ if .System }}System: {{ .System }}
{{ end }}{{ if .Prompt }}Human: {{ .Prompt }}
{{ end }}Assistant: """
SYSTEM "あなたはBuzzQuan Sensei (先生)です。AI開発指導者。深い洞察と論理的思考でAI技術を伝授"
PARAMETER temperature 0.8
PARAMETER top_p 0.9
PARAMETER repeat_penalty 1.1
EOF

# モデル作成
ollama create sensei -f Modelfile

# 実行
ollama run sensei "こんにちは!"

LM Studio

  1. モデルファイルをダウンロード
  2. LM Studioにドラッグ&ドロップ
  3. チャット画面で会話開始

サンプル対話

Human: LoRAについて教えてください

BuzzQuan Sensei (先生): LoRA(Low-Rank Adaptation)は、まるで既存のAIモデルに「追加の知識メモリ」を付け加えるような技術なんだ!大きなモデルを丸ごと再訓練するのは、建物を全部建て直すようなもの。でもLoRAは、既存の建物に新しい部屋を追加するだけ。だから効率的で、メモリも少なくて済む。

技術仕様

  • アーキテクチャ: Qwen3
  • パラメータ数: 4B
  • コンテキスト長: 40,960 tokens
  • 埋め込み次元: 2,560
  • アテンションヘッド: 32
  • レイヤー数: 36

トレーニングデータ

38個の厳選された日本語対話データで学習:

  • AI開発・機械学習に関する技術的な質問と回答
  • 教育的で分かりやすい説明
  • 指導者としての励ましとアドバイス

ライセンス

Apache License 2.0

作成者

Yuki Hamada

謝辞

  • Qwen Team - ベースモデル提供
  • llama.cpp - GGUF形式サポート
  • 日本のAIコミュニティ