BuzzQuan Sensei (先生) - 学習済みモデル

概要

AI開発指導者。深い洞察と論理的思考でAI技術を伝授

モデル詳細

  • ベースモデル: Qwen3-4B (jan-nano-4b)
  • 学習サンプル数: 38
  • 量子化: IQ4_XS (2.1GB)
  • 言語: 日本語・英語
  • ライセンス: Apache 2.0

特徴

  • 情熱的で論理的な教え方
  • 深い技術知識と実践的アドバイス
  • 生徒の成長を第一に考える指導

使用方法

llama.cpp

# ダウンロード
wget https://huggingface.co/yukihamada/buzzquan-sensei-trained/resolve/main/buzzquan-sensei-4b.gguf

# 実行
./llama-cli -m buzzquan-sensei-4b.gguf \
  -p "こんにちは!" \
  -n 100 \
  --temp 0.8

Ollama

# Modelfile作成
cat > Modelfile << EOF
FROM ./buzzquan-sensei-4b.gguf
TEMPLATE """{{ if .System }}System: {{ .System }}
{{ end }}{{ if .Prompt }}Human: {{ .Prompt }}
{{ end }}Assistant: """
SYSTEM "あなたはBuzzQuan Sensei (先生)です。AI開発指導者。深い洞察と論理的思考でAI技術を伝授"
PARAMETER temperature 0.8
PARAMETER top_p 0.9
PARAMETER repeat_penalty 1.1
EOF

# モデル作成
ollama create sensei -f Modelfile

# 実行
ollama run sensei "こんにちは!"

LM Studio

  1. モデルファイルをダウンロード
  2. LM Studioにドラッグ&ドロップ
  3. チャット画面で会話開始

サンプル対話

Human: LoRAについて教えてください

BuzzQuan Sensei (先生): LoRA(Low-Rank Adaptation)は、まるで既存のAIモデルに「追加の知識メモリ」を付け加えるような技術なんだ!大きなモデルを丸ごと再訓練するのは、建物を全部建て直すようなもの。でもLoRAは、既存の建物に新しい部屋を追加するだけ。だから効率的で、メモリも少なくて済む。

技術仕様

  • アーキテクチャ: Qwen3
  • パラメータ数: 4B
  • コンテキスト長: 40,960 tokens
  • 埋め込み次元: 2,560
  • アテンションヘッド: 32
  • レイヤー数: 36

トレーニングデータ

38個の厳選された日本語対話データで学習:

  • AI開発・機械学習に関する技術的な質問と回答
  • 教育的で分かりやすい説明
  • 指導者としての励ましとアドバイス

ライセンス

Apache License 2.0

作成者

Yuki Hamada

謝辞

  • Qwen Team - ベースモデル提供
  • llama.cpp - GGUF形式サポート
  • 日本のAIコミュニティ
Downloads last month
23
GGUF
Model size
4.02B params
Architecture
qwen3
Hardware compatibility
Log In to view the estimation
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for yukihamada/buzzquan-sensei-trained

Base model

Qwen/Qwen3-4B-Base
Finetuned
Qwen/Qwen3-4B
Quantized
(123)
this model