AXCXEPT/EZO2.5-gemma-3-12b-it-Preview

image/png


Model Details

昨今登場したLLM自身の力を自力で向上させる「GRPO」や「PPO」の概念を、 弊社で開発した「EZO」というトレーニング手法にミックスすることで、 3,000件のデータセット、2時間×H200×8台のトレーニングで、Japanese MT Benchおよび、Elyza Tasks100におけるベースモデルの日本語性能を向上させることに成功したモデルです。

本トレーニング手法は、まだ研究段階にあり手法の自動化や、アブレーションが必要なステータスではあるものの、複雑かつ非常に時間がかかるGRPO/PPOといった強化学習方法を、 低予算でも実現できる大体の手段となりえると考えています。

By integrating the recently introduced concepts of “GRPO” and “PPO” — which enable LLMs to autonomously improve their own capabilities — into our proprietary training method “EZO,” we successfully enhanced the Japanese performance of the base model on both Japanese MT Bench and Elyza Tasks100. This was achieved using only 3,000 training samples and two hours of training on 8 H200 GPUs. While this training method is still in the research phase and requires further automation and ablation studies, we believe it represents a viable alternative to complex and time-consuming reinforcement learning approaches like GRPO/PPO — making it achievable even on a limited budget.

Bench Mark

image/png

もともと非常に高い日本語性能を示していた、google/gemma-3-12b-itから、短時間のトレーニングで性能向上を達成。 32B, 72Bのモデルにも一部肉薄し、ベースモデルの性能向上に伴い特化型の性能向上が実現できている。 ※ただし、ベンチマークそのものの多様性が今後必要となるため、今後は、選択肢の多い英語での実施も行い、トレーニング成果の実用性実証研究を行う予定です。


How to use

Runs on a single A40 GPU.

vllm serve AXCXEPT/EZO2.5-gemma-3-12b-it-Preview --max-model-len 32768 --enforce-eager
from openai import OpenAI
client = OpenAI(
    base_url="http://localhost:8000/v1",
    api_key="token-abc123",
)

prompt = """Every morning Aya goes for a $9$-kilometer-long walk and stops at a coffee shop afterwards. When she walks at a constant speed of $s$ kilometers per hour, the walk takes her 4 hours, including $t$ minutes spent in the coffee shop. When she walks $s+2$ kilometers per hour, the walk takes her 2 hours and 24 minutes, including $t$ minutes spent in the coffee shop. Suppose Aya walks at $s+rac{1}{2}$ kilometers per hour. Find the number of minutes the walk takes her, including the $t$ minutes spent in the coffee shop."""
completion = client.chat.completions.create(
  model="AXCXEPT/EZO2.5-gemma-3-12b-it-Preview",
  messages=[
    {"role": "user", "content": prompt}
  ],
  temperature=0.0,
  top_p=1.0,
  max_tokens: 20480
)

print(completion.choices[0].message)

ベンチマークスコアは、temperature: 0.0、top_p: 1.0、"max_tokens": 20480で推論した結果に基づきます。Cons@64などのばらつきによる評価は未実施です。


License

このモデルは研究のために開発されています。利用に際する一切の損害に関して、当社ならびに開発者は一切持たないことを理解の上ご活用ください。 Of course. Here's the English translation:


This model has been developed for research purposes. Please use it with the understanding that our company and the developers accept no responsibility for any damages resulting from its use.


Special Thanks

本モデルのベースモデルの開発を行った、Google社ならびに同社の開発チームに、尊敬と敬意の念をここに表します。 We would like to express our sincere respect and appreciation to Google and its development team for creating the base model upon which this model is built.

Downloads last month
43
Safetensors
Model size
12.2B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for AXCXEPT/EZO2.5-gemma-3-12b-it-Preview

Finetuned
(44)
this model
Quantizations
3 models

Collection including AXCXEPT/EZO2.5-gemma-3-12b-it-Preview