Mattimax/TinyChat-ITA
Viewer • Updated • 19k • 10
How to use MINC01/ITA-Mini-60M with Transformers.js:
// npm i @huggingface/transformers
import { pipeline } from '@huggingface/transformers';
// Allocate pipeline
const pipe = await pipeline('text-generation', 'MINC01/ITA-Mini-60M');MINC01/ITA-Mini-60M è un modello linguistico causale da circa 60 milioni di parametri, ottimizzato per la conversazione in lingua italiana.
Il modello è stato addestrato su un dataset proprietario di dialoghi istruzione-risposta, con l’obiettivo di offrire buone capacità conversazionali in un formato leggero e facilmente distribuibile.
Non è progettato per:
<|user|>
{testo_utente}
<|assistant|>
{risposta_modello}</s>
Il modello è sensibile a questo formato.
| Parametro | Valore |
|---|---|
| Batch size | 8 |
| Gradient accumulation | 4 |
| Learning rate | 2e-5 |
| Epochs | 2 |
| Weight decay | 0.05 |
| Warmup ratio | 0.1 |
| Max grad norm | 1.0 |
| Validation split | 5% |
Il modello è stato validato esclusivamente tramite loss e test qualitativi manuali.
Il modello:
Responsabilità d’uso interamente a carico dell’utente.
from transformers import AutoTokenizer, AutoModelForCausalLM
tok = AutoTokenizer.from_pretrained("MINC01/ITA-Mini-60M")
model = AutoModelForCausalLM.from_pretrained("MINC01/ITA-Mini-60M")
prompt = "<|user|>\nScrivi una poesia sul mare.\n<|assistant|>\n"
inputs = tok(prompt, return_tensors="pt")
out = model.generate(**inputs, max_new_tokens=200)
print(tok.decode(out[0], skip_special_tokens=True))
MINC01
@misc{minc01_ita_mini_60m,
title = {MINC01/ITA-Mini-60M},
author = {MINC01},
year = {2026},
publisher = {HuggingFace}
}