Create README.md
#1
by
ox-ox
- opened
README.md
ADDED
@@ -0,0 +1,79 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: mit # Ou autre licence si spécifiée par le dépôt/papier
|
3 |
+
tags:
|
4 |
+
- qwen2
|
5 |
+
- code-reasoning
|
6 |
+
- math-reasoning
|
7 |
+
- reinforcement-learning
|
8 |
+
- self-play
|
9 |
+
- absolute-zero
|
10 |
+
- rlvr
|
11 |
+
- azr
|
12 |
+
---
|
13 |
+
|
14 |
+
# Absolute_Zero_Reasoner-Base-7b
|
15 |
+
|
16 |
+
Ce modèle est une instance de l'**Absolute Zero Reasoner (AZR)**, basé sur le modèle **Qwen2.5-7B**, entraîné selon le paradigme **Absolute Zero** décrit dans le papier suivant :
|
17 |
+
|
18 |
+
**Absolute Zero: Reinforced Self-play Reasoning with Zero Data**
|
19 |
+
*Andrew Zhao, Yiran Wu, Yang Yue, Tong Wu, Quentin Xu, Yang Yue, Matthieu Lin, Shenzhi Wang, Qingyun Wu, Zilong Zheng, and Gao Huang*
|
20 |
+
*arXiv:2505.03335 [cs.LG]*
|
21 |
+
[[Papier ArXiv](https://arxiv.org/abs/2505.03335)] [[Code](URL_DU_CODE_SI_DISPONIBLE)] [[Projet](URL_DU_PROJET_SI_DISPONIBLE)]
|
22 |
+
|
23 |
+
## Résumé du Papier (Adapté)
|
24 |
+
|
25 |
+
L'apprentissage par renforcement avec récompenses vérifiables (RLVR) a montré des promesses pour améliorer les capacités de raisonnement des grands modèles de langage (LLMs) en apprenant directement à partir de récompenses basées sur les résultats. Les travaux récents en RLVR dans le cadre "zéro" évitent la supervision pour l'étiquetage du processus de raisonnement, mais dépendent toujours de collections de questions-réponses organisées manuellement pour l'entraînement. La rareté d'exemples de haute qualité produits par l'homme soulève des inquiétudes quant à la scalabilité à long terme de la dépendance à la supervision humaine.
|
26 |
+
|
27 |
+
Pour répondre à ces préoccupations, nous proposons un nouveau paradigme RLVR appelé **Absolute Zero**, dans lequel un seul modèle apprend à proposer des tâches qui maximisent sa propre progression d'apprentissage et améliore son raisonnement en les résolvant, **sans dépendre d'aucune donnée externe**.
|
28 |
+
|
29 |
+
Sous ce paradigme, nous introduisons l'**Absolute Zero Reasoner (AZR)**, un système qui fait évoluer de manière autonome son curriculum d'entraînement et sa capacité de raisonnement en utilisant un exécuteur de code pour à la fois valider les tâches de raisonnement de code proposées et vérifier les réponses, servant de source unifiée de récompense vérifiable pour guider un apprentissage ouvert mais ancré.
|
30 |
+
|
31 |
+
## Description du Modèle
|
32 |
+
|
33 |
+
`Absolute_Zero_Reasoner-Base-7b` est une version du modèle Qwen2.5-7B entraînée avec l'approche AZR.
|
34 |
+
|
35 |
+
* **Paradigme d'Entraînement :** Absolute Zero (Auto-génération de tâches et résolution par auto-jeu).
|
36 |
+
* **Données d'Entraînement :** **AUCUNE donnée externe.** Le modèle génère ses propres tâches de raisonnement basées sur du code (déduction, abduction, induction) et apprend à partir des résultats vérifiés par un exécuteur de code Python.
|
37 |
+
* **Algorithme RL :** Task-Relative REINFORCE++ (TRR++).
|
38 |
+
* **Modèle de Base :** Qwen2.5-7B.
|
39 |
+
|
40 |
+
## Performance
|
41 |
+
|
42 |
+
Bien qu'entraîné entièrement sans données externes spécifiques au domaine, AZR (dans ses différentes tailles et variantes de base) a démontré :
|
43 |
+
|
44 |
+
* Des performances globales **état de l'art (SOTA)** sur les tâches de codage et de raisonnement mathématique, surpassant les modèles existants en configuration "zéro" qui reposent sur des dizaines de milliers d'exemples organisés par des humains dans le domaine (voir Table 1 du papier). La version 7B-Coder, en particulier, a montré des gains significatifs.
|
45 |
+
* Une **forte généralisation inter-domaines** (les améliorations sur les tâches de code transfèrent bien aux mathématiques, et vice-versa, mieux que les approches RLVR standard). La version 7B-Base a gagné +10.9 points en maths et la version 7B-Coder +15.2 points (Table 1).
|
46 |
+
* Les **gains de performance augmentent avec la taille** du modèle de base (Figure 6b du papier).
|
47 |
+
* Des **comportements émergents** tels que la planification intermédiaire via des commentaires dans le code généré (Figure 19 du papier).
|
48 |
+
|
49 |
+
*Consultez le papier [arXiv:2505.03335](https://arxiv.org/abs/2505.03335) pour les résultats détaillés, notamment les scores spécifiques du modèle 7B.*
|
50 |
+
|
51 |
+
## Comment Utiliser
|
52 |
+
|
53 |
+
Ce modèle est un checkpoint résultant d'un entraînement par auto-jeu RL selon le paradigme Absolute Zero. Son utilisation directe avec des pipelines `transformers` standards peut ne pas capturer le processus complet d'auto-jeu (proposition + résolution).
|
54 |
+
|
55 |
+
Il est principalement destiné à :
|
56 |
+
|
57 |
+
* La **recherche** sur l'IA auto-améliorante et l'apprentissage sans données externes.
|
58 |
+
* Servir de **point de départ** pour un entraînement AZR ultérieur ou une analyse des capacités de raisonnement émergentes.
|
59 |
+
* Être utilisé dans le cadre du **code source officiel AZR** (si disponible) qui implémente la boucle d'auto-jeu.
|
60 |
+
|
61 |
+
```python
|
62 |
+
# Exemple de chargement de base (peut nécessiter le code AZR pour une utilisation complète)
|
63 |
+
from transformers import AutoModelForCausalLM, AutoTokenizer
|
64 |
+
|
65 |
+
model_name = "andrewzh2/Absolute_Zero_Reasoner-Base-7b" # Assurez-vous que le nom est correct
|
66 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
67 |
+
model = AutoModelForCausalLM.from_pretrained(model_name)
|
68 |
+
|
69 |
+
# L'utilisation pour l'inférence nécessiterait de connaître le format de prompt
|
70 |
+
# spécifique utilisé pendant l'entraînement AZR (voir Figures 33-39 dans le papier)
|
71 |
+
# et potentiellement la logique de l'environnement (code executor).
|
72 |
+
Usage PrévuRecherche fondamentale en IA et raisonnement.Tâches de raisonnement générales, en particulier en codage et mathématiques, dans le contexte du framework AZR.Limitations et BiaisCe modèle partage les limitations standards des LLMs (erreurs factuelles potentielles, reflets des biais des données de pré-entraînement du modèle de base Qwen2.5-7B).Le papier mentionne l'émergence de raisonnements potentiellement préoccupants ("uh-oh moment") avec la variante Llama3.1-8B, soulignant le besoin de recherches futures sur la sécurité dans les systèmes auto-améliorants (voir Figure 32 du papier). Ce comportement n'a pas été explicitement rapporté pour les modèles Qwen, mais la prudence est de mise.Les performances sont optimales pour les tâches de raisonnement basées sur le code, car c'était l'environnement d'entraînement. La généralisation à d'autres domaines est observée mais peut varier.Ne pas utiliser pour des applications critiques sans supervision humaine adéquate.CitationSi vous utilisez ce modèle ou l'approche Absolute Zero dans vos recherches, merci de citer le papier original :@misc{zhao2025absolute,
|
73 |
+
title={Absolute Zero: Reinforced Self-play Reasoning with Zero Data},
|
74 |
+
author={Andrew Zhao and Yiran Wu and Yang Yue and Tong Wu and Quentin Xu and Yang Yue and Matthieu Lin and Shenzhi Wang and Qingyun Wu and Zilong Zheng and Gao Huang},
|
75 |
+
year={2025},
|
76 |
+
eprint={2505.03335},
|
77 |
+
archivePrefix={arXiv},
|
78 |
+
primaryClass={cs.LG}
|
79 |
+
}
|