Model Card for Model ID
Clasificador de emociones en español para consultas sobre inclusión laboral, normas y leyes argentinas para personas con discapacidad.
Este repositorio contiene la versión fine-tuned de dccuchile/bert-base-spanish-wwm-uncased (BETO) para la clasificación de siete emociones en texto, optimizado para el dominio de consultas sobre legislación y derechos de personas con discapacidad en Argentina.
Este modelo es un componente central del sistema de tutoría inteligente Tuto_Doc, desarrollado como parte de una tesis doctoral en Informática en la Universidad Nacional de Misiones, Argentina.
🧠 Descripción del Modelo El modelo toma una cadena de texto en español y devuelve una distribución de probabilidad sobre las siguientes siete etiquetas emocionales: Alegria, Tristeza, Ira, Miedo, Sorpresa, Confianza, Anticipacion.
Fue entrenado para actuar como el "módulo afectivo" de un sistema de tutoría, permitiendo que el agente adapte su tono y estrategia de respuesta basándose en el estado emocional inferido del usuario.
🚀 Uso Previsto y Limitaciones Uso Previsto Este modelo está diseñado para ser utilizado como parte de un sistema de IA más grande que requiera una señal sobre el estado emocional del usuario a partir de texto. Es particularmente efectivo en contextos de consultas formales o informativas dentro del ámbito social y legal argentino.
Limitaciones El rendimiento del modelo es altamente dependiente de la distribución de clases en los datos de entrenamiento. Como se detalla en la sección de evaluación, el modelo muestra un rendimiento excelente en las clases mayoritarias (Alegria, Tristeza) pero falla en clasificar la clase con menor representación (Anticipacion). Por lo tanto, no se recomienda su uso en aplicaciones donde la detección de esta emoción específica sea crítica.
💻 ¿Cómo Usarlo? Puedes utilizar este modelo fácilmente con la pipeline text-classification de la librería transformers.
Instalar la librería de transformers
pip install transformers
from transformers import pipeline
Reemplaza "YaninaCaffetti/nombre-de-tu-modelo" con el nombre real de tu modelo en el Hub
model_checkpoint = "YaninaCaffetti/nombre-de-tu-modelo" classifier = pipeline("text-classification", model=model_checkpoint, return_all_scores=True)
Ejemplo de uso
consulta_usuario = "Estoy harto, mandé cien currículums y nadie me contesta."
Obtener las predicciones
scores = classifier(consulta_usuario) print(scores)
Resultado esperado (ejemplo):
[[{'label': 'Ira', 'score': 0.85...},
{'label': 'Tristeza', 'score': 0.12...},
...]]
📚 Datos de Entrenamiento
El modelo fue entrenado con un corpus en español construido a partir de dos fuentes:
El dataset público emotion de Hugging Face.
Un corpus propio de consultas sobre el dominio legal de la discapacidad.
Dada la escasez de datos para ciertas clases, se aplicó una estrategia de aumento de datos mediante back-translation. El corpus de entrenamiento fue traducido de español a inglés y luego de vuelta a español para generar paráfrasis sintácticas y semánticas, enriqueciendo la diversidad del conjunto de datos.
🛠️ Procedimiento de Entrenamiento El modelo base dccuchile/bert-base-spanish-wwm-uncased fue ajustado durante 3 épocas. Para contrarrestar el desbalance de clases, se utilizó un WeightedLossTrainer que aplica pesos a la función de pérdida CrossEntropyLoss. Se incorporó también una llamada de EarlyStopping para prevenir el sobreajuste, monitorizando la métrica f1_macro en el conjunto de validación.
📊 Resultados de la Evaluación El modelo alcanzó un Macro F1-Score de 0.759 en el conjunto de pruebas ciego. El análisis de rendimiento por clase revela:
Alta Precisión en Clases Prevalentes: Alegria (F1 = 0.93) y Tristeza (F1 = 0.95).
Fallo en Clases Minoritarias: Anticipacion (F1 = 0.00), debido a la extrema escasez de ejemplos en el conjunto de pruebas.
Cita Si utilizas este modelo en tu investigación, por favor cita nuestro trabajo.
- Downloads last month
- 23
Model tree for Yanina007Caffetti/tutor-cognitivo-emociones-beto
Base model
dccuchile/bert-base-spanish-wwm-uncased