locorene1000 commited on
Commit
52a4c94
1 Parent(s): f55a9be
Files changed (2) hide show
  1. app.py +18 -4
  2. requirements.txt +5 -9
app.py CHANGED
@@ -1,5 +1,6 @@
1
- from transformers import AutoTokenizer, AutoModelForCausalLM
2
  from huggingface_hub import snapshot_download
 
3
  import os
4
 
5
  # Configurar el token de acceso desde el secreto
@@ -37,6 +38,19 @@ def generar_respuesta(mensaje_usuario):
37
 
38
  return response_text
39
 
40
- # Ejemplo de uso
41
- mensaje_usuario = "Aqu铆 va el borrador de la resoluci贸n judicial."
42
- print(generar_respuesta(mensaje_usuario))
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
2
  from huggingface_hub import snapshot_download
3
+ import gradio as gr
4
  import os
5
 
6
  # Configurar el token de acceso desde el secreto
 
38
 
39
  return response_text
40
 
41
+ # Configurar Gradio
42
+ interface = gr.Interface(
43
+ fn=generar_respuesta,
44
+ inputs=gr.Textbox(lines=15, label="Borrador de Resoluci贸n Judicial"),
45
+ outputs=gr.Textbox(label="Revisi贸n del Ministro de Corte Suprema en Visita"),
46
+ title="Asistente Legal: Ministro de Corte Suprema en Visita",
47
+ description=(
48
+ "El Ministro de Corte Suprema en Visita valida y mejora las redacciones legales realizadas por el Ministro de Corte Suprema Titular. "
49
+ "Especializado en derecho civil, laboral, cobranza laboral y previsi贸n, con habilidades avanzadas en redacci贸n jur铆dica formal, "
50
+ "y conocimiento de conceptos jur铆dicos clave."
51
+ )
52
+ )
53
+
54
+ # Ejecutar la aplicaci贸n
55
+ if __name__ == "__main__":
56
+ interface.launch(server_name="0.0.0.0", server_port=7860, share=True)
requirements.txt CHANGED
@@ -1,9 +1,5 @@
1
- gradio
2
- transformers
3
- torch
4
- huggingface_hub
5
- fastapi
6
- uvicorn
7
- pydantic
8
- requests
9
- numpy<2
 
1
+ transformers==4.30.0
2
+ torch==2.0.1
3
+ huggingface_hub==0.16.4
4
+ gradio==3.24.1 # Para la interfaz web
5
+ numpy==1.23.0 # Biblioteca para computaci贸n cient铆fica