Spaces:
Build error
Build error
| import streamlit as st | |
| from llama_cpp import Llama | |
| from huggingface_hub import hf_hub_download | |
| import os | |
| # Establecer una carpeta accesible para caché | |
| os.environ['HF_HOME'] = '/tmp/hf_cache' | |
| # Descargar el modelo GGUF | |
| def cargar_modelo(): | |
| model_path = hf_hub_download( | |
| repo_id="unsloth/Llama-4-Scout-17B-16E-Instruct-GGUF", | |
| filename="Llama-4-Scout-17B-16E-Instruct-UD-IQ1_S.gguf" | |
| ) | |
| llm = Llama( | |
| model_path=model_path, | |
| n_ctx=2048, | |
| n_threads=4 | |
| ) | |
| return llm | |
| llm = cargar_modelo() | |
| # Título del Streamlit App | |
| st.title("🦙 Llama-4 Scout con llama.cpp (CPU)") | |
| # Input del usuario | |
| prompt = st.text_area("Introduce tu prompt aquí:") | |
| # Botón para generar respuesta | |
| if st.button("Generar Respuesta"): | |
| with st.spinner("Generando respuesta..."): | |
| output = llm.create_chat_completion( | |
| messages=[{"role": "user", "content": prompt}], | |
| max_tokens=200 | |
| ) | |
| respuesta = output["choices"][0]["message"]["content"] | |
| st.markdown(f"### Respuesta:\n{respuesta}") | |