Update app.py
Browse files
app.py
CHANGED
@@ -1,12 +1,21 @@
|
|
1 |
import streamlit as st
|
|
|
2 |
from transformers import pipeline
|
3 |
|
4 |
-
# Carica il modello
|
5 |
-
|
|
|
6 |
|
7 |
# Funzione di inferenza
|
8 |
def predict_entities(text):
|
9 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
10 |
|
11 |
st.title("Hotel Bot")
|
12 |
query = st.text_input("Inserisci una query:")
|
|
|
1 |
import streamlit as st
|
2 |
+
from transformers import BertTokenizer, BertForTokenClassification
|
3 |
from transformers import pipeline
|
4 |
|
5 |
+
# Carica il modello e il tokenizer
|
6 |
+
model = BertForTokenClassification.from_pretrained("./hotel_model")
|
7 |
+
tokenizer = BertTokenizer.from_pretrained("./hotel_model")
|
8 |
|
9 |
# Funzione di inferenza
|
10 |
def predict_entities(text):
|
11 |
+
# Tokenizza il testo
|
12 |
+
inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True, max_length=512)
|
13 |
+
# Ottieni le predizioni dal modello
|
14 |
+
outputs = model(**inputs)
|
15 |
+
logits = outputs.logits
|
16 |
+
predicted_ids = torch.argmax(logits, dim=-1)
|
17 |
+
# Converti le predizioni in etichette (potresti aver bisogno di una mappatura delle etichette)
|
18 |
+
return predicted_ids
|
19 |
|
20 |
st.title("Hotel Bot")
|
21 |
query = st.text_input("Inserisci una query:")
|