Minh Thuận
commited on
Commit
·
8b1464e
1
Parent(s):
2eea9c1
create repo
Browse files- 1_Pooling/config.json +10 -0
- README.md +851 -0
- checkpoint-11/1_Pooling/config.json +10 -0
- checkpoint-11/README.md +850 -0
- checkpoint-11/config.json +27 -0
- checkpoint-11/config_sentence_transformers.json +10 -0
- checkpoint-11/model.safetensors +3 -0
- checkpoint-11/modules.json +20 -0
- checkpoint-11/optimizer.pt +3 -0
- checkpoint-11/rng_state.pth +3 -0
- checkpoint-11/scheduler.pt +3 -0
- checkpoint-11/sentence_bert_config.json +4 -0
- checkpoint-11/special_tokens_map.json +51 -0
- checkpoint-11/tokenizer.json +3 -0
- checkpoint-11/tokenizer_config.json +62 -0
- checkpoint-11/trainer_state.json +124 -0
- checkpoint-11/training_args.bin +3 -0
- config.json +27 -0
- config_sentence_transformers.json +10 -0
- eval/Information-Retrieval_evaluation_dim_128_results.csv +2 -0
- eval/Information-Retrieval_evaluation_dim_256_results.csv +2 -0
- eval/Information-Retrieval_evaluation_dim_512_results.csv +2 -0
- eval/Information-Retrieval_evaluation_dim_64_results.csv +2 -0
- eval/Information-Retrieval_evaluation_dim_768_results.csv +2 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +51 -0
- tokenizer.json +3 -0
- tokenizer_config.json +62 -0
- training_args.bin +3 -0
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 768,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,851 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
language:
|
3 |
+
- en
|
4 |
+
license: apache-2.0
|
5 |
+
tags:
|
6 |
+
- sentence-transformers
|
7 |
+
- sentence-similarity
|
8 |
+
- feature-extraction
|
9 |
+
- generated_from_trainer
|
10 |
+
- dataset_size:1421
|
11 |
+
- loss:MatryoshkaLoss
|
12 |
+
- loss:MultipleNegativesRankingLoss
|
13 |
+
base_model: hiieu/halong_embedding
|
14 |
+
widget:
|
15 |
+
- source_sentence: Dạ chào bác sĩ ,e bị đau tức bụng hông trái lan ra lưng ,xét nghiệm
|
16 |
+
nước tiểu thì protein 1+,hồng cầu 1+ thì có bị sao không bác sĩ
|
17 |
+
sentences:
|
18 |
+
- Trong hầu hết các trường hợp, chứng run do thuốc không phải là tình trạng vĩnh
|
19 |
+
viễn. Khi ngừng thuốc hoặc giảm liều lượng, tình trạng run rẩy thường biến mất.
|
20 |
+
Tuy nhiên, trong một số trường hợp, tình trạng run có thể vẫn tồn tại ngay cả
|
21 |
+
sau khi ngừng thuốc.
|
22 |
+
- Chào em Thường trong nước tiểu không có protein , hồng cầu. Em nên đi khám sâu
|
23 |
+
hơn chuyên khoa thận tiết niệu để phân biệt đặc điểm trên do viêm đường niệu ở
|
24 |
+
vị trí nào em nhé( niệu đạo, thận, bàng quang,.
|
25 |
+
- Tư vấn di truyền có thể giúp những người có nguy cơ sinh con mắc chứng loạn dưỡng
|
26 |
+
cơ Duchenne bằng cách cung cấp thông tin về khả năng truyền gen đột biến và thảo
|
27 |
+
luận về các lựa chọn sinh sản. Ví dụ, nếu cả cha lẫn mẹ đều là người mang gen,
|
28 |
+
họ có thể chọn sử dụng phương pháp thụ tinh trong ống nghiệm và xét nghiệm di
|
29 |
+
truyền để chọn ra những phôi không mang gen đột biến.
|
30 |
+
- source_sentence: Siêu âm mắt là gì?
|
31 |
+
sentences:
|
32 |
+
- Bệnh thần kinh ngoại biên có thể gây ra nhiều triệu chứng khác nhau bao gồm tê
|
33 |
+
hoặc ngứa ran ở tay hoặc chân, yếu cơ và đau nhói, rát. Nó cũng có thể gây nhạy
|
34 |
+
cảm khi chạm và khó phối hợp và giữ thăng bằng.
|
35 |
+
- Chao em Chào bác sĩ Ảnh em chụp thì vẫn vàng da. Bs cần hỏi em thêm một số thông
|
36 |
+
tin nữa để kê đơn cho bé.
|
37 |
+
- Siêu âm mắt là một thủ thuật không xâm lấn trong đó sóng âm thanh được sử dụng
|
38 |
+
để tạo ra hình ảnh của mắt. Xét nghiệm này có thể giúp bác sĩ nhìn thấy kích thước,
|
39 |
+
vị trí và hình dạng của bất kỳ khối u nào có thể có trong mắt.
|
40 |
+
- source_sentence: Những xét nghiệm này chính xác đến mức nào?
|
41 |
+
sentences:
|
42 |
+
- Hội chứng rụng tóc động kinh oligophrenia của Moynahan hay còn gọi là hội chứng
|
43 |
+
Moynahan, là một rối loạn di truyền hiếm gặp ảnh hưởng đến nhiều hệ thống cơ thể.
|
44 |
+
Các triệu chứng thường gặp bao gồm chậm phát triển, thiểu năng trí tuệ, co giật,
|
45 |
+
rụng tóc và các đặc điểm đặc biệt trên khuôn mặt. Bạn có muốn biết thêm thông
|
46 |
+
tin về bất kỳ triệu chứng cụ thể nào không?
|
47 |
+
- Độ chính xác của các bài kiểm tra có thể khác nhau tùy thuộc vào loại bài kiểm
|
48 |
+
tra và thời điểm thực hiện. Nói chung, các xét nghiệm này có độ chính xác cao
|
49 |
+
và hiếm khi cho kết quả dương tính giả hoặc âm tính giả.
|
50 |
+
- Thật không may, hội chứng Partington không có cách chữa trị. Điều trị tập trung
|
51 |
+
vào việc giảm bớt các triệu chứng và cải thiện chất lượng cuộc sống.
|
52 |
+
- source_sentence: bác sĩ ơii, cho em hỏi là những hạt như vậy trong miệng em là gì
|
53 |
+
vậy ạ
|
54 |
+
sentences:
|
55 |
+
- Vâng, có một số biện pháp tự nhiên có thể giúp chữa bệnh tiêu chảy. Ăn thực phẩm
|
56 |
+
giàu men vi sinh như sữa chua có thể giúp phục hồi vi khuẩn khỏe mạnh trong ruột.
|
57 |
+
- Có, các yếu tố nguy cơ khác bao gồm từng bị nhiễm trùng trước đó, mắc bệnh tự
|
58 |
+
miễn và tiếp xúc với một số chất độc hoặc thuốc. Huyết áp cao và hút thuốc cũng
|
59 |
+
được coi là yếu tố nguy cơ.
|
60 |
+
- Chào em Em có đau buốt gì ko em? dạ k ạ Nếu em đã quan hệ bằng miệng rồi, hiện
|
61 |
+
tại ko đau buốt gì nên đi xn HPV miệng em nhé
|
62 |
+
- source_sentence: Có xét nghiệm cụ thể nào để chẩn đoán hội chứng này không?
|
63 |
+
sentences:
|
64 |
+
- Entecavir đã được chứng minh là có hiệu quả chủ yếu chống lại HBV kiểu gen A.
|
65 |
+
Tuy nhiên, nó cũng có tác dụng chống lại HBV kiểu gen B và C.
|
66 |
+
- Có, có nhiều lựa chọn điều trị khác nhau tùy thuộc vào tình trạng cụ thể và mức
|
67 |
+
độ nghiêm trọng của các triệu chứng. Điều trị có thể bao gồm các bài tập sàn chậu,
|
68 |
+
dùng thuốc và phẫu thuật.
|
69 |
+
- Có, có những xét nghiệm cụ thể có thể chẩn đoán hội chứng Cockayne loại II. Chúng
|
70 |
+
bao gồm xét nghiệm di truyền, xét nghiệm máu và nước tiểu, cũng như kiểm tra thần
|
71 |
+
kinh.
|
72 |
+
pipeline_tag: sentence-similarity
|
73 |
+
library_name: sentence-transformers
|
74 |
+
metrics:
|
75 |
+
- cosine_accuracy@1
|
76 |
+
- cosine_accuracy@3
|
77 |
+
- cosine_accuracy@5
|
78 |
+
- cosine_accuracy@10
|
79 |
+
- cosine_precision@1
|
80 |
+
- cosine_precision@3
|
81 |
+
- cosine_precision@5
|
82 |
+
- cosine_precision@10
|
83 |
+
- cosine_recall@1
|
84 |
+
- cosine_recall@3
|
85 |
+
- cosine_recall@5
|
86 |
+
- cosine_recall@10
|
87 |
+
- cosine_ndcg@10
|
88 |
+
- cosine_mrr@10
|
89 |
+
- cosine_map@100
|
90 |
+
model-index:
|
91 |
+
- name: BGE base Financial Matryoshka
|
92 |
+
results:
|
93 |
+
- task:
|
94 |
+
type: information-retrieval
|
95 |
+
name: Information Retrieval
|
96 |
+
dataset:
|
97 |
+
name: dim 768
|
98 |
+
type: dim_768
|
99 |
+
metrics:
|
100 |
+
- type: cosine_accuracy@1
|
101 |
+
value: 0.689873417721519
|
102 |
+
name: Cosine Accuracy@1
|
103 |
+
- type: cosine_accuracy@3
|
104 |
+
value: 0.7341772151898734
|
105 |
+
name: Cosine Accuracy@3
|
106 |
+
- type: cosine_accuracy@5
|
107 |
+
value: 0.7658227848101266
|
108 |
+
name: Cosine Accuracy@5
|
109 |
+
- type: cosine_accuracy@10
|
110 |
+
value: 0.7911392405063291
|
111 |
+
name: Cosine Accuracy@10
|
112 |
+
- type: cosine_precision@1
|
113 |
+
value: 0.689873417721519
|
114 |
+
name: Cosine Precision@1
|
115 |
+
- type: cosine_precision@3
|
116 |
+
value: 0.24472573839662443
|
117 |
+
name: Cosine Precision@3
|
118 |
+
- type: cosine_precision@5
|
119 |
+
value: 0.1531645569620253
|
120 |
+
name: Cosine Precision@5
|
121 |
+
- type: cosine_precision@10
|
122 |
+
value: 0.07911392405063289
|
123 |
+
name: Cosine Precision@10
|
124 |
+
- type: cosine_recall@1
|
125 |
+
value: 0.689873417721519
|
126 |
+
name: Cosine Recall@1
|
127 |
+
- type: cosine_recall@3
|
128 |
+
value: 0.7341772151898734
|
129 |
+
name: Cosine Recall@3
|
130 |
+
- type: cosine_recall@5
|
131 |
+
value: 0.7658227848101266
|
132 |
+
name: Cosine Recall@5
|
133 |
+
- type: cosine_recall@10
|
134 |
+
value: 0.7911392405063291
|
135 |
+
name: Cosine Recall@10
|
136 |
+
- type: cosine_ndcg@10
|
137 |
+
value: 0.7359964164308189
|
138 |
+
name: Cosine Ndcg@10
|
139 |
+
- type: cosine_mrr@10
|
140 |
+
value: 0.7186884669479607
|
141 |
+
name: Cosine Mrr@10
|
142 |
+
- type: cosine_map@100
|
143 |
+
value: 0.7231429561762966
|
144 |
+
name: Cosine Map@100
|
145 |
+
- task:
|
146 |
+
type: information-retrieval
|
147 |
+
name: Information Retrieval
|
148 |
+
dataset:
|
149 |
+
name: dim 512
|
150 |
+
type: dim_512
|
151 |
+
metrics:
|
152 |
+
- type: cosine_accuracy@1
|
153 |
+
value: 0.6962025316455697
|
154 |
+
name: Cosine Accuracy@1
|
155 |
+
- type: cosine_accuracy@3
|
156 |
+
value: 0.7278481012658228
|
157 |
+
name: Cosine Accuracy@3
|
158 |
+
- type: cosine_accuracy@5
|
159 |
+
value: 0.7531645569620253
|
160 |
+
name: Cosine Accuracy@5
|
161 |
+
- type: cosine_accuracy@10
|
162 |
+
value: 0.7848101265822784
|
163 |
+
name: Cosine Accuracy@10
|
164 |
+
- type: cosine_precision@1
|
165 |
+
value: 0.6962025316455697
|
166 |
+
name: Cosine Precision@1
|
167 |
+
- type: cosine_precision@3
|
168 |
+
value: 0.24261603375527424
|
169 |
+
name: Cosine Precision@3
|
170 |
+
- type: cosine_precision@5
|
171 |
+
value: 0.15063291139240503
|
172 |
+
name: Cosine Precision@5
|
173 |
+
- type: cosine_precision@10
|
174 |
+
value: 0.07848101265822782
|
175 |
+
name: Cosine Precision@10
|
176 |
+
- type: cosine_recall@1
|
177 |
+
value: 0.6962025316455697
|
178 |
+
name: Cosine Recall@1
|
179 |
+
- type: cosine_recall@3
|
180 |
+
value: 0.7278481012658228
|
181 |
+
name: Cosine Recall@3
|
182 |
+
- type: cosine_recall@5
|
183 |
+
value: 0.7531645569620253
|
184 |
+
name: Cosine Recall@5
|
185 |
+
- type: cosine_recall@10
|
186 |
+
value: 0.7848101265822784
|
187 |
+
name: Cosine Recall@10
|
188 |
+
- type: cosine_ndcg@10
|
189 |
+
value: 0.7365237174869693
|
190 |
+
name: Cosine Ndcg@10
|
191 |
+
- type: cosine_mrr@10
|
192 |
+
value: 0.7215340566606389
|
193 |
+
name: Cosine Mrr@10
|
194 |
+
- type: cosine_map@100
|
195 |
+
value: 0.7262381247862028
|
196 |
+
name: Cosine Map@100
|
197 |
+
- task:
|
198 |
+
type: information-retrieval
|
199 |
+
name: Information Retrieval
|
200 |
+
dataset:
|
201 |
+
name: dim 256
|
202 |
+
type: dim_256
|
203 |
+
metrics:
|
204 |
+
- type: cosine_accuracy@1
|
205 |
+
value: 0.6645569620253164
|
206 |
+
name: Cosine Accuracy@1
|
207 |
+
- type: cosine_accuracy@3
|
208 |
+
value: 0.7278481012658228
|
209 |
+
name: Cosine Accuracy@3
|
210 |
+
- type: cosine_accuracy@5
|
211 |
+
value: 0.7341772151898734
|
212 |
+
name: Cosine Accuracy@5
|
213 |
+
- type: cosine_accuracy@10
|
214 |
+
value: 0.7721518987341772
|
215 |
+
name: Cosine Accuracy@10
|
216 |
+
- type: cosine_precision@1
|
217 |
+
value: 0.6645569620253164
|
218 |
+
name: Cosine Precision@1
|
219 |
+
- type: cosine_precision@3
|
220 |
+
value: 0.24261603375527424
|
221 |
+
name: Cosine Precision@3
|
222 |
+
- type: cosine_precision@5
|
223 |
+
value: 0.14683544303797466
|
224 |
+
name: Cosine Precision@5
|
225 |
+
- type: cosine_precision@10
|
226 |
+
value: 0.0772151898734177
|
227 |
+
name: Cosine Precision@10
|
228 |
+
- type: cosine_recall@1
|
229 |
+
value: 0.6645569620253164
|
230 |
+
name: Cosine Recall@1
|
231 |
+
- type: cosine_recall@3
|
232 |
+
value: 0.7278481012658228
|
233 |
+
name: Cosine Recall@3
|
234 |
+
- type: cosine_recall@5
|
235 |
+
value: 0.7341772151898734
|
236 |
+
name: Cosine Recall@5
|
237 |
+
- type: cosine_recall@10
|
238 |
+
value: 0.7721518987341772
|
239 |
+
name: Cosine Recall@10
|
240 |
+
- type: cosine_ndcg@10
|
241 |
+
value: 0.717246153733281
|
242 |
+
name: Cosine Ndcg@10
|
243 |
+
- type: cosine_mrr@10
|
244 |
+
value: 0.6999196302993772
|
245 |
+
name: Cosine Mrr@10
|
246 |
+
- type: cosine_map@100
|
247 |
+
value: 0.7049830151644797
|
248 |
+
name: Cosine Map@100
|
249 |
+
- task:
|
250 |
+
type: information-retrieval
|
251 |
+
name: Information Retrieval
|
252 |
+
dataset:
|
253 |
+
name: dim 128
|
254 |
+
type: dim_128
|
255 |
+
metrics:
|
256 |
+
- type: cosine_accuracy@1
|
257 |
+
value: 0.620253164556962
|
258 |
+
name: Cosine Accuracy@1
|
259 |
+
- type: cosine_accuracy@3
|
260 |
+
value: 0.7278481012658228
|
261 |
+
name: Cosine Accuracy@3
|
262 |
+
- type: cosine_accuracy@5
|
263 |
+
value: 0.740506329113924
|
264 |
+
name: Cosine Accuracy@5
|
265 |
+
- type: cosine_accuracy@10
|
266 |
+
value: 0.7658227848101266
|
267 |
+
name: Cosine Accuracy@10
|
268 |
+
- type: cosine_precision@1
|
269 |
+
value: 0.620253164556962
|
270 |
+
name: Cosine Precision@1
|
271 |
+
- type: cosine_precision@3
|
272 |
+
value: 0.24261603375527424
|
273 |
+
name: Cosine Precision@3
|
274 |
+
- type: cosine_precision@5
|
275 |
+
value: 0.14810126582278477
|
276 |
+
name: Cosine Precision@5
|
277 |
+
- type: cosine_precision@10
|
278 |
+
value: 0.07658227848101265
|
279 |
+
name: Cosine Precision@10
|
280 |
+
- type: cosine_recall@1
|
281 |
+
value: 0.620253164556962
|
282 |
+
name: Cosine Recall@1
|
283 |
+
- type: cosine_recall@3
|
284 |
+
value: 0.7278481012658228
|
285 |
+
name: Cosine Recall@3
|
286 |
+
- type: cosine_recall@5
|
287 |
+
value: 0.740506329113924
|
288 |
+
name: Cosine Recall@5
|
289 |
+
- type: cosine_recall@10
|
290 |
+
value: 0.7658227848101266
|
291 |
+
name: Cosine Recall@10
|
292 |
+
- type: cosine_ndcg@10
|
293 |
+
value: 0.695814972032374
|
294 |
+
name: Cosine Ndcg@10
|
295 |
+
- type: cosine_mrr@10
|
296 |
+
value: 0.673010849909584
|
297 |
+
name: Cosine Mrr@10
|
298 |
+
- type: cosine_map@100
|
299 |
+
value: 0.6758935313130828
|
300 |
+
name: Cosine Map@100
|
301 |
+
- task:
|
302 |
+
type: information-retrieval
|
303 |
+
name: Information Retrieval
|
304 |
+
dataset:
|
305 |
+
name: dim 64
|
306 |
+
type: dim_64
|
307 |
+
metrics:
|
308 |
+
- type: cosine_accuracy@1
|
309 |
+
value: 0.5632911392405063
|
310 |
+
name: Cosine Accuracy@1
|
311 |
+
- type: cosine_accuracy@3
|
312 |
+
value: 0.6518987341772152
|
313 |
+
name: Cosine Accuracy@3
|
314 |
+
- type: cosine_accuracy@5
|
315 |
+
value: 0.6835443037974683
|
316 |
+
name: Cosine Accuracy@5
|
317 |
+
- type: cosine_accuracy@10
|
318 |
+
value: 0.7151898734177216
|
319 |
+
name: Cosine Accuracy@10
|
320 |
+
- type: cosine_precision@1
|
321 |
+
value: 0.5632911392405063
|
322 |
+
name: Cosine Precision@1
|
323 |
+
- type: cosine_precision@3
|
324 |
+
value: 0.2172995780590717
|
325 |
+
name: Cosine Precision@3
|
326 |
+
- type: cosine_precision@5
|
327 |
+
value: 0.13670886075949362
|
328 |
+
name: Cosine Precision@5
|
329 |
+
- type: cosine_precision@10
|
330 |
+
value: 0.07151898734177213
|
331 |
+
name: Cosine Precision@10
|
332 |
+
- type: cosine_recall@1
|
333 |
+
value: 0.5632911392405063
|
334 |
+
name: Cosine Recall@1
|
335 |
+
- type: cosine_recall@3
|
336 |
+
value: 0.6518987341772152
|
337 |
+
name: Cosine Recall@3
|
338 |
+
- type: cosine_recall@5
|
339 |
+
value: 0.6835443037974683
|
340 |
+
name: Cosine Recall@5
|
341 |
+
- type: cosine_recall@10
|
342 |
+
value: 0.7151898734177216
|
343 |
+
name: Cosine Recall@10
|
344 |
+
- type: cosine_ndcg@10
|
345 |
+
value: 0.6372309190806515
|
346 |
+
name: Cosine Ndcg@10
|
347 |
+
- type: cosine_mrr@10
|
348 |
+
value: 0.6125075346594335
|
349 |
+
name: Cosine Mrr@10
|
350 |
+
- type: cosine_map@100
|
351 |
+
value: 0.6183770912827027
|
352 |
+
name: Cosine Map@100
|
353 |
+
---
|
354 |
+
|
355 |
+
# BGE base Financial Matryoshka
|
356 |
+
|
357 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [hiieu/halong_embedding](https://huggingface.co/hiieu/halong_embedding) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
358 |
+
|
359 |
+
## Model Details
|
360 |
+
|
361 |
+
### Model Description
|
362 |
+
- **Model Type:** Sentence Transformer
|
363 |
+
- **Base model:** [hiieu/halong_embedding](https://huggingface.co/hiieu/halong_embedding) <!-- at revision b57776031035f70ed2030d2e35ecc533eb0f8f71 -->
|
364 |
+
- **Maximum Sequence Length:** 512 tokens
|
365 |
+
- **Output Dimensionality:** 768 dimensions
|
366 |
+
- **Similarity Function:** Cosine Similarity
|
367 |
+
- **Training Dataset:**
|
368 |
+
- json
|
369 |
+
- **Language:** en
|
370 |
+
- **License:** apache-2.0
|
371 |
+
|
372 |
+
### Model Sources
|
373 |
+
|
374 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
375 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
376 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
377 |
+
|
378 |
+
### Full Model Architecture
|
379 |
+
|
380 |
+
```
|
381 |
+
SentenceTransformer(
|
382 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
383 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
384 |
+
(2): Normalize()
|
385 |
+
)
|
386 |
+
```
|
387 |
+
|
388 |
+
## Usage
|
389 |
+
|
390 |
+
### Direct Usage (Sentence Transformers)
|
391 |
+
|
392 |
+
First install the Sentence Transformers library:
|
393 |
+
|
394 |
+
```bash
|
395 |
+
pip install -U sentence-transformers
|
396 |
+
```
|
397 |
+
|
398 |
+
Then you can load this model and run inference.
|
399 |
+
```python
|
400 |
+
from sentence_transformers import SentenceTransformer
|
401 |
+
|
402 |
+
# Download from the 🤗 Hub
|
403 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
404 |
+
# Run inference
|
405 |
+
sentences = [
|
406 |
+
'Có xét nghiệm cụ thể nào để chẩn đoán hội chứng này không?',
|
407 |
+
'Có, có những xét nghiệm cụ thể có thể chẩn đoán hội chứng Cockayne loại II. Chúng bao gồm xét nghiệm di truyền, xét nghiệm máu và nước tiểu, cũng như kiểm tra thần kinh.',
|
408 |
+
'Entecavir đã được chứng minh là có hiệu quả chủ yếu chống lại HBV kiểu gen A. Tuy nhiên, nó cũng có tác dụng chống lại HBV kiểu gen B và C.',
|
409 |
+
]
|
410 |
+
embeddings = model.encode(sentences)
|
411 |
+
print(embeddings.shape)
|
412 |
+
# [3, 768]
|
413 |
+
|
414 |
+
# Get the similarity scores for the embeddings
|
415 |
+
similarities = model.similarity(embeddings, embeddings)
|
416 |
+
print(similarities.shape)
|
417 |
+
# [3, 3]
|
418 |
+
```
|
419 |
+
|
420 |
+
<!--
|
421 |
+
### Direct Usage (Transformers)
|
422 |
+
|
423 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
424 |
+
|
425 |
+
</details>
|
426 |
+
-->
|
427 |
+
|
428 |
+
<!--
|
429 |
+
### Downstream Usage (Sentence Transformers)
|
430 |
+
|
431 |
+
You can finetune this model on your own dataset.
|
432 |
+
|
433 |
+
<details><summary>Click to expand</summary>
|
434 |
+
|
435 |
+
</details>
|
436 |
+
-->
|
437 |
+
|
438 |
+
<!--
|
439 |
+
### Out-of-Scope Use
|
440 |
+
|
441 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
442 |
+
-->
|
443 |
+
|
444 |
+
## Evaluation
|
445 |
+
|
446 |
+
### Metrics
|
447 |
+
|
448 |
+
#### Information Retrieval
|
449 |
+
|
450 |
+
* Dataset: `dim_768`
|
451 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
452 |
+
```json
|
453 |
+
{
|
454 |
+
"truncate_dim": 768
|
455 |
+
}
|
456 |
+
```
|
457 |
+
|
458 |
+
| Metric | Value |
|
459 |
+
|:--------------------|:----------|
|
460 |
+
| cosine_accuracy@1 | 0.6899 |
|
461 |
+
| cosine_accuracy@3 | 0.7342 |
|
462 |
+
| cosine_accuracy@5 | 0.7658 |
|
463 |
+
| cosine_accuracy@10 | 0.7911 |
|
464 |
+
| cosine_precision@1 | 0.6899 |
|
465 |
+
| cosine_precision@3 | 0.2447 |
|
466 |
+
| cosine_precision@5 | 0.1532 |
|
467 |
+
| cosine_precision@10 | 0.0791 |
|
468 |
+
| cosine_recall@1 | 0.6899 |
|
469 |
+
| cosine_recall@3 | 0.7342 |
|
470 |
+
| cosine_recall@5 | 0.7658 |
|
471 |
+
| cosine_recall@10 | 0.7911 |
|
472 |
+
| **cosine_ndcg@10** | **0.736** |
|
473 |
+
| cosine_mrr@10 | 0.7187 |
|
474 |
+
| cosine_map@100 | 0.7231 |
|
475 |
+
|
476 |
+
#### Information Retrieval
|
477 |
+
|
478 |
+
* Dataset: `dim_512`
|
479 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
480 |
+
```json
|
481 |
+
{
|
482 |
+
"truncate_dim": 512
|
483 |
+
}
|
484 |
+
```
|
485 |
+
|
486 |
+
| Metric | Value |
|
487 |
+
|:--------------------|:-----------|
|
488 |
+
| cosine_accuracy@1 | 0.6962 |
|
489 |
+
| cosine_accuracy@3 | 0.7278 |
|
490 |
+
| cosine_accuracy@5 | 0.7532 |
|
491 |
+
| cosine_accuracy@10 | 0.7848 |
|
492 |
+
| cosine_precision@1 | 0.6962 |
|
493 |
+
| cosine_precision@3 | 0.2426 |
|
494 |
+
| cosine_precision@5 | 0.1506 |
|
495 |
+
| cosine_precision@10 | 0.0785 |
|
496 |
+
| cosine_recall@1 | 0.6962 |
|
497 |
+
| cosine_recall@3 | 0.7278 |
|
498 |
+
| cosine_recall@5 | 0.7532 |
|
499 |
+
| cosine_recall@10 | 0.7848 |
|
500 |
+
| **cosine_ndcg@10** | **0.7365** |
|
501 |
+
| cosine_mrr@10 | 0.7215 |
|
502 |
+
| cosine_map@100 | 0.7262 |
|
503 |
+
|
504 |
+
#### Information Retrieval
|
505 |
+
|
506 |
+
* Dataset: `dim_256`
|
507 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
508 |
+
```json
|
509 |
+
{
|
510 |
+
"truncate_dim": 256
|
511 |
+
}
|
512 |
+
```
|
513 |
+
|
514 |
+
| Metric | Value |
|
515 |
+
|:--------------------|:-----------|
|
516 |
+
| cosine_accuracy@1 | 0.6646 |
|
517 |
+
| cosine_accuracy@3 | 0.7278 |
|
518 |
+
| cosine_accuracy@5 | 0.7342 |
|
519 |
+
| cosine_accuracy@10 | 0.7722 |
|
520 |
+
| cosine_precision@1 | 0.6646 |
|
521 |
+
| cosine_precision@3 | 0.2426 |
|
522 |
+
| cosine_precision@5 | 0.1468 |
|
523 |
+
| cosine_precision@10 | 0.0772 |
|
524 |
+
| cosine_recall@1 | 0.6646 |
|
525 |
+
| cosine_recall@3 | 0.7278 |
|
526 |
+
| cosine_recall@5 | 0.7342 |
|
527 |
+
| cosine_recall@10 | 0.7722 |
|
528 |
+
| **cosine_ndcg@10** | **0.7172** |
|
529 |
+
| cosine_mrr@10 | 0.6999 |
|
530 |
+
| cosine_map@100 | 0.705 |
|
531 |
+
|
532 |
+
#### Information Retrieval
|
533 |
+
|
534 |
+
* Dataset: `dim_128`
|
535 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
536 |
+
```json
|
537 |
+
{
|
538 |
+
"truncate_dim": 128
|
539 |
+
}
|
540 |
+
```
|
541 |
+
|
542 |
+
| Metric | Value |
|
543 |
+
|:--------------------|:-----------|
|
544 |
+
| cosine_accuracy@1 | 0.6203 |
|
545 |
+
| cosine_accuracy@3 | 0.7278 |
|
546 |
+
| cosine_accuracy@5 | 0.7405 |
|
547 |
+
| cosine_accuracy@10 | 0.7658 |
|
548 |
+
| cosine_precision@1 | 0.6203 |
|
549 |
+
| cosine_precision@3 | 0.2426 |
|
550 |
+
| cosine_precision@5 | 0.1481 |
|
551 |
+
| cosine_precision@10 | 0.0766 |
|
552 |
+
| cosine_recall@1 | 0.6203 |
|
553 |
+
| cosine_recall@3 | 0.7278 |
|
554 |
+
| cosine_recall@5 | 0.7405 |
|
555 |
+
| cosine_recall@10 | 0.7658 |
|
556 |
+
| **cosine_ndcg@10** | **0.6958** |
|
557 |
+
| cosine_mrr@10 | 0.673 |
|
558 |
+
| cosine_map@100 | 0.6759 |
|
559 |
+
|
560 |
+
#### Information Retrieval
|
561 |
+
|
562 |
+
* Dataset: `dim_64`
|
563 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
564 |
+
```json
|
565 |
+
{
|
566 |
+
"truncate_dim": 64
|
567 |
+
}
|
568 |
+
```
|
569 |
+
|
570 |
+
| Metric | Value |
|
571 |
+
|:--------------------|:-----------|
|
572 |
+
| cosine_accuracy@1 | 0.5633 |
|
573 |
+
| cosine_accuracy@3 | 0.6519 |
|
574 |
+
| cosine_accuracy@5 | 0.6835 |
|
575 |
+
| cosine_accuracy@10 | 0.7152 |
|
576 |
+
| cosine_precision@1 | 0.5633 |
|
577 |
+
| cosine_precision@3 | 0.2173 |
|
578 |
+
| cosine_precision@5 | 0.1367 |
|
579 |
+
| cosine_precision@10 | 0.0715 |
|
580 |
+
| cosine_recall@1 | 0.5633 |
|
581 |
+
| cosine_recall@3 | 0.6519 |
|
582 |
+
| cosine_recall@5 | 0.6835 |
|
583 |
+
| cosine_recall@10 | 0.7152 |
|
584 |
+
| **cosine_ndcg@10** | **0.6372** |
|
585 |
+
| cosine_mrr@10 | 0.6125 |
|
586 |
+
| cosine_map@100 | 0.6184 |
|
587 |
+
|
588 |
+
<!--
|
589 |
+
## Bias, Risks and Limitations
|
590 |
+
|
591 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
592 |
+
-->
|
593 |
+
|
594 |
+
<!--
|
595 |
+
### Recommendations
|
596 |
+
|
597 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
598 |
+
-->
|
599 |
+
|
600 |
+
## Training Details
|
601 |
+
|
602 |
+
### Training Dataset
|
603 |
+
|
604 |
+
#### json
|
605 |
+
|
606 |
+
* Dataset: json
|
607 |
+
* Size: 1,421 training samples
|
608 |
+
* Columns: <code>anchor</code> and <code>positive</code>
|
609 |
+
* Approximate statistics based on the first 1000 samples:
|
610 |
+
| | anchor | positive |
|
611 |
+
|:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
|
612 |
+
| type | string | string |
|
613 |
+
| details | <ul><li>min: 3 tokens</li><li>mean: 25.07 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 30 tokens</li><li>mean: 71.48 tokens</li><li>max: 512 tokens</li></ul> |
|
614 |
+
* Samples:
|
615 |
+
| anchor | positive |
|
616 |
+
|:---------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
617 |
+
| <code>Làm cách nào để ngăn ngừa chứng loạn sản thận?</code> | <code>Thật không may, chứng loạn sản thận không thể ngăn ngừa được vì đây là một tình trạng bẩm sinh xảy ra trong quá trình phát triển của thai nhi. Tuy nhiên, việc phát hiện và điều trị sớm có thể giúp kiểm soát tình trạng và ngăn ngừa các biến chứng.</code> |
|
618 |
+
| <code>Có bất kỳ biến chứng nào liên quan đến cây nhiệt đới không?</code> | <code>Có, những trường hợp nặng của bệnh nhiệt đới có thể dẫn đến suy dinh dưỡng, thiếu máu và các biến chứng khác. Điều quan trọng là phải tìm cách điều trị y tế càng sớm càng tốt nếu bạn nghi ngờ mình mắc bệnh Nhiệt đới.</code> |
|
619 |
+
| <code>Tôi cần một số thông tin về cách bảo quản và tiêu hủy Fluoxetine. Bạn có thể vui lòng cho tôi biết những gì tôi nên biết?</code> | <code>Fluoxetine nên được bảo quản ở nhiệt độ phòng, tránh ẩm và nóng. Nó nên được giữ trong hộp đựng ban đầu và tránh xa tầm tay trẻ em và vật nuôi. Về việc thải bỏ, bạn nên tuân theo các hướng dẫn do nhà cung cấp dịch vụ chăm sóc sức khỏe hoặc dược sĩ của bạn cung cấp. Điều quan trọng là không xả Fluoxetine xuống bồn cầu hoặc vứt vào thùng rác.</code> |
|
620 |
+
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
|
621 |
+
```json
|
622 |
+
{
|
623 |
+
"loss": "MultipleNegativesRankingLoss",
|
624 |
+
"matryoshka_dims": [
|
625 |
+
768,
|
626 |
+
512,
|
627 |
+
256,
|
628 |
+
128,
|
629 |
+
64
|
630 |
+
],
|
631 |
+
"matryoshka_weights": [
|
632 |
+
1,
|
633 |
+
1,
|
634 |
+
1,
|
635 |
+
1,
|
636 |
+
1
|
637 |
+
],
|
638 |
+
"n_dims_per_step": -1
|
639 |
+
}
|
640 |
+
```
|
641 |
+
|
642 |
+
### Training Hyperparameters
|
643 |
+
#### Non-Default Hyperparameters
|
644 |
+
|
645 |
+
- `eval_strategy`: epoch
|
646 |
+
- `per_device_train_batch_size`: 16
|
647 |
+
- `gradient_accumulation_steps`: 8
|
648 |
+
- `learning_rate`: 2e-05
|
649 |
+
- `num_train_epochs`: 1
|
650 |
+
- `lr_scheduler_type`: cosine
|
651 |
+
- `warmup_ratio`: 0.1
|
652 |
+
- `bf16`: True
|
653 |
+
- `load_best_model_at_end`: True
|
654 |
+
- `optim`: adamw_torch_fused
|
655 |
+
- `batch_sampler`: no_duplicates
|
656 |
+
|
657 |
+
#### All Hyperparameters
|
658 |
+
<details><summary>Click to expand</summary>
|
659 |
+
|
660 |
+
- `overwrite_output_dir`: False
|
661 |
+
- `do_predict`: False
|
662 |
+
- `eval_strategy`: epoch
|
663 |
+
- `prediction_loss_only`: True
|
664 |
+
- `per_device_train_batch_size`: 16
|
665 |
+
- `per_device_eval_batch_size`: 8
|
666 |
+
- `per_gpu_train_batch_size`: None
|
667 |
+
- `per_gpu_eval_batch_size`: None
|
668 |
+
- `gradient_accumulation_steps`: 8
|
669 |
+
- `eval_accumulation_steps`: None
|
670 |
+
- `torch_empty_cache_steps`: None
|
671 |
+
- `learning_rate`: 2e-05
|
672 |
+
- `weight_decay`: 0.0
|
673 |
+
- `adam_beta1`: 0.9
|
674 |
+
- `adam_beta2`: 0.999
|
675 |
+
- `adam_epsilon`: 1e-08
|
676 |
+
- `max_grad_norm`: 1.0
|
677 |
+
- `num_train_epochs`: 1
|
678 |
+
- `max_steps`: -1
|
679 |
+
- `lr_scheduler_type`: cosine
|
680 |
+
- `lr_scheduler_kwargs`: {}
|
681 |
+
- `warmup_ratio`: 0.1
|
682 |
+
- `warmup_steps`: 0
|
683 |
+
- `log_level`: passive
|
684 |
+
- `log_level_replica`: warning
|
685 |
+
- `log_on_each_node`: True
|
686 |
+
- `logging_nan_inf_filter`: True
|
687 |
+
- `save_safetensors`: True
|
688 |
+
- `save_on_each_node`: False
|
689 |
+
- `save_only_model`: False
|
690 |
+
- `restore_callback_states_from_checkpoint`: False
|
691 |
+
- `no_cuda`: False
|
692 |
+
- `use_cpu`: False
|
693 |
+
- `use_mps_device`: False
|
694 |
+
- `seed`: 42
|
695 |
+
- `data_seed`: None
|
696 |
+
- `jit_mode_eval`: False
|
697 |
+
- `use_ipex`: False
|
698 |
+
- `bf16`: True
|
699 |
+
- `fp16`: False
|
700 |
+
- `fp16_opt_level`: O1
|
701 |
+
- `half_precision_backend`: auto
|
702 |
+
- `bf16_full_eval`: False
|
703 |
+
- `fp16_full_eval`: False
|
704 |
+
- `tf32`: None
|
705 |
+
- `local_rank`: 0
|
706 |
+
- `ddp_backend`: None
|
707 |
+
- `tpu_num_cores`: None
|
708 |
+
- `tpu_metrics_debug`: False
|
709 |
+
- `debug`: []
|
710 |
+
- `dataloader_drop_last`: False
|
711 |
+
- `dataloader_num_workers`: 0
|
712 |
+
- `dataloader_prefetch_factor`: None
|
713 |
+
- `past_index`: -1
|
714 |
+
- `disable_tqdm`: False
|
715 |
+
- `remove_unused_columns`: True
|
716 |
+
- `label_names`: None
|
717 |
+
- `load_best_model_at_end`: True
|
718 |
+
- `ignore_data_skip`: False
|
719 |
+
- `fsdp`: []
|
720 |
+
- `fsdp_min_num_params`: 0
|
721 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
722 |
+
- `tp_size`: 0
|
723 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
724 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
725 |
+
- `deepspeed`: None
|
726 |
+
- `label_smoothing_factor`: 0.0
|
727 |
+
- `optim`: adamw_torch_fused
|
728 |
+
- `optim_args`: None
|
729 |
+
- `adafactor`: False
|
730 |
+
- `group_by_length`: False
|
731 |
+
- `length_column_name`: length
|
732 |
+
- `ddp_find_unused_parameters`: None
|
733 |
+
- `ddp_bucket_cap_mb`: None
|
734 |
+
- `ddp_broadcast_buffers`: False
|
735 |
+
- `dataloader_pin_memory`: True
|
736 |
+
- `dataloader_persistent_workers`: False
|
737 |
+
- `skip_memory_metrics`: True
|
738 |
+
- `use_legacy_prediction_loop`: False
|
739 |
+
- `push_to_hub`: False
|
740 |
+
- `resume_from_checkpoint`: None
|
741 |
+
- `hub_model_id`: None
|
742 |
+
- `hub_strategy`: every_save
|
743 |
+
- `hub_private_repo`: None
|
744 |
+
- `hub_always_push`: False
|
745 |
+
- `gradient_checkpointing`: False
|
746 |
+
- `gradient_checkpointing_kwargs`: None
|
747 |
+
- `include_inputs_for_metrics`: False
|
748 |
+
- `include_for_metrics`: []
|
749 |
+
- `eval_do_concat_batches`: True
|
750 |
+
- `fp16_backend`: auto
|
751 |
+
- `push_to_hub_model_id`: None
|
752 |
+
- `push_to_hub_organization`: None
|
753 |
+
- `mp_parameters`:
|
754 |
+
- `auto_find_batch_size`: False
|
755 |
+
- `full_determinism`: False
|
756 |
+
- `torchdynamo`: None
|
757 |
+
- `ray_scope`: last
|
758 |
+
- `ddp_timeout`: 1800
|
759 |
+
- `torch_compile`: False
|
760 |
+
- `torch_compile_backend`: None
|
761 |
+
- `torch_compile_mode`: None
|
762 |
+
- `include_tokens_per_second`: False
|
763 |
+
- `include_num_input_tokens_seen`: False
|
764 |
+
- `neftune_noise_alpha`: None
|
765 |
+
- `optim_target_modules`: None
|
766 |
+
- `batch_eval_metrics`: False
|
767 |
+
- `eval_on_start`: False
|
768 |
+
- `use_liger_kernel`: False
|
769 |
+
- `eval_use_gather_object`: False
|
770 |
+
- `average_tokens_across_devices`: False
|
771 |
+
- `prompts`: None
|
772 |
+
- `batch_sampler`: no_duplicates
|
773 |
+
- `multi_dataset_batch_sampler`: proportional
|
774 |
+
|
775 |
+
</details>
|
776 |
+
|
777 |
+
### Training Logs
|
778 |
+
| Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
|
779 |
+
|:----------:|:------:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
|
780 |
+
| 0.8989 | 10 | 15.0991 | - | - | - | - | - |
|
781 |
+
| **0.9888** | **11** | **-** | **0.736** | **0.7365** | **0.7172** | **0.6958** | **0.6372** |
|
782 |
+
|
783 |
+
* The bold row denotes the saved checkpoint.
|
784 |
+
|
785 |
+
### Framework Versions
|
786 |
+
- Python: 3.12.5
|
787 |
+
- Sentence Transformers: 4.1.0
|
788 |
+
- Transformers: 4.51.3
|
789 |
+
- PyTorch: 2.6.0+cu118
|
790 |
+
- Accelerate: 1.6.0
|
791 |
+
- Datasets: 3.5.1
|
792 |
+
- Tokenizers: 0.21.1
|
793 |
+
|
794 |
+
## Citation
|
795 |
+
|
796 |
+
### BibTeX
|
797 |
+
|
798 |
+
#### Sentence Transformers
|
799 |
+
```bibtex
|
800 |
+
@inproceedings{reimers-2019-sentence-bert,
|
801 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
802 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
803 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
804 |
+
month = "11",
|
805 |
+
year = "2019",
|
806 |
+
publisher = "Association for Computational Linguistics",
|
807 |
+
url = "https://arxiv.org/abs/1908.10084",
|
808 |
+
}
|
809 |
+
```
|
810 |
+
|
811 |
+
#### MatryoshkaLoss
|
812 |
+
```bibtex
|
813 |
+
@misc{kusupati2024matryoshka,
|
814 |
+
title={Matryoshka Representation Learning},
|
815 |
+
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
|
816 |
+
year={2024},
|
817 |
+
eprint={2205.13147},
|
818 |
+
archivePrefix={arXiv},
|
819 |
+
primaryClass={cs.LG}
|
820 |
+
}
|
821 |
+
```
|
822 |
+
|
823 |
+
#### MultipleNegativesRankingLoss
|
824 |
+
```bibtex
|
825 |
+
@misc{henderson2017efficient,
|
826 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
827 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
828 |
+
year={2017},
|
829 |
+
eprint={1705.00652},
|
830 |
+
archivePrefix={arXiv},
|
831 |
+
primaryClass={cs.CL}
|
832 |
+
}
|
833 |
+
```
|
834 |
+
|
835 |
+
<!--
|
836 |
+
## Glossary
|
837 |
+
|
838 |
+
*Clearly define terms in order to be accessible across audiences.*
|
839 |
+
-->
|
840 |
+
|
841 |
+
<!--
|
842 |
+
## Model Card Authors
|
843 |
+
|
844 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
845 |
+
-->
|
846 |
+
|
847 |
+
<!--
|
848 |
+
## Model Card Contact
|
849 |
+
|
850 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
851 |
+
-->
|
checkpoint-11/1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 768,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
checkpoint-11/README.md
ADDED
@@ -0,0 +1,850 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
language:
|
3 |
+
- en
|
4 |
+
license: apache-2.0
|
5 |
+
tags:
|
6 |
+
- sentence-transformers
|
7 |
+
- sentence-similarity
|
8 |
+
- feature-extraction
|
9 |
+
- generated_from_trainer
|
10 |
+
- dataset_size:1421
|
11 |
+
- loss:MatryoshkaLoss
|
12 |
+
- loss:MultipleNegativesRankingLoss
|
13 |
+
base_model: hiieu/halong_embedding
|
14 |
+
widget:
|
15 |
+
- source_sentence: Dạ chào bác sĩ ,e bị đau tức bụng hông trái lan ra lưng ,xét nghiệm
|
16 |
+
nước tiểu thì protein 1+,hồng cầu 1+ thì có bị sao không bác sĩ
|
17 |
+
sentences:
|
18 |
+
- Trong hầu hết các trường hợp, chứng run do thuốc không phải là tình trạng vĩnh
|
19 |
+
viễn. Khi ngừng thuốc hoặc giảm liều lượng, tình trạng run rẩy thường biến mất.
|
20 |
+
Tuy nhiên, trong một số trường hợp, tình trạng run có thể vẫn tồn tại ngay cả
|
21 |
+
sau khi ngừng thuốc.
|
22 |
+
- Chào em Thường trong nước tiểu không có protein , hồng cầu. Em nên đi khám sâu
|
23 |
+
hơn chuyên khoa thận tiết niệu để phân biệt đặc điểm trên do viêm đường niệu ở
|
24 |
+
vị trí nào em nhé( niệu đạo, thận, bàng quang,.
|
25 |
+
- Tư vấn di truyền có thể giúp những người có nguy cơ sinh con mắc chứng loạn dưỡng
|
26 |
+
cơ Duchenne bằng cách cung cấp thông tin về khả năng truyền gen đột biến và thảo
|
27 |
+
luận về các lựa chọn sinh sản. Ví dụ, nếu cả cha lẫn mẹ đều là người mang gen,
|
28 |
+
họ có thể chọn sử dụng phương pháp thụ tinh trong ống nghiệm và xét nghiệm di
|
29 |
+
truyền để chọn ra những phôi không mang gen đột biến.
|
30 |
+
- source_sentence: Siêu âm mắt là gì?
|
31 |
+
sentences:
|
32 |
+
- Bệnh thần kinh ngoại biên có thể gây ra nhiều triệu chứng khác nhau bao gồm tê
|
33 |
+
hoặc ngứa ran ở tay hoặc chân, yếu cơ và đau nhói, rát. Nó cũng có thể gây nhạy
|
34 |
+
cảm khi chạm và khó phối hợp và giữ thăng bằng.
|
35 |
+
- Chao em Chào bác sĩ Ảnh em chụp thì vẫn vàng da. Bs cần hỏi em thêm một số thông
|
36 |
+
tin nữa để kê đơn cho bé.
|
37 |
+
- Siêu âm mắt là một thủ thuật không xâm lấn trong đó sóng âm thanh được sử dụng
|
38 |
+
để tạo ra hình ảnh của mắt. Xét nghiệm này có thể giúp bác sĩ nhìn thấy kích thước,
|
39 |
+
vị trí và hình dạng của bất kỳ khối u nào có thể có trong mắt.
|
40 |
+
- source_sentence: Những xét nghiệm này chính xác đến mức nào?
|
41 |
+
sentences:
|
42 |
+
- Hội chứng rụng tóc động kinh oligophrenia của Moynahan hay còn gọi là hội chứng
|
43 |
+
Moynahan, là một rối loạn di truyền hiếm gặp ảnh hưởng đến nhiều hệ thống cơ thể.
|
44 |
+
Các triệu chứng thường gặp bao gồm chậm phát triển, thiểu năng trí tuệ, co giật,
|
45 |
+
rụng tóc và các đặc điểm đặc biệt trên khuôn mặt. Bạn có muốn biết thêm thông
|
46 |
+
tin về bất kỳ triệu chứng cụ thể nào không?
|
47 |
+
- Độ chính xác của các bài kiểm tra có thể khác nhau tùy thuộc vào loại bài kiểm
|
48 |
+
tra và thời điểm thực hiện. Nói chung, các xét nghiệm này có độ chính xác cao
|
49 |
+
và hiếm khi cho kết quả dương tính giả hoặc âm tính giả.
|
50 |
+
- Thật không may, hội chứng Partington không có cách chữa trị. Điều trị tập trung
|
51 |
+
vào việc giảm bớt các triệu chứng và cải thiện chất lượng cuộc sống.
|
52 |
+
- source_sentence: bác sĩ ơii, cho em hỏi là những hạt như vậy trong miệng em là gì
|
53 |
+
vậy ạ
|
54 |
+
sentences:
|
55 |
+
- Vâng, có một số biện pháp tự nhiên có thể giúp chữa bệnh tiêu chảy. Ăn thực phẩm
|
56 |
+
giàu men vi sinh như sữa chua có thể giúp phục hồi vi khuẩn khỏe mạnh trong ruột.
|
57 |
+
- Có, các yếu tố nguy cơ khác bao gồm từng bị nhiễm trùng trước đó, mắc bệnh tự
|
58 |
+
miễn và tiếp xúc với một số chất độc hoặc thuốc. Huyết áp cao và hút thuốc cũng
|
59 |
+
được coi là yếu tố nguy cơ.
|
60 |
+
- Chào em Em có đau buốt gì ko em? dạ k ạ Nếu em đã quan hệ bằng miệng rồi, hiện
|
61 |
+
tại ko đau buốt gì nên đi xn HPV miệng em nhé
|
62 |
+
- source_sentence: Có xét nghiệm cụ thể nào để chẩn đoán hội chứng này không?
|
63 |
+
sentences:
|
64 |
+
- Entecavir đã được chứng minh là có hiệu quả chủ yếu chống lại HBV kiểu gen A.
|
65 |
+
Tuy nhiên, nó cũng có tác dụng chống lại HBV kiểu gen B và C.
|
66 |
+
- Có, có nhiều lựa chọn điều trị khác nhau tùy thuộc vào tình trạng cụ thể và mức
|
67 |
+
độ nghiêm trọng của các triệu chứng. Điều trị có thể bao gồm các bài tập sàn chậu,
|
68 |
+
dùng thuốc và phẫu thuật.
|
69 |
+
- Có, có những xét nghiệm cụ thể có thể chẩn đoán hội chứng Cockayne loại II. Chúng
|
70 |
+
bao gồm xét nghiệm di truyền, xét nghiệm máu và nước tiểu, cũng như kiểm tra thần
|
71 |
+
kinh.
|
72 |
+
pipeline_tag: sentence-similarity
|
73 |
+
library_name: sentence-transformers
|
74 |
+
metrics:
|
75 |
+
- cosine_accuracy@1
|
76 |
+
- cosine_accuracy@3
|
77 |
+
- cosine_accuracy@5
|
78 |
+
- cosine_accuracy@10
|
79 |
+
- cosine_precision@1
|
80 |
+
- cosine_precision@3
|
81 |
+
- cosine_precision@5
|
82 |
+
- cosine_precision@10
|
83 |
+
- cosine_recall@1
|
84 |
+
- cosine_recall@3
|
85 |
+
- cosine_recall@5
|
86 |
+
- cosine_recall@10
|
87 |
+
- cosine_ndcg@10
|
88 |
+
- cosine_mrr@10
|
89 |
+
- cosine_map@100
|
90 |
+
model-index:
|
91 |
+
- name: BGE base Financial Matryoshka
|
92 |
+
results:
|
93 |
+
- task:
|
94 |
+
type: information-retrieval
|
95 |
+
name: Information Retrieval
|
96 |
+
dataset:
|
97 |
+
name: dim 768
|
98 |
+
type: dim_768
|
99 |
+
metrics:
|
100 |
+
- type: cosine_accuracy@1
|
101 |
+
value: 0.689873417721519
|
102 |
+
name: Cosine Accuracy@1
|
103 |
+
- type: cosine_accuracy@3
|
104 |
+
value: 0.7341772151898734
|
105 |
+
name: Cosine Accuracy@3
|
106 |
+
- type: cosine_accuracy@5
|
107 |
+
value: 0.7658227848101266
|
108 |
+
name: Cosine Accuracy@5
|
109 |
+
- type: cosine_accuracy@10
|
110 |
+
value: 0.7911392405063291
|
111 |
+
name: Cosine Accuracy@10
|
112 |
+
- type: cosine_precision@1
|
113 |
+
value: 0.689873417721519
|
114 |
+
name: Cosine Precision@1
|
115 |
+
- type: cosine_precision@3
|
116 |
+
value: 0.24472573839662443
|
117 |
+
name: Cosine Precision@3
|
118 |
+
- type: cosine_precision@5
|
119 |
+
value: 0.1531645569620253
|
120 |
+
name: Cosine Precision@5
|
121 |
+
- type: cosine_precision@10
|
122 |
+
value: 0.07911392405063289
|
123 |
+
name: Cosine Precision@10
|
124 |
+
- type: cosine_recall@1
|
125 |
+
value: 0.689873417721519
|
126 |
+
name: Cosine Recall@1
|
127 |
+
- type: cosine_recall@3
|
128 |
+
value: 0.7341772151898734
|
129 |
+
name: Cosine Recall@3
|
130 |
+
- type: cosine_recall@5
|
131 |
+
value: 0.7658227848101266
|
132 |
+
name: Cosine Recall@5
|
133 |
+
- type: cosine_recall@10
|
134 |
+
value: 0.7911392405063291
|
135 |
+
name: Cosine Recall@10
|
136 |
+
- type: cosine_ndcg@10
|
137 |
+
value: 0.7359964164308189
|
138 |
+
name: Cosine Ndcg@10
|
139 |
+
- type: cosine_mrr@10
|
140 |
+
value: 0.7186884669479607
|
141 |
+
name: Cosine Mrr@10
|
142 |
+
- type: cosine_map@100
|
143 |
+
value: 0.7231429561762966
|
144 |
+
name: Cosine Map@100
|
145 |
+
- task:
|
146 |
+
type: information-retrieval
|
147 |
+
name: Information Retrieval
|
148 |
+
dataset:
|
149 |
+
name: dim 512
|
150 |
+
type: dim_512
|
151 |
+
metrics:
|
152 |
+
- type: cosine_accuracy@1
|
153 |
+
value: 0.6962025316455697
|
154 |
+
name: Cosine Accuracy@1
|
155 |
+
- type: cosine_accuracy@3
|
156 |
+
value: 0.7278481012658228
|
157 |
+
name: Cosine Accuracy@3
|
158 |
+
- type: cosine_accuracy@5
|
159 |
+
value: 0.7531645569620253
|
160 |
+
name: Cosine Accuracy@5
|
161 |
+
- type: cosine_accuracy@10
|
162 |
+
value: 0.7848101265822784
|
163 |
+
name: Cosine Accuracy@10
|
164 |
+
- type: cosine_precision@1
|
165 |
+
value: 0.6962025316455697
|
166 |
+
name: Cosine Precision@1
|
167 |
+
- type: cosine_precision@3
|
168 |
+
value: 0.24261603375527424
|
169 |
+
name: Cosine Precision@3
|
170 |
+
- type: cosine_precision@5
|
171 |
+
value: 0.15063291139240503
|
172 |
+
name: Cosine Precision@5
|
173 |
+
- type: cosine_precision@10
|
174 |
+
value: 0.07848101265822782
|
175 |
+
name: Cosine Precision@10
|
176 |
+
- type: cosine_recall@1
|
177 |
+
value: 0.6962025316455697
|
178 |
+
name: Cosine Recall@1
|
179 |
+
- type: cosine_recall@3
|
180 |
+
value: 0.7278481012658228
|
181 |
+
name: Cosine Recall@3
|
182 |
+
- type: cosine_recall@5
|
183 |
+
value: 0.7531645569620253
|
184 |
+
name: Cosine Recall@5
|
185 |
+
- type: cosine_recall@10
|
186 |
+
value: 0.7848101265822784
|
187 |
+
name: Cosine Recall@10
|
188 |
+
- type: cosine_ndcg@10
|
189 |
+
value: 0.7365237174869693
|
190 |
+
name: Cosine Ndcg@10
|
191 |
+
- type: cosine_mrr@10
|
192 |
+
value: 0.7215340566606389
|
193 |
+
name: Cosine Mrr@10
|
194 |
+
- type: cosine_map@100
|
195 |
+
value: 0.7262381247862028
|
196 |
+
name: Cosine Map@100
|
197 |
+
- task:
|
198 |
+
type: information-retrieval
|
199 |
+
name: Information Retrieval
|
200 |
+
dataset:
|
201 |
+
name: dim 256
|
202 |
+
type: dim_256
|
203 |
+
metrics:
|
204 |
+
- type: cosine_accuracy@1
|
205 |
+
value: 0.6645569620253164
|
206 |
+
name: Cosine Accuracy@1
|
207 |
+
- type: cosine_accuracy@3
|
208 |
+
value: 0.7278481012658228
|
209 |
+
name: Cosine Accuracy@3
|
210 |
+
- type: cosine_accuracy@5
|
211 |
+
value: 0.7341772151898734
|
212 |
+
name: Cosine Accuracy@5
|
213 |
+
- type: cosine_accuracy@10
|
214 |
+
value: 0.7721518987341772
|
215 |
+
name: Cosine Accuracy@10
|
216 |
+
- type: cosine_precision@1
|
217 |
+
value: 0.6645569620253164
|
218 |
+
name: Cosine Precision@1
|
219 |
+
- type: cosine_precision@3
|
220 |
+
value: 0.24261603375527424
|
221 |
+
name: Cosine Precision@3
|
222 |
+
- type: cosine_precision@5
|
223 |
+
value: 0.14683544303797466
|
224 |
+
name: Cosine Precision@5
|
225 |
+
- type: cosine_precision@10
|
226 |
+
value: 0.0772151898734177
|
227 |
+
name: Cosine Precision@10
|
228 |
+
- type: cosine_recall@1
|
229 |
+
value: 0.6645569620253164
|
230 |
+
name: Cosine Recall@1
|
231 |
+
- type: cosine_recall@3
|
232 |
+
value: 0.7278481012658228
|
233 |
+
name: Cosine Recall@3
|
234 |
+
- type: cosine_recall@5
|
235 |
+
value: 0.7341772151898734
|
236 |
+
name: Cosine Recall@5
|
237 |
+
- type: cosine_recall@10
|
238 |
+
value: 0.7721518987341772
|
239 |
+
name: Cosine Recall@10
|
240 |
+
- type: cosine_ndcg@10
|
241 |
+
value: 0.717246153733281
|
242 |
+
name: Cosine Ndcg@10
|
243 |
+
- type: cosine_mrr@10
|
244 |
+
value: 0.6999196302993772
|
245 |
+
name: Cosine Mrr@10
|
246 |
+
- type: cosine_map@100
|
247 |
+
value: 0.7049830151644797
|
248 |
+
name: Cosine Map@100
|
249 |
+
- task:
|
250 |
+
type: information-retrieval
|
251 |
+
name: Information Retrieval
|
252 |
+
dataset:
|
253 |
+
name: dim 128
|
254 |
+
type: dim_128
|
255 |
+
metrics:
|
256 |
+
- type: cosine_accuracy@1
|
257 |
+
value: 0.620253164556962
|
258 |
+
name: Cosine Accuracy@1
|
259 |
+
- type: cosine_accuracy@3
|
260 |
+
value: 0.7278481012658228
|
261 |
+
name: Cosine Accuracy@3
|
262 |
+
- type: cosine_accuracy@5
|
263 |
+
value: 0.740506329113924
|
264 |
+
name: Cosine Accuracy@5
|
265 |
+
- type: cosine_accuracy@10
|
266 |
+
value: 0.7658227848101266
|
267 |
+
name: Cosine Accuracy@10
|
268 |
+
- type: cosine_precision@1
|
269 |
+
value: 0.620253164556962
|
270 |
+
name: Cosine Precision@1
|
271 |
+
- type: cosine_precision@3
|
272 |
+
value: 0.24261603375527424
|
273 |
+
name: Cosine Precision@3
|
274 |
+
- type: cosine_precision@5
|
275 |
+
value: 0.14810126582278477
|
276 |
+
name: Cosine Precision@5
|
277 |
+
- type: cosine_precision@10
|
278 |
+
value: 0.07658227848101265
|
279 |
+
name: Cosine Precision@10
|
280 |
+
- type: cosine_recall@1
|
281 |
+
value: 0.620253164556962
|
282 |
+
name: Cosine Recall@1
|
283 |
+
- type: cosine_recall@3
|
284 |
+
value: 0.7278481012658228
|
285 |
+
name: Cosine Recall@3
|
286 |
+
- type: cosine_recall@5
|
287 |
+
value: 0.740506329113924
|
288 |
+
name: Cosine Recall@5
|
289 |
+
- type: cosine_recall@10
|
290 |
+
value: 0.7658227848101266
|
291 |
+
name: Cosine Recall@10
|
292 |
+
- type: cosine_ndcg@10
|
293 |
+
value: 0.695814972032374
|
294 |
+
name: Cosine Ndcg@10
|
295 |
+
- type: cosine_mrr@10
|
296 |
+
value: 0.673010849909584
|
297 |
+
name: Cosine Mrr@10
|
298 |
+
- type: cosine_map@100
|
299 |
+
value: 0.6758935313130828
|
300 |
+
name: Cosine Map@100
|
301 |
+
- task:
|
302 |
+
type: information-retrieval
|
303 |
+
name: Information Retrieval
|
304 |
+
dataset:
|
305 |
+
name: dim 64
|
306 |
+
type: dim_64
|
307 |
+
metrics:
|
308 |
+
- type: cosine_accuracy@1
|
309 |
+
value: 0.5632911392405063
|
310 |
+
name: Cosine Accuracy@1
|
311 |
+
- type: cosine_accuracy@3
|
312 |
+
value: 0.6518987341772152
|
313 |
+
name: Cosine Accuracy@3
|
314 |
+
- type: cosine_accuracy@5
|
315 |
+
value: 0.6835443037974683
|
316 |
+
name: Cosine Accuracy@5
|
317 |
+
- type: cosine_accuracy@10
|
318 |
+
value: 0.7151898734177216
|
319 |
+
name: Cosine Accuracy@10
|
320 |
+
- type: cosine_precision@1
|
321 |
+
value: 0.5632911392405063
|
322 |
+
name: Cosine Precision@1
|
323 |
+
- type: cosine_precision@3
|
324 |
+
value: 0.2172995780590717
|
325 |
+
name: Cosine Precision@3
|
326 |
+
- type: cosine_precision@5
|
327 |
+
value: 0.13670886075949362
|
328 |
+
name: Cosine Precision@5
|
329 |
+
- type: cosine_precision@10
|
330 |
+
value: 0.07151898734177213
|
331 |
+
name: Cosine Precision@10
|
332 |
+
- type: cosine_recall@1
|
333 |
+
value: 0.5632911392405063
|
334 |
+
name: Cosine Recall@1
|
335 |
+
- type: cosine_recall@3
|
336 |
+
value: 0.6518987341772152
|
337 |
+
name: Cosine Recall@3
|
338 |
+
- type: cosine_recall@5
|
339 |
+
value: 0.6835443037974683
|
340 |
+
name: Cosine Recall@5
|
341 |
+
- type: cosine_recall@10
|
342 |
+
value: 0.7151898734177216
|
343 |
+
name: Cosine Recall@10
|
344 |
+
- type: cosine_ndcg@10
|
345 |
+
value: 0.6372309190806515
|
346 |
+
name: Cosine Ndcg@10
|
347 |
+
- type: cosine_mrr@10
|
348 |
+
value: 0.6125075346594335
|
349 |
+
name: Cosine Mrr@10
|
350 |
+
- type: cosine_map@100
|
351 |
+
value: 0.6183770912827027
|
352 |
+
name: Cosine Map@100
|
353 |
+
---
|
354 |
+
|
355 |
+
# BGE base Financial Matryoshka
|
356 |
+
|
357 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [hiieu/halong_embedding](https://huggingface.co/hiieu/halong_embedding) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
358 |
+
|
359 |
+
## Model Details
|
360 |
+
|
361 |
+
### Model Description
|
362 |
+
- **Model Type:** Sentence Transformer
|
363 |
+
- **Base model:** [hiieu/halong_embedding](https://huggingface.co/hiieu/halong_embedding) <!-- at revision b57776031035f70ed2030d2e35ecc533eb0f8f71 -->
|
364 |
+
- **Maximum Sequence Length:** 512 tokens
|
365 |
+
- **Output Dimensionality:** 768 dimensions
|
366 |
+
- **Similarity Function:** Cosine Similarity
|
367 |
+
- **Training Dataset:**
|
368 |
+
- json
|
369 |
+
- **Language:** en
|
370 |
+
- **License:** apache-2.0
|
371 |
+
|
372 |
+
### Model Sources
|
373 |
+
|
374 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
375 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
376 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
377 |
+
|
378 |
+
### Full Model Architecture
|
379 |
+
|
380 |
+
```
|
381 |
+
SentenceTransformer(
|
382 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
383 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
384 |
+
(2): Normalize()
|
385 |
+
)
|
386 |
+
```
|
387 |
+
|
388 |
+
## Usage
|
389 |
+
|
390 |
+
### Direct Usage (Sentence Transformers)
|
391 |
+
|
392 |
+
First install the Sentence Transformers library:
|
393 |
+
|
394 |
+
```bash
|
395 |
+
pip install -U sentence-transformers
|
396 |
+
```
|
397 |
+
|
398 |
+
Then you can load this model and run inference.
|
399 |
+
```python
|
400 |
+
from sentence_transformers import SentenceTransformer
|
401 |
+
|
402 |
+
# Download from the 🤗 Hub
|
403 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
404 |
+
# Run inference
|
405 |
+
sentences = [
|
406 |
+
'Có xét nghiệm cụ thể nào để chẩn đoán hội chứng này không?',
|
407 |
+
'Có, có những xét nghiệm cụ thể có thể chẩn đoán hội chứng Cockayne loại II. Chúng bao gồm xét nghiệm di truyền, xét nghiệm máu và nước tiểu, cũng như kiểm tra thần kinh.',
|
408 |
+
'Entecavir đã được chứng minh là có hiệu quả chủ yếu chống lại HBV kiểu gen A. Tuy nhiên, nó cũng có tác dụng chống lại HBV kiểu gen B và C.',
|
409 |
+
]
|
410 |
+
embeddings = model.encode(sentences)
|
411 |
+
print(embeddings.shape)
|
412 |
+
# [3, 768]
|
413 |
+
|
414 |
+
# Get the similarity scores for the embeddings
|
415 |
+
similarities = model.similarity(embeddings, embeddings)
|
416 |
+
print(similarities.shape)
|
417 |
+
# [3, 3]
|
418 |
+
```
|
419 |
+
|
420 |
+
<!--
|
421 |
+
### Direct Usage (Transformers)
|
422 |
+
|
423 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
424 |
+
|
425 |
+
</details>
|
426 |
+
-->
|
427 |
+
|
428 |
+
<!--
|
429 |
+
### Downstream Usage (Sentence Transformers)
|
430 |
+
|
431 |
+
You can finetune this model on your own dataset.
|
432 |
+
|
433 |
+
<details><summary>Click to expand</summary>
|
434 |
+
|
435 |
+
</details>
|
436 |
+
-->
|
437 |
+
|
438 |
+
<!--
|
439 |
+
### Out-of-Scope Use
|
440 |
+
|
441 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
442 |
+
-->
|
443 |
+
|
444 |
+
## Evaluation
|
445 |
+
|
446 |
+
### Metrics
|
447 |
+
|
448 |
+
#### Information Retrieval
|
449 |
+
|
450 |
+
* Dataset: `dim_768`
|
451 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
452 |
+
```json
|
453 |
+
{
|
454 |
+
"truncate_dim": 768
|
455 |
+
}
|
456 |
+
```
|
457 |
+
|
458 |
+
| Metric | Value |
|
459 |
+
|:--------------------|:----------|
|
460 |
+
| cosine_accuracy@1 | 0.6899 |
|
461 |
+
| cosine_accuracy@3 | 0.7342 |
|
462 |
+
| cosine_accuracy@5 | 0.7658 |
|
463 |
+
| cosine_accuracy@10 | 0.7911 |
|
464 |
+
| cosine_precision@1 | 0.6899 |
|
465 |
+
| cosine_precision@3 | 0.2447 |
|
466 |
+
| cosine_precision@5 | 0.1532 |
|
467 |
+
| cosine_precision@10 | 0.0791 |
|
468 |
+
| cosine_recall@1 | 0.6899 |
|
469 |
+
| cosine_recall@3 | 0.7342 |
|
470 |
+
| cosine_recall@5 | 0.7658 |
|
471 |
+
| cosine_recall@10 | 0.7911 |
|
472 |
+
| **cosine_ndcg@10** | **0.736** |
|
473 |
+
| cosine_mrr@10 | 0.7187 |
|
474 |
+
| cosine_map@100 | 0.7231 |
|
475 |
+
|
476 |
+
#### Information Retrieval
|
477 |
+
|
478 |
+
* Dataset: `dim_512`
|
479 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
480 |
+
```json
|
481 |
+
{
|
482 |
+
"truncate_dim": 512
|
483 |
+
}
|
484 |
+
```
|
485 |
+
|
486 |
+
| Metric | Value |
|
487 |
+
|:--------------------|:-----------|
|
488 |
+
| cosine_accuracy@1 | 0.6962 |
|
489 |
+
| cosine_accuracy@3 | 0.7278 |
|
490 |
+
| cosine_accuracy@5 | 0.7532 |
|
491 |
+
| cosine_accuracy@10 | 0.7848 |
|
492 |
+
| cosine_precision@1 | 0.6962 |
|
493 |
+
| cosine_precision@3 | 0.2426 |
|
494 |
+
| cosine_precision@5 | 0.1506 |
|
495 |
+
| cosine_precision@10 | 0.0785 |
|
496 |
+
| cosine_recall@1 | 0.6962 |
|
497 |
+
| cosine_recall@3 | 0.7278 |
|
498 |
+
| cosine_recall@5 | 0.7532 |
|
499 |
+
| cosine_recall@10 | 0.7848 |
|
500 |
+
| **cosine_ndcg@10** | **0.7365** |
|
501 |
+
| cosine_mrr@10 | 0.7215 |
|
502 |
+
| cosine_map@100 | 0.7262 |
|
503 |
+
|
504 |
+
#### Information Retrieval
|
505 |
+
|
506 |
+
* Dataset: `dim_256`
|
507 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
508 |
+
```json
|
509 |
+
{
|
510 |
+
"truncate_dim": 256
|
511 |
+
}
|
512 |
+
```
|
513 |
+
|
514 |
+
| Metric | Value |
|
515 |
+
|:--------------------|:-----------|
|
516 |
+
| cosine_accuracy@1 | 0.6646 |
|
517 |
+
| cosine_accuracy@3 | 0.7278 |
|
518 |
+
| cosine_accuracy@5 | 0.7342 |
|
519 |
+
| cosine_accuracy@10 | 0.7722 |
|
520 |
+
| cosine_precision@1 | 0.6646 |
|
521 |
+
| cosine_precision@3 | 0.2426 |
|
522 |
+
| cosine_precision@5 | 0.1468 |
|
523 |
+
| cosine_precision@10 | 0.0772 |
|
524 |
+
| cosine_recall@1 | 0.6646 |
|
525 |
+
| cosine_recall@3 | 0.7278 |
|
526 |
+
| cosine_recall@5 | 0.7342 |
|
527 |
+
| cosine_recall@10 | 0.7722 |
|
528 |
+
| **cosine_ndcg@10** | **0.7172** |
|
529 |
+
| cosine_mrr@10 | 0.6999 |
|
530 |
+
| cosine_map@100 | 0.705 |
|
531 |
+
|
532 |
+
#### Information Retrieval
|
533 |
+
|
534 |
+
* Dataset: `dim_128`
|
535 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
536 |
+
```json
|
537 |
+
{
|
538 |
+
"truncate_dim": 128
|
539 |
+
}
|
540 |
+
```
|
541 |
+
|
542 |
+
| Metric | Value |
|
543 |
+
|:--------------------|:-----------|
|
544 |
+
| cosine_accuracy@1 | 0.6203 |
|
545 |
+
| cosine_accuracy@3 | 0.7278 |
|
546 |
+
| cosine_accuracy@5 | 0.7405 |
|
547 |
+
| cosine_accuracy@10 | 0.7658 |
|
548 |
+
| cosine_precision@1 | 0.6203 |
|
549 |
+
| cosine_precision@3 | 0.2426 |
|
550 |
+
| cosine_precision@5 | 0.1481 |
|
551 |
+
| cosine_precision@10 | 0.0766 |
|
552 |
+
| cosine_recall@1 | 0.6203 |
|
553 |
+
| cosine_recall@3 | 0.7278 |
|
554 |
+
| cosine_recall@5 | 0.7405 |
|
555 |
+
| cosine_recall@10 | 0.7658 |
|
556 |
+
| **cosine_ndcg@10** | **0.6958** |
|
557 |
+
| cosine_mrr@10 | 0.673 |
|
558 |
+
| cosine_map@100 | 0.6759 |
|
559 |
+
|
560 |
+
#### Information Retrieval
|
561 |
+
|
562 |
+
* Dataset: `dim_64`
|
563 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
564 |
+
```json
|
565 |
+
{
|
566 |
+
"truncate_dim": 64
|
567 |
+
}
|
568 |
+
```
|
569 |
+
|
570 |
+
| Metric | Value |
|
571 |
+
|:--------------------|:-----------|
|
572 |
+
| cosine_accuracy@1 | 0.5633 |
|
573 |
+
| cosine_accuracy@3 | 0.6519 |
|
574 |
+
| cosine_accuracy@5 | 0.6835 |
|
575 |
+
| cosine_accuracy@10 | 0.7152 |
|
576 |
+
| cosine_precision@1 | 0.5633 |
|
577 |
+
| cosine_precision@3 | 0.2173 |
|
578 |
+
| cosine_precision@5 | 0.1367 |
|
579 |
+
| cosine_precision@10 | 0.0715 |
|
580 |
+
| cosine_recall@1 | 0.5633 |
|
581 |
+
| cosine_recall@3 | 0.6519 |
|
582 |
+
| cosine_recall@5 | 0.6835 |
|
583 |
+
| cosine_recall@10 | 0.7152 |
|
584 |
+
| **cosine_ndcg@10** | **0.6372** |
|
585 |
+
| cosine_mrr@10 | 0.6125 |
|
586 |
+
| cosine_map@100 | 0.6184 |
|
587 |
+
|
588 |
+
<!--
|
589 |
+
## Bias, Risks and Limitations
|
590 |
+
|
591 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
592 |
+
-->
|
593 |
+
|
594 |
+
<!--
|
595 |
+
### Recommendations
|
596 |
+
|
597 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
598 |
+
-->
|
599 |
+
|
600 |
+
## Training Details
|
601 |
+
|
602 |
+
### Training Dataset
|
603 |
+
|
604 |
+
#### json
|
605 |
+
|
606 |
+
* Dataset: json
|
607 |
+
* Size: 1,421 training samples
|
608 |
+
* Columns: <code>anchor</code> and <code>positive</code>
|
609 |
+
* Approximate statistics based on the first 1000 samples:
|
610 |
+
| | anchor | positive |
|
611 |
+
|:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
|
612 |
+
| type | string | string |
|
613 |
+
| details | <ul><li>min: 3 tokens</li><li>mean: 25.07 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 30 tokens</li><li>mean: 71.48 tokens</li><li>max: 512 tokens</li></ul> |
|
614 |
+
* Samples:
|
615 |
+
| anchor | positive |
|
616 |
+
|:---------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
617 |
+
| <code>Làm cách nào để ngăn ngừa chứng loạn sản thận?</code> | <code>Thật không may, chứng loạn sản thận không thể ngăn ngừa được vì đây là một tình trạng bẩm sinh xảy ra trong quá trình phát triển của thai nhi. Tuy nhiên, việc phát hiện và điều trị sớm có thể giúp kiểm soát tình trạng và ngăn ngừa các biến chứng.</code> |
|
618 |
+
| <code>Có bất kỳ biến chứng nào liên quan đến cây nhiệt đới không?</code> | <code>Có, những trường hợp nặng của bệnh nhiệt đới có thể dẫn đến suy dinh dưỡng, thiếu máu và các biến chứng khác. Điều quan trọng là phải tìm cách điều trị y tế càng sớm càng tốt nếu bạn nghi ngờ mình mắc bệnh Nhiệt đới.</code> |
|
619 |
+
| <code>Tôi cần một số thông tin về cách bảo quản và tiêu hủy Fluoxetine. Bạn có thể vui lòng cho tôi biết những gì tôi nên biết?</code> | <code>Fluoxetine nên được bảo quản ở nhiệt độ phòng, tránh ẩm và nóng. Nó nên được giữ trong hộp đựng ban đầu và tránh xa tầm tay trẻ em và vật nuôi. Về việc thải bỏ, bạn nên tuân theo các hướng dẫn do nhà cung cấp dịch vụ chăm sóc sức khỏe hoặc dược sĩ của bạn cung cấp. Điều quan trọng là không xả Fluoxetine xuống bồn cầu hoặc vứt vào thùng rác.</code> |
|
620 |
+
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
|
621 |
+
```json
|
622 |
+
{
|
623 |
+
"loss": "MultipleNegativesRankingLoss",
|
624 |
+
"matryoshka_dims": [
|
625 |
+
768,
|
626 |
+
512,
|
627 |
+
256,
|
628 |
+
128,
|
629 |
+
64
|
630 |
+
],
|
631 |
+
"matryoshka_weights": [
|
632 |
+
1,
|
633 |
+
1,
|
634 |
+
1,
|
635 |
+
1,
|
636 |
+
1
|
637 |
+
],
|
638 |
+
"n_dims_per_step": -1
|
639 |
+
}
|
640 |
+
```
|
641 |
+
|
642 |
+
### Training Hyperparameters
|
643 |
+
#### Non-Default Hyperparameters
|
644 |
+
|
645 |
+
- `eval_strategy`: epoch
|
646 |
+
- `per_device_train_batch_size`: 16
|
647 |
+
- `gradient_accumulation_steps`: 8
|
648 |
+
- `learning_rate`: 2e-05
|
649 |
+
- `num_train_epochs`: 1
|
650 |
+
- `lr_scheduler_type`: cosine
|
651 |
+
- `warmup_ratio`: 0.1
|
652 |
+
- `bf16`: True
|
653 |
+
- `load_best_model_at_end`: True
|
654 |
+
- `optim`: adamw_torch_fused
|
655 |
+
- `batch_sampler`: no_duplicates
|
656 |
+
|
657 |
+
#### All Hyperparameters
|
658 |
+
<details><summary>Click to expand</summary>
|
659 |
+
|
660 |
+
- `overwrite_output_dir`: False
|
661 |
+
- `do_predict`: False
|
662 |
+
- `eval_strategy`: epoch
|
663 |
+
- `prediction_loss_only`: True
|
664 |
+
- `per_device_train_batch_size`: 16
|
665 |
+
- `per_device_eval_batch_size`: 8
|
666 |
+
- `per_gpu_train_batch_size`: None
|
667 |
+
- `per_gpu_eval_batch_size`: None
|
668 |
+
- `gradient_accumulation_steps`: 8
|
669 |
+
- `eval_accumulation_steps`: None
|
670 |
+
- `torch_empty_cache_steps`: None
|
671 |
+
- `learning_rate`: 2e-05
|
672 |
+
- `weight_decay`: 0.0
|
673 |
+
- `adam_beta1`: 0.9
|
674 |
+
- `adam_beta2`: 0.999
|
675 |
+
- `adam_epsilon`: 1e-08
|
676 |
+
- `max_grad_norm`: 1.0
|
677 |
+
- `num_train_epochs`: 1
|
678 |
+
- `max_steps`: -1
|
679 |
+
- `lr_scheduler_type`: cosine
|
680 |
+
- `lr_scheduler_kwargs`: {}
|
681 |
+
- `warmup_ratio`: 0.1
|
682 |
+
- `warmup_steps`: 0
|
683 |
+
- `log_level`: passive
|
684 |
+
- `log_level_replica`: warning
|
685 |
+
- `log_on_each_node`: True
|
686 |
+
- `logging_nan_inf_filter`: True
|
687 |
+
- `save_safetensors`: True
|
688 |
+
- `save_on_each_node`: False
|
689 |
+
- `save_only_model`: False
|
690 |
+
- `restore_callback_states_from_checkpoint`: False
|
691 |
+
- `no_cuda`: False
|
692 |
+
- `use_cpu`: False
|
693 |
+
- `use_mps_device`: False
|
694 |
+
- `seed`: 42
|
695 |
+
- `data_seed`: None
|
696 |
+
- `jit_mode_eval`: False
|
697 |
+
- `use_ipex`: False
|
698 |
+
- `bf16`: True
|
699 |
+
- `fp16`: False
|
700 |
+
- `fp16_opt_level`: O1
|
701 |
+
- `half_precision_backend`: auto
|
702 |
+
- `bf16_full_eval`: False
|
703 |
+
- `fp16_full_eval`: False
|
704 |
+
- `tf32`: None
|
705 |
+
- `local_rank`: 0
|
706 |
+
- `ddp_backend`: None
|
707 |
+
- `tpu_num_cores`: None
|
708 |
+
- `tpu_metrics_debug`: False
|
709 |
+
- `debug`: []
|
710 |
+
- `dataloader_drop_last`: False
|
711 |
+
- `dataloader_num_workers`: 0
|
712 |
+
- `dataloader_prefetch_factor`: None
|
713 |
+
- `past_index`: -1
|
714 |
+
- `disable_tqdm`: False
|
715 |
+
- `remove_unused_columns`: True
|
716 |
+
- `label_names`: None
|
717 |
+
- `load_best_model_at_end`: True
|
718 |
+
- `ignore_data_skip`: False
|
719 |
+
- `fsdp`: []
|
720 |
+
- `fsdp_min_num_params`: 0
|
721 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
722 |
+
- `tp_size`: 0
|
723 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
724 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
725 |
+
- `deepspeed`: None
|
726 |
+
- `label_smoothing_factor`: 0.0
|
727 |
+
- `optim`: adamw_torch_fused
|
728 |
+
- `optim_args`: None
|
729 |
+
- `adafactor`: False
|
730 |
+
- `group_by_length`: False
|
731 |
+
- `length_column_name`: length
|
732 |
+
- `ddp_find_unused_parameters`: None
|
733 |
+
- `ddp_bucket_cap_mb`: None
|
734 |
+
- `ddp_broadcast_buffers`: False
|
735 |
+
- `dataloader_pin_memory`: True
|
736 |
+
- `dataloader_persistent_workers`: False
|
737 |
+
- `skip_memory_metrics`: True
|
738 |
+
- `use_legacy_prediction_loop`: False
|
739 |
+
- `push_to_hub`: False
|
740 |
+
- `resume_from_checkpoint`: None
|
741 |
+
- `hub_model_id`: None
|
742 |
+
- `hub_strategy`: every_save
|
743 |
+
- `hub_private_repo`: None
|
744 |
+
- `hub_always_push`: False
|
745 |
+
- `gradient_checkpointing`: False
|
746 |
+
- `gradient_checkpointing_kwargs`: None
|
747 |
+
- `include_inputs_for_metrics`: False
|
748 |
+
- `include_for_metrics`: []
|
749 |
+
- `eval_do_concat_batches`: True
|
750 |
+
- `fp16_backend`: auto
|
751 |
+
- `push_to_hub_model_id`: None
|
752 |
+
- `push_to_hub_organization`: None
|
753 |
+
- `mp_parameters`:
|
754 |
+
- `auto_find_batch_size`: False
|
755 |
+
- `full_determinism`: False
|
756 |
+
- `torchdynamo`: None
|
757 |
+
- `ray_scope`: last
|
758 |
+
- `ddp_timeout`: 1800
|
759 |
+
- `torch_compile`: False
|
760 |
+
- `torch_compile_backend`: None
|
761 |
+
- `torch_compile_mode`: None
|
762 |
+
- `include_tokens_per_second`: False
|
763 |
+
- `include_num_input_tokens_seen`: False
|
764 |
+
- `neftune_noise_alpha`: None
|
765 |
+
- `optim_target_modules`: None
|
766 |
+
- `batch_eval_metrics`: False
|
767 |
+
- `eval_on_start`: False
|
768 |
+
- `use_liger_kernel`: False
|
769 |
+
- `eval_use_gather_object`: False
|
770 |
+
- `average_tokens_across_devices`: False
|
771 |
+
- `prompts`: None
|
772 |
+
- `batch_sampler`: no_duplicates
|
773 |
+
- `multi_dataset_batch_sampler`: proportional
|
774 |
+
|
775 |
+
</details>
|
776 |
+
|
777 |
+
### Training Logs
|
778 |
+
| Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
|
779 |
+
|:------:|:----:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
|
780 |
+
| 0.8989 | 10 | 15.0991 | - | - | - | - | - |
|
781 |
+
| 0.9888 | 11 | - | 0.7360 | 0.7365 | 0.7172 | 0.6958 | 0.6372 |
|
782 |
+
|
783 |
+
|
784 |
+
### Framework Versions
|
785 |
+
- Python: 3.12.5
|
786 |
+
- Sentence Transformers: 4.1.0
|
787 |
+
- Transformers: 4.51.3
|
788 |
+
- PyTorch: 2.6.0+cu118
|
789 |
+
- Accelerate: 1.6.0
|
790 |
+
- Datasets: 3.5.1
|
791 |
+
- Tokenizers: 0.21.1
|
792 |
+
|
793 |
+
## Citation
|
794 |
+
|
795 |
+
### BibTeX
|
796 |
+
|
797 |
+
#### Sentence Transformers
|
798 |
+
```bibtex
|
799 |
+
@inproceedings{reimers-2019-sentence-bert,
|
800 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
801 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
802 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
803 |
+
month = "11",
|
804 |
+
year = "2019",
|
805 |
+
publisher = "Association for Computational Linguistics",
|
806 |
+
url = "https://arxiv.org/abs/1908.10084",
|
807 |
+
}
|
808 |
+
```
|
809 |
+
|
810 |
+
#### MatryoshkaLoss
|
811 |
+
```bibtex
|
812 |
+
@misc{kusupati2024matryoshka,
|
813 |
+
title={Matryoshka Representation Learning},
|
814 |
+
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
|
815 |
+
year={2024},
|
816 |
+
eprint={2205.13147},
|
817 |
+
archivePrefix={arXiv},
|
818 |
+
primaryClass={cs.LG}
|
819 |
+
}
|
820 |
+
```
|
821 |
+
|
822 |
+
#### MultipleNegativesRankingLoss
|
823 |
+
```bibtex
|
824 |
+
@misc{henderson2017efficient,
|
825 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
826 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
827 |
+
year={2017},
|
828 |
+
eprint={1705.00652},
|
829 |
+
archivePrefix={arXiv},
|
830 |
+
primaryClass={cs.CL}
|
831 |
+
}
|
832 |
+
```
|
833 |
+
|
834 |
+
<!--
|
835 |
+
## Glossary
|
836 |
+
|
837 |
+
*Clearly define terms in order to be accessible across audiences.*
|
838 |
+
-->
|
839 |
+
|
840 |
+
<!--
|
841 |
+
## Model Card Authors
|
842 |
+
|
843 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
844 |
+
-->
|
845 |
+
|
846 |
+
<!--
|
847 |
+
## Model Card Contact
|
848 |
+
|
849 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
850 |
+
-->
|
checkpoint-11/config.json
ADDED
@@ -0,0 +1,27 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"architectures": [
|
3 |
+
"XLMRobertaModel"
|
4 |
+
],
|
5 |
+
"attention_probs_dropout_prob": 0.1,
|
6 |
+
"bos_token_id": 0,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"eos_token_id": 2,
|
9 |
+
"hidden_act": "gelu",
|
10 |
+
"hidden_dropout_prob": 0.1,
|
11 |
+
"hidden_size": 768,
|
12 |
+
"initializer_range": 0.02,
|
13 |
+
"intermediate_size": 3072,
|
14 |
+
"layer_norm_eps": 1e-05,
|
15 |
+
"max_position_embeddings": 514,
|
16 |
+
"model_type": "xlm-roberta",
|
17 |
+
"num_attention_heads": 12,
|
18 |
+
"num_hidden_layers": 12,
|
19 |
+
"output_past": true,
|
20 |
+
"pad_token_id": 1,
|
21 |
+
"position_embedding_type": "absolute",
|
22 |
+
"torch_dtype": "float32",
|
23 |
+
"transformers_version": "4.51.3",
|
24 |
+
"type_vocab_size": 1,
|
25 |
+
"use_cache": true,
|
26 |
+
"vocab_size": 250002
|
27 |
+
}
|
checkpoint-11/config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "4.1.0",
|
4 |
+
"transformers": "4.51.3",
|
5 |
+
"pytorch": "2.6.0+cu118"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": "cosine"
|
10 |
+
}
|
checkpoint-11/model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:6d7e63314d7f5685fc3d39440bc58b3fddccd5f2e041b5d9aff3955f9ec3a54a
|
3 |
+
size 1112197096
|
checkpoint-11/modules.json
ADDED
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
},
|
14 |
+
{
|
15 |
+
"idx": 2,
|
16 |
+
"name": "2",
|
17 |
+
"path": "2_Normalize",
|
18 |
+
"type": "sentence_transformers.models.Normalize"
|
19 |
+
}
|
20 |
+
]
|
checkpoint-11/optimizer.pt
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:ceca402f6206054f3ea720912b1718da98de47416d52345eb2628373ea674040
|
3 |
+
size 2219791994
|
checkpoint-11/rng_state.pth
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:d30be5ae5e26b587a8655c5e2f949708f79be389e263edf2ea04393e2afe08f4
|
3 |
+
size 14244
|
checkpoint-11/scheduler.pt
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:31b9a2943017389cf3a1d7039e2179da81ee83e86ec09213c33b7faafc253434
|
3 |
+
size 1064
|
checkpoint-11/sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
checkpoint-11/special_tokens_map.json
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"cls_token": {
|
10 |
+
"content": "<s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"eos_token": {
|
17 |
+
"content": "</s>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"mask_token": {
|
24 |
+
"content": "<mask>",
|
25 |
+
"lstrip": true,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"pad_token": {
|
31 |
+
"content": "<pad>",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
},
|
37 |
+
"sep_token": {
|
38 |
+
"content": "</s>",
|
39 |
+
"lstrip": false,
|
40 |
+
"normalized": false,
|
41 |
+
"rstrip": false,
|
42 |
+
"single_word": false
|
43 |
+
},
|
44 |
+
"unk_token": {
|
45 |
+
"content": "<unk>",
|
46 |
+
"lstrip": false,
|
47 |
+
"normalized": false,
|
48 |
+
"rstrip": false,
|
49 |
+
"single_word": false
|
50 |
+
}
|
51 |
+
}
|
checkpoint-11/tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
|
3 |
+
size 17082987
|
checkpoint-11/tokenizer_config.json
ADDED
@@ -0,0 +1,62 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"250001": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"bos_token": "<s>",
|
45 |
+
"clean_up_tokenization_spaces": true,
|
46 |
+
"cls_token": "<s>",
|
47 |
+
"eos_token": "</s>",
|
48 |
+
"extra_special_tokens": {},
|
49 |
+
"mask_token": "<mask>",
|
50 |
+
"max_length": 512,
|
51 |
+
"model_max_length": 512,
|
52 |
+
"pad_to_multiple_of": null,
|
53 |
+
"pad_token": "<pad>",
|
54 |
+
"pad_token_type_id": 0,
|
55 |
+
"padding_side": "right",
|
56 |
+
"sep_token": "</s>",
|
57 |
+
"stride": 0,
|
58 |
+
"tokenizer_class": "XLMRobertaTokenizerFast",
|
59 |
+
"truncation_side": "right",
|
60 |
+
"truncation_strategy": "longest_first",
|
61 |
+
"unk_token": "<unk>"
|
62 |
+
}
|
checkpoint-11/trainer_state.json
ADDED
@@ -0,0 +1,124 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"best_global_step": 11,
|
3 |
+
"best_metric": 0.695814972032374,
|
4 |
+
"best_model_checkpoint": "medical_embedding_vietnamese\\checkpoint-11",
|
5 |
+
"epoch": 0.9887640449438202,
|
6 |
+
"eval_steps": 500,
|
7 |
+
"global_step": 11,
|
8 |
+
"is_hyper_param_search": false,
|
9 |
+
"is_local_process_zero": true,
|
10 |
+
"is_world_process_zero": true,
|
11 |
+
"log_history": [
|
12 |
+
{
|
13 |
+
"epoch": 0.898876404494382,
|
14 |
+
"grad_norm": 171.29739379882812,
|
15 |
+
"learning_rate": 2.339555568810221e-06,
|
16 |
+
"loss": 15.0991,
|
17 |
+
"step": 10
|
18 |
+
},
|
19 |
+
{
|
20 |
+
"epoch": 0.9887640449438202,
|
21 |
+
"eval_dim_128_cosine_accuracy@1": 0.620253164556962,
|
22 |
+
"eval_dim_128_cosine_accuracy@10": 0.7658227848101266,
|
23 |
+
"eval_dim_128_cosine_accuracy@3": 0.7278481012658228,
|
24 |
+
"eval_dim_128_cosine_accuracy@5": 0.740506329113924,
|
25 |
+
"eval_dim_128_cosine_map@100": 0.6758935313130828,
|
26 |
+
"eval_dim_128_cosine_mrr@10": 0.673010849909584,
|
27 |
+
"eval_dim_128_cosine_ndcg@10": 0.695814972032374,
|
28 |
+
"eval_dim_128_cosine_precision@1": 0.620253164556962,
|
29 |
+
"eval_dim_128_cosine_precision@10": 0.07658227848101265,
|
30 |
+
"eval_dim_128_cosine_precision@3": 0.24261603375527424,
|
31 |
+
"eval_dim_128_cosine_precision@5": 0.14810126582278477,
|
32 |
+
"eval_dim_128_cosine_recall@1": 0.620253164556962,
|
33 |
+
"eval_dim_128_cosine_recall@10": 0.7658227848101266,
|
34 |
+
"eval_dim_128_cosine_recall@3": 0.7278481012658228,
|
35 |
+
"eval_dim_128_cosine_recall@5": 0.740506329113924,
|
36 |
+
"eval_dim_256_cosine_accuracy@1": 0.6645569620253164,
|
37 |
+
"eval_dim_256_cosine_accuracy@10": 0.7721518987341772,
|
38 |
+
"eval_dim_256_cosine_accuracy@3": 0.7278481012658228,
|
39 |
+
"eval_dim_256_cosine_accuracy@5": 0.7341772151898734,
|
40 |
+
"eval_dim_256_cosine_map@100": 0.7049830151644797,
|
41 |
+
"eval_dim_256_cosine_mrr@10": 0.6999196302993772,
|
42 |
+
"eval_dim_256_cosine_ndcg@10": 0.717246153733281,
|
43 |
+
"eval_dim_256_cosine_precision@1": 0.6645569620253164,
|
44 |
+
"eval_dim_256_cosine_precision@10": 0.0772151898734177,
|
45 |
+
"eval_dim_256_cosine_precision@3": 0.24261603375527424,
|
46 |
+
"eval_dim_256_cosine_precision@5": 0.14683544303797466,
|
47 |
+
"eval_dim_256_cosine_recall@1": 0.6645569620253164,
|
48 |
+
"eval_dim_256_cosine_recall@10": 0.7721518987341772,
|
49 |
+
"eval_dim_256_cosine_recall@3": 0.7278481012658228,
|
50 |
+
"eval_dim_256_cosine_recall@5": 0.7341772151898734,
|
51 |
+
"eval_dim_512_cosine_accuracy@1": 0.6962025316455697,
|
52 |
+
"eval_dim_512_cosine_accuracy@10": 0.7848101265822784,
|
53 |
+
"eval_dim_512_cosine_accuracy@3": 0.7278481012658228,
|
54 |
+
"eval_dim_512_cosine_accuracy@5": 0.7531645569620253,
|
55 |
+
"eval_dim_512_cosine_map@100": 0.7262381247862028,
|
56 |
+
"eval_dim_512_cosine_mrr@10": 0.7215340566606389,
|
57 |
+
"eval_dim_512_cosine_ndcg@10": 0.7365237174869693,
|
58 |
+
"eval_dim_512_cosine_precision@1": 0.6962025316455697,
|
59 |
+
"eval_dim_512_cosine_precision@10": 0.07848101265822782,
|
60 |
+
"eval_dim_512_cosine_precision@3": 0.24261603375527424,
|
61 |
+
"eval_dim_512_cosine_precision@5": 0.15063291139240503,
|
62 |
+
"eval_dim_512_cosine_recall@1": 0.6962025316455697,
|
63 |
+
"eval_dim_512_cosine_recall@10": 0.7848101265822784,
|
64 |
+
"eval_dim_512_cosine_recall@3": 0.7278481012658228,
|
65 |
+
"eval_dim_512_cosine_recall@5": 0.7531645569620253,
|
66 |
+
"eval_dim_64_cosine_accuracy@1": 0.5632911392405063,
|
67 |
+
"eval_dim_64_cosine_accuracy@10": 0.7151898734177216,
|
68 |
+
"eval_dim_64_cosine_accuracy@3": 0.6518987341772152,
|
69 |
+
"eval_dim_64_cosine_accuracy@5": 0.6835443037974683,
|
70 |
+
"eval_dim_64_cosine_map@100": 0.6183770912827027,
|
71 |
+
"eval_dim_64_cosine_mrr@10": 0.6125075346594335,
|
72 |
+
"eval_dim_64_cosine_ndcg@10": 0.6372309190806515,
|
73 |
+
"eval_dim_64_cosine_precision@1": 0.5632911392405063,
|
74 |
+
"eval_dim_64_cosine_precision@10": 0.07151898734177213,
|
75 |
+
"eval_dim_64_cosine_precision@3": 0.2172995780590717,
|
76 |
+
"eval_dim_64_cosine_precision@5": 0.13670886075949362,
|
77 |
+
"eval_dim_64_cosine_recall@1": 0.5632911392405063,
|
78 |
+
"eval_dim_64_cosine_recall@10": 0.7151898734177216,
|
79 |
+
"eval_dim_64_cosine_recall@3": 0.6518987341772152,
|
80 |
+
"eval_dim_64_cosine_recall@5": 0.6835443037974683,
|
81 |
+
"eval_dim_768_cosine_accuracy@1": 0.689873417721519,
|
82 |
+
"eval_dim_768_cosine_accuracy@10": 0.7911392405063291,
|
83 |
+
"eval_dim_768_cosine_accuracy@3": 0.7341772151898734,
|
84 |
+
"eval_dim_768_cosine_accuracy@5": 0.7658227848101266,
|
85 |
+
"eval_dim_768_cosine_map@100": 0.7231429561762966,
|
86 |
+
"eval_dim_768_cosine_mrr@10": 0.7186884669479607,
|
87 |
+
"eval_dim_768_cosine_ndcg@10": 0.7359964164308189,
|
88 |
+
"eval_dim_768_cosine_precision@1": 0.689873417721519,
|
89 |
+
"eval_dim_768_cosine_precision@10": 0.07911392405063289,
|
90 |
+
"eval_dim_768_cosine_precision@3": 0.24472573839662443,
|
91 |
+
"eval_dim_768_cosine_precision@5": 0.1531645569620253,
|
92 |
+
"eval_dim_768_cosine_recall@1": 0.689873417721519,
|
93 |
+
"eval_dim_768_cosine_recall@10": 0.7911392405063291,
|
94 |
+
"eval_dim_768_cosine_recall@3": 0.7341772151898734,
|
95 |
+
"eval_dim_768_cosine_recall@5": 0.7658227848101266,
|
96 |
+
"eval_runtime": 27.5674,
|
97 |
+
"eval_samples_per_second": 0.0,
|
98 |
+
"eval_sequential_score": 0.6372309190806515,
|
99 |
+
"eval_steps_per_second": 0.0,
|
100 |
+
"step": 11
|
101 |
+
}
|
102 |
+
],
|
103 |
+
"logging_steps": 10,
|
104 |
+
"max_steps": 11,
|
105 |
+
"num_input_tokens_seen": 0,
|
106 |
+
"num_train_epochs": 1,
|
107 |
+
"save_steps": 500,
|
108 |
+
"stateful_callbacks": {
|
109 |
+
"TrainerControl": {
|
110 |
+
"args": {
|
111 |
+
"should_epoch_stop": false,
|
112 |
+
"should_evaluate": false,
|
113 |
+
"should_log": false,
|
114 |
+
"should_save": true,
|
115 |
+
"should_training_stop": true
|
116 |
+
},
|
117 |
+
"attributes": {}
|
118 |
+
}
|
119 |
+
},
|
120 |
+
"total_flos": 0.0,
|
121 |
+
"train_batch_size": 16,
|
122 |
+
"trial_name": null,
|
123 |
+
"trial_params": null
|
124 |
+
}
|
checkpoint-11/training_args.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:e45857aeb3b81c769a093eeea76b911fa94a5ee3b0ecbcd96ce4c0317642722d
|
3 |
+
size 5624
|
config.json
ADDED
@@ -0,0 +1,27 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"architectures": [
|
3 |
+
"XLMRobertaModel"
|
4 |
+
],
|
5 |
+
"attention_probs_dropout_prob": 0.1,
|
6 |
+
"bos_token_id": 0,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"eos_token_id": 2,
|
9 |
+
"hidden_act": "gelu",
|
10 |
+
"hidden_dropout_prob": 0.1,
|
11 |
+
"hidden_size": 768,
|
12 |
+
"initializer_range": 0.02,
|
13 |
+
"intermediate_size": 3072,
|
14 |
+
"layer_norm_eps": 1e-05,
|
15 |
+
"max_position_embeddings": 514,
|
16 |
+
"model_type": "xlm-roberta",
|
17 |
+
"num_attention_heads": 12,
|
18 |
+
"num_hidden_layers": 12,
|
19 |
+
"output_past": true,
|
20 |
+
"pad_token_id": 1,
|
21 |
+
"position_embedding_type": "absolute",
|
22 |
+
"torch_dtype": "float32",
|
23 |
+
"transformers_version": "4.51.3",
|
24 |
+
"type_vocab_size": 1,
|
25 |
+
"use_cache": true,
|
26 |
+
"vocab_size": 250002
|
27 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "4.1.0",
|
4 |
+
"transformers": "4.51.3",
|
5 |
+
"pytorch": "2.6.0+cu118"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": "cosine"
|
10 |
+
}
|
eval/Information-Retrieval_evaluation_dim_128_results.csv
ADDED
@@ -0,0 +1,2 @@
|
|
|
|
|
|
|
1 |
+
epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
|
2 |
+
0.9887640449438202,11,0.620253164556962,0.7278481012658228,0.740506329113924,0.7658227848101266,0.620253164556962,0.620253164556962,0.24261603375527424,0.7278481012658228,0.14810126582278477,0.740506329113924,0.07658227848101265,0.7658227848101266,0.673010849909584,0.695814972032374,0.6758935313130828
|
eval/Information-Retrieval_evaluation_dim_256_results.csv
ADDED
@@ -0,0 +1,2 @@
|
|
|
|
|
|
|
1 |
+
epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
|
2 |
+
0.9887640449438202,11,0.6645569620253164,0.7278481012658228,0.7341772151898734,0.7721518987341772,0.6645569620253164,0.6645569620253164,0.24261603375527424,0.7278481012658228,0.14683544303797466,0.7341772151898734,0.0772151898734177,0.7721518987341772,0.6999196302993772,0.717246153733281,0.7049830151644797
|
eval/Information-Retrieval_evaluation_dim_512_results.csv
ADDED
@@ -0,0 +1,2 @@
|
|
|
|
|
|
|
1 |
+
epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
|
2 |
+
0.9887640449438202,11,0.6962025316455697,0.7278481012658228,0.7531645569620253,0.7848101265822784,0.6962025316455697,0.6962025316455697,0.24261603375527424,0.7278481012658228,0.15063291139240503,0.7531645569620253,0.07848101265822782,0.7848101265822784,0.7215340566606389,0.7365237174869693,0.7262381247862028
|
eval/Information-Retrieval_evaluation_dim_64_results.csv
ADDED
@@ -0,0 +1,2 @@
|
|
|
|
|
|
|
1 |
+
epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
|
2 |
+
0.9887640449438202,11,0.5632911392405063,0.6518987341772152,0.6835443037974683,0.7151898734177216,0.5632911392405063,0.5632911392405063,0.2172995780590717,0.6518987341772152,0.13670886075949362,0.6835443037974683,0.07151898734177213,0.7151898734177216,0.6125075346594335,0.6372309190806515,0.6183770912827027
|
eval/Information-Retrieval_evaluation_dim_768_results.csv
ADDED
@@ -0,0 +1,2 @@
|
|
|
|
|
|
|
1 |
+
epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
|
2 |
+
0.9887640449438202,11,0.689873417721519,0.7341772151898734,0.7658227848101266,0.7911392405063291,0.689873417721519,0.689873417721519,0.24472573839662443,0.7341772151898734,0.1531645569620253,0.7658227848101266,0.07911392405063289,0.7911392405063291,0.7186884669479607,0.7359964164308189,0.7231429561762966
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:6d7e63314d7f5685fc3d39440bc58b3fddccd5f2e041b5d9aff3955f9ec3a54a
|
3 |
+
size 1112197096
|
modules.json
ADDED
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
},
|
14 |
+
{
|
15 |
+
"idx": 2,
|
16 |
+
"name": "2",
|
17 |
+
"path": "2_Normalize",
|
18 |
+
"type": "sentence_transformers.models.Normalize"
|
19 |
+
}
|
20 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"cls_token": {
|
10 |
+
"content": "<s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"eos_token": {
|
17 |
+
"content": "</s>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"mask_token": {
|
24 |
+
"content": "<mask>",
|
25 |
+
"lstrip": true,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"pad_token": {
|
31 |
+
"content": "<pad>",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
},
|
37 |
+
"sep_token": {
|
38 |
+
"content": "</s>",
|
39 |
+
"lstrip": false,
|
40 |
+
"normalized": false,
|
41 |
+
"rstrip": false,
|
42 |
+
"single_word": false
|
43 |
+
},
|
44 |
+
"unk_token": {
|
45 |
+
"content": "<unk>",
|
46 |
+
"lstrip": false,
|
47 |
+
"normalized": false,
|
48 |
+
"rstrip": false,
|
49 |
+
"single_word": false
|
50 |
+
}
|
51 |
+
}
|
tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
|
3 |
+
size 17082987
|
tokenizer_config.json
ADDED
@@ -0,0 +1,62 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"250001": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"bos_token": "<s>",
|
45 |
+
"clean_up_tokenization_spaces": true,
|
46 |
+
"cls_token": "<s>",
|
47 |
+
"eos_token": "</s>",
|
48 |
+
"extra_special_tokens": {},
|
49 |
+
"mask_token": "<mask>",
|
50 |
+
"max_length": 512,
|
51 |
+
"model_max_length": 512,
|
52 |
+
"pad_to_multiple_of": null,
|
53 |
+
"pad_token": "<pad>",
|
54 |
+
"pad_token_type_id": 0,
|
55 |
+
"padding_side": "right",
|
56 |
+
"sep_token": "</s>",
|
57 |
+
"stride": 0,
|
58 |
+
"tokenizer_class": "XLMRobertaTokenizerFast",
|
59 |
+
"truncation_side": "right",
|
60 |
+
"truncation_strategy": "longest_first",
|
61 |
+
"unk_token": "<unk>"
|
62 |
+
}
|
training_args.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:e45857aeb3b81c769a093eeea76b911fa94a5ee3b0ecbcd96ce4c0317642722d
|
3 |
+
size 5624
|