Minh Thuận commited on
Commit
8b1464e
·
1 Parent(s): 2eea9c1

create repo

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,851 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - generated_from_trainer
10
+ - dataset_size:1421
11
+ - loss:MatryoshkaLoss
12
+ - loss:MultipleNegativesRankingLoss
13
+ base_model: hiieu/halong_embedding
14
+ widget:
15
+ - source_sentence: Dạ chào bác sĩ ,e bị đau tức bụng hông trái lan ra lưng ,xét nghiệm
16
+ nước tiểu thì protein 1+,hồng cầu 1+ thì có bị sao không bác sĩ
17
+ sentences:
18
+ - Trong hầu hết các trường hợp, chứng run do thuốc không phải là tình trạng vĩnh
19
+ viễn. Khi ngừng thuốc hoặc giảm liều lượng, tình trạng run rẩy thường biến mất.
20
+ Tuy nhiên, trong một số trường hợp, tình trạng run có thể vẫn tồn tại ngay cả
21
+ sau khi ngừng thuốc.
22
+ - Chào em Thường trong nước tiểu không có protein , hồng cầu. Em nên đi khám sâu
23
+ hơn chuyên khoa thận tiết niệu để phân biệt đặc điểm trên do viêm đường niệu ở
24
+ vị trí nào em nhé( niệu đạo, thận, bàng quang,.
25
+ - Tư vấn di truyền có thể giúp những người có nguy cơ sinh con mắc chứng loạn dưỡng
26
+ cơ Duchenne bằng cách cung cấp thông tin về khả năng truyền gen đột biến và thảo
27
+ luận về các lựa chọn sinh sản. Ví dụ, nếu cả cha lẫn mẹ đều là người mang gen,
28
+ họ có thể chọn sử dụng phương pháp thụ tinh trong ống nghiệm và xét nghiệm di
29
+ truyền để chọn ra những phôi không mang gen đột biến.
30
+ - source_sentence: Siêu âm mắt là gì?
31
+ sentences:
32
+ - Bệnh thần kinh ngoại biên có thể gây ra nhiều triệu chứng khác nhau bao gồm tê
33
+ hoặc ngứa ran ở tay hoặc chân, yếu cơ và đau nhói, rát. Nó cũng có thể gây nhạy
34
+ cảm khi chạm và khó phối hợp và giữ thăng bằng.
35
+ - Chao em Chào bác sĩ Ảnh em chụp thì vẫn vàng da. Bs cần hỏi em thêm một số thông
36
+ tin nữa để kê đơn cho bé.
37
+ - Siêu âm mắt là một thủ thuật không xâm lấn trong đó sóng âm thanh được sử dụng
38
+ để tạo ra hình ảnh của mắt. Xét nghiệm này có thể giúp bác sĩ nhìn thấy kích thước,
39
+ vị trí và hình dạng của bất kỳ khối u nào có thể có trong mắt.
40
+ - source_sentence: Những xét nghiệm này chính xác đến mức nào?
41
+ sentences:
42
+ - Hội chứng rụng tóc động kinh oligophrenia của Moynahan hay còn gọi là hội chứng
43
+ Moynahan, là một rối loạn di truyền hiếm gặp ảnh hưởng đến nhiều hệ thống cơ thể.
44
+ Các triệu chứng thường gặp bao gồm chậm phát triển, thiểu năng trí tuệ, co giật,
45
+ rụng tóc và các đặc điểm đặc biệt trên khuôn mặt. Bạn có muốn biết thêm thông
46
+ tin về bất kỳ triệu chứng cụ thể nào không?
47
+ - Độ chính xác của các bài kiểm tra có thể khác nhau tùy thuộc vào loại bài kiểm
48
+ tra và thời điểm thực hiện. Nói chung, các xét nghiệm này có độ chính xác cao
49
+ và hiếm khi cho kết quả dương tính giả hoặc âm tính giả.
50
+ - Thật không may, hội chứng Partington không có cách chữa trị. Điều trị tập trung
51
+ vào việc giảm bớt các triệu chứng và cải thiện chất lượng cuộc sống.
52
+ - source_sentence: bác sĩ ơii, cho em hỏi là những hạt như vậy trong miệng em là gì
53
+ vậy ạ
54
+ sentences:
55
+ - Vâng, có một số biện pháp tự nhiên có thể giúp chữa bệnh tiêu chảy. Ăn thực phẩm
56
+ giàu men vi sinh như sữa chua có thể giúp phục hồi vi khuẩn khỏe mạnh trong ruột.
57
+ - Có, các yếu tố nguy cơ khác bao gồm từng bị nhiễm trùng trước đó, mắc bệnh tự
58
+ miễn và tiếp xúc với một số chất độc hoặc thuốc. Huyết áp cao và hút thuốc cũng
59
+ được coi là yếu tố nguy cơ.
60
+ - Chào em Em có đau buốt gì ko em? dạ k ạ Nếu em đã quan hệ bằng miệng rồi, hiện
61
+ tại ko đau buốt gì nên đi xn HPV miệng em nhé
62
+ - source_sentence: Có xét nghiệm cụ thể nào để chẩn đoán hội chứng này không?
63
+ sentences:
64
+ - Entecavir đã được chứng minh là có hiệu quả chủ yếu chống lại HBV kiểu gen A.
65
+ Tuy nhiên, nó cũng có tác dụng chống lại HBV kiểu gen B và C.
66
+ - Có, có nhiều lựa chọn điều trị khác nhau tùy thuộc vào tình trạng cụ thể và mức
67
+ độ nghiêm trọng của các triệu chứng. Điều trị có thể bao gồm các bài tập sàn chậu,
68
+ dùng thuốc và phẫu thuật.
69
+ - Có, có những xét nghiệm cụ thể có thể chẩn đoán hội chứng Cockayne loại II. Chúng
70
+ bao gồm xét nghiệm di truyền, xét nghiệm máu và nước tiểu, cũng như kiểm tra thần
71
+ kinh.
72
+ pipeline_tag: sentence-similarity
73
+ library_name: sentence-transformers
74
+ metrics:
75
+ - cosine_accuracy@1
76
+ - cosine_accuracy@3
77
+ - cosine_accuracy@5
78
+ - cosine_accuracy@10
79
+ - cosine_precision@1
80
+ - cosine_precision@3
81
+ - cosine_precision@5
82
+ - cosine_precision@10
83
+ - cosine_recall@1
84
+ - cosine_recall@3
85
+ - cosine_recall@5
86
+ - cosine_recall@10
87
+ - cosine_ndcg@10
88
+ - cosine_mrr@10
89
+ - cosine_map@100
90
+ model-index:
91
+ - name: BGE base Financial Matryoshka
92
+ results:
93
+ - task:
94
+ type: information-retrieval
95
+ name: Information Retrieval
96
+ dataset:
97
+ name: dim 768
98
+ type: dim_768
99
+ metrics:
100
+ - type: cosine_accuracy@1
101
+ value: 0.689873417721519
102
+ name: Cosine Accuracy@1
103
+ - type: cosine_accuracy@3
104
+ value: 0.7341772151898734
105
+ name: Cosine Accuracy@3
106
+ - type: cosine_accuracy@5
107
+ value: 0.7658227848101266
108
+ name: Cosine Accuracy@5
109
+ - type: cosine_accuracy@10
110
+ value: 0.7911392405063291
111
+ name: Cosine Accuracy@10
112
+ - type: cosine_precision@1
113
+ value: 0.689873417721519
114
+ name: Cosine Precision@1
115
+ - type: cosine_precision@3
116
+ value: 0.24472573839662443
117
+ name: Cosine Precision@3
118
+ - type: cosine_precision@5
119
+ value: 0.1531645569620253
120
+ name: Cosine Precision@5
121
+ - type: cosine_precision@10
122
+ value: 0.07911392405063289
123
+ name: Cosine Precision@10
124
+ - type: cosine_recall@1
125
+ value: 0.689873417721519
126
+ name: Cosine Recall@1
127
+ - type: cosine_recall@3
128
+ value: 0.7341772151898734
129
+ name: Cosine Recall@3
130
+ - type: cosine_recall@5
131
+ value: 0.7658227848101266
132
+ name: Cosine Recall@5
133
+ - type: cosine_recall@10
134
+ value: 0.7911392405063291
135
+ name: Cosine Recall@10
136
+ - type: cosine_ndcg@10
137
+ value: 0.7359964164308189
138
+ name: Cosine Ndcg@10
139
+ - type: cosine_mrr@10
140
+ value: 0.7186884669479607
141
+ name: Cosine Mrr@10
142
+ - type: cosine_map@100
143
+ value: 0.7231429561762966
144
+ name: Cosine Map@100
145
+ - task:
146
+ type: information-retrieval
147
+ name: Information Retrieval
148
+ dataset:
149
+ name: dim 512
150
+ type: dim_512
151
+ metrics:
152
+ - type: cosine_accuracy@1
153
+ value: 0.6962025316455697
154
+ name: Cosine Accuracy@1
155
+ - type: cosine_accuracy@3
156
+ value: 0.7278481012658228
157
+ name: Cosine Accuracy@3
158
+ - type: cosine_accuracy@5
159
+ value: 0.7531645569620253
160
+ name: Cosine Accuracy@5
161
+ - type: cosine_accuracy@10
162
+ value: 0.7848101265822784
163
+ name: Cosine Accuracy@10
164
+ - type: cosine_precision@1
165
+ value: 0.6962025316455697
166
+ name: Cosine Precision@1
167
+ - type: cosine_precision@3
168
+ value: 0.24261603375527424
169
+ name: Cosine Precision@3
170
+ - type: cosine_precision@5
171
+ value: 0.15063291139240503
172
+ name: Cosine Precision@5
173
+ - type: cosine_precision@10
174
+ value: 0.07848101265822782
175
+ name: Cosine Precision@10
176
+ - type: cosine_recall@1
177
+ value: 0.6962025316455697
178
+ name: Cosine Recall@1
179
+ - type: cosine_recall@3
180
+ value: 0.7278481012658228
181
+ name: Cosine Recall@3
182
+ - type: cosine_recall@5
183
+ value: 0.7531645569620253
184
+ name: Cosine Recall@5
185
+ - type: cosine_recall@10
186
+ value: 0.7848101265822784
187
+ name: Cosine Recall@10
188
+ - type: cosine_ndcg@10
189
+ value: 0.7365237174869693
190
+ name: Cosine Ndcg@10
191
+ - type: cosine_mrr@10
192
+ value: 0.7215340566606389
193
+ name: Cosine Mrr@10
194
+ - type: cosine_map@100
195
+ value: 0.7262381247862028
196
+ name: Cosine Map@100
197
+ - task:
198
+ type: information-retrieval
199
+ name: Information Retrieval
200
+ dataset:
201
+ name: dim 256
202
+ type: dim_256
203
+ metrics:
204
+ - type: cosine_accuracy@1
205
+ value: 0.6645569620253164
206
+ name: Cosine Accuracy@1
207
+ - type: cosine_accuracy@3
208
+ value: 0.7278481012658228
209
+ name: Cosine Accuracy@3
210
+ - type: cosine_accuracy@5
211
+ value: 0.7341772151898734
212
+ name: Cosine Accuracy@5
213
+ - type: cosine_accuracy@10
214
+ value: 0.7721518987341772
215
+ name: Cosine Accuracy@10
216
+ - type: cosine_precision@1
217
+ value: 0.6645569620253164
218
+ name: Cosine Precision@1
219
+ - type: cosine_precision@3
220
+ value: 0.24261603375527424
221
+ name: Cosine Precision@3
222
+ - type: cosine_precision@5
223
+ value: 0.14683544303797466
224
+ name: Cosine Precision@5
225
+ - type: cosine_precision@10
226
+ value: 0.0772151898734177
227
+ name: Cosine Precision@10
228
+ - type: cosine_recall@1
229
+ value: 0.6645569620253164
230
+ name: Cosine Recall@1
231
+ - type: cosine_recall@3
232
+ value: 0.7278481012658228
233
+ name: Cosine Recall@3
234
+ - type: cosine_recall@5
235
+ value: 0.7341772151898734
236
+ name: Cosine Recall@5
237
+ - type: cosine_recall@10
238
+ value: 0.7721518987341772
239
+ name: Cosine Recall@10
240
+ - type: cosine_ndcg@10
241
+ value: 0.717246153733281
242
+ name: Cosine Ndcg@10
243
+ - type: cosine_mrr@10
244
+ value: 0.6999196302993772
245
+ name: Cosine Mrr@10
246
+ - type: cosine_map@100
247
+ value: 0.7049830151644797
248
+ name: Cosine Map@100
249
+ - task:
250
+ type: information-retrieval
251
+ name: Information Retrieval
252
+ dataset:
253
+ name: dim 128
254
+ type: dim_128
255
+ metrics:
256
+ - type: cosine_accuracy@1
257
+ value: 0.620253164556962
258
+ name: Cosine Accuracy@1
259
+ - type: cosine_accuracy@3
260
+ value: 0.7278481012658228
261
+ name: Cosine Accuracy@3
262
+ - type: cosine_accuracy@5
263
+ value: 0.740506329113924
264
+ name: Cosine Accuracy@5
265
+ - type: cosine_accuracy@10
266
+ value: 0.7658227848101266
267
+ name: Cosine Accuracy@10
268
+ - type: cosine_precision@1
269
+ value: 0.620253164556962
270
+ name: Cosine Precision@1
271
+ - type: cosine_precision@3
272
+ value: 0.24261603375527424
273
+ name: Cosine Precision@3
274
+ - type: cosine_precision@5
275
+ value: 0.14810126582278477
276
+ name: Cosine Precision@5
277
+ - type: cosine_precision@10
278
+ value: 0.07658227848101265
279
+ name: Cosine Precision@10
280
+ - type: cosine_recall@1
281
+ value: 0.620253164556962
282
+ name: Cosine Recall@1
283
+ - type: cosine_recall@3
284
+ value: 0.7278481012658228
285
+ name: Cosine Recall@3
286
+ - type: cosine_recall@5
287
+ value: 0.740506329113924
288
+ name: Cosine Recall@5
289
+ - type: cosine_recall@10
290
+ value: 0.7658227848101266
291
+ name: Cosine Recall@10
292
+ - type: cosine_ndcg@10
293
+ value: 0.695814972032374
294
+ name: Cosine Ndcg@10
295
+ - type: cosine_mrr@10
296
+ value: 0.673010849909584
297
+ name: Cosine Mrr@10
298
+ - type: cosine_map@100
299
+ value: 0.6758935313130828
300
+ name: Cosine Map@100
301
+ - task:
302
+ type: information-retrieval
303
+ name: Information Retrieval
304
+ dataset:
305
+ name: dim 64
306
+ type: dim_64
307
+ metrics:
308
+ - type: cosine_accuracy@1
309
+ value: 0.5632911392405063
310
+ name: Cosine Accuracy@1
311
+ - type: cosine_accuracy@3
312
+ value: 0.6518987341772152
313
+ name: Cosine Accuracy@3
314
+ - type: cosine_accuracy@5
315
+ value: 0.6835443037974683
316
+ name: Cosine Accuracy@5
317
+ - type: cosine_accuracy@10
318
+ value: 0.7151898734177216
319
+ name: Cosine Accuracy@10
320
+ - type: cosine_precision@1
321
+ value: 0.5632911392405063
322
+ name: Cosine Precision@1
323
+ - type: cosine_precision@3
324
+ value: 0.2172995780590717
325
+ name: Cosine Precision@3
326
+ - type: cosine_precision@5
327
+ value: 0.13670886075949362
328
+ name: Cosine Precision@5
329
+ - type: cosine_precision@10
330
+ value: 0.07151898734177213
331
+ name: Cosine Precision@10
332
+ - type: cosine_recall@1
333
+ value: 0.5632911392405063
334
+ name: Cosine Recall@1
335
+ - type: cosine_recall@3
336
+ value: 0.6518987341772152
337
+ name: Cosine Recall@3
338
+ - type: cosine_recall@5
339
+ value: 0.6835443037974683
340
+ name: Cosine Recall@5
341
+ - type: cosine_recall@10
342
+ value: 0.7151898734177216
343
+ name: Cosine Recall@10
344
+ - type: cosine_ndcg@10
345
+ value: 0.6372309190806515
346
+ name: Cosine Ndcg@10
347
+ - type: cosine_mrr@10
348
+ value: 0.6125075346594335
349
+ name: Cosine Mrr@10
350
+ - type: cosine_map@100
351
+ value: 0.6183770912827027
352
+ name: Cosine Map@100
353
+ ---
354
+
355
+ # BGE base Financial Matryoshka
356
+
357
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [hiieu/halong_embedding](https://huggingface.co/hiieu/halong_embedding) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
358
+
359
+ ## Model Details
360
+
361
+ ### Model Description
362
+ - **Model Type:** Sentence Transformer
363
+ - **Base model:** [hiieu/halong_embedding](https://huggingface.co/hiieu/halong_embedding) <!-- at revision b57776031035f70ed2030d2e35ecc533eb0f8f71 -->
364
+ - **Maximum Sequence Length:** 512 tokens
365
+ - **Output Dimensionality:** 768 dimensions
366
+ - **Similarity Function:** Cosine Similarity
367
+ - **Training Dataset:**
368
+ - json
369
+ - **Language:** en
370
+ - **License:** apache-2.0
371
+
372
+ ### Model Sources
373
+
374
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
375
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
376
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
377
+
378
+ ### Full Model Architecture
379
+
380
+ ```
381
+ SentenceTransformer(
382
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
383
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
384
+ (2): Normalize()
385
+ )
386
+ ```
387
+
388
+ ## Usage
389
+
390
+ ### Direct Usage (Sentence Transformers)
391
+
392
+ First install the Sentence Transformers library:
393
+
394
+ ```bash
395
+ pip install -U sentence-transformers
396
+ ```
397
+
398
+ Then you can load this model and run inference.
399
+ ```python
400
+ from sentence_transformers import SentenceTransformer
401
+
402
+ # Download from the 🤗 Hub
403
+ model = SentenceTransformer("sentence_transformers_model_id")
404
+ # Run inference
405
+ sentences = [
406
+ 'Có xét nghiệm cụ thể nào để chẩn đoán hội chứng này không?',
407
+ 'Có, có những xét nghiệm cụ thể có thể chẩn đoán hội chứng Cockayne loại II. Chúng bao gồm xét nghiệm di truyền, xét nghiệm máu và nước tiểu, cũng như kiểm tra thần kinh.',
408
+ 'Entecavir đã được chứng minh là có hiệu quả chủ yếu chống lại HBV kiểu gen A. Tuy nhiên, nó cũng có tác dụng chống lại HBV kiểu gen B và C.',
409
+ ]
410
+ embeddings = model.encode(sentences)
411
+ print(embeddings.shape)
412
+ # [3, 768]
413
+
414
+ # Get the similarity scores for the embeddings
415
+ similarities = model.similarity(embeddings, embeddings)
416
+ print(similarities.shape)
417
+ # [3, 3]
418
+ ```
419
+
420
+ <!--
421
+ ### Direct Usage (Transformers)
422
+
423
+ <details><summary>Click to see the direct usage in Transformers</summary>
424
+
425
+ </details>
426
+ -->
427
+
428
+ <!--
429
+ ### Downstream Usage (Sentence Transformers)
430
+
431
+ You can finetune this model on your own dataset.
432
+
433
+ <details><summary>Click to expand</summary>
434
+
435
+ </details>
436
+ -->
437
+
438
+ <!--
439
+ ### Out-of-Scope Use
440
+
441
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
442
+ -->
443
+
444
+ ## Evaluation
445
+
446
+ ### Metrics
447
+
448
+ #### Information Retrieval
449
+
450
+ * Dataset: `dim_768`
451
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
452
+ ```json
453
+ {
454
+ "truncate_dim": 768
455
+ }
456
+ ```
457
+
458
+ | Metric | Value |
459
+ |:--------------------|:----------|
460
+ | cosine_accuracy@1 | 0.6899 |
461
+ | cosine_accuracy@3 | 0.7342 |
462
+ | cosine_accuracy@5 | 0.7658 |
463
+ | cosine_accuracy@10 | 0.7911 |
464
+ | cosine_precision@1 | 0.6899 |
465
+ | cosine_precision@3 | 0.2447 |
466
+ | cosine_precision@5 | 0.1532 |
467
+ | cosine_precision@10 | 0.0791 |
468
+ | cosine_recall@1 | 0.6899 |
469
+ | cosine_recall@3 | 0.7342 |
470
+ | cosine_recall@5 | 0.7658 |
471
+ | cosine_recall@10 | 0.7911 |
472
+ | **cosine_ndcg@10** | **0.736** |
473
+ | cosine_mrr@10 | 0.7187 |
474
+ | cosine_map@100 | 0.7231 |
475
+
476
+ #### Information Retrieval
477
+
478
+ * Dataset: `dim_512`
479
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
480
+ ```json
481
+ {
482
+ "truncate_dim": 512
483
+ }
484
+ ```
485
+
486
+ | Metric | Value |
487
+ |:--------------------|:-----------|
488
+ | cosine_accuracy@1 | 0.6962 |
489
+ | cosine_accuracy@3 | 0.7278 |
490
+ | cosine_accuracy@5 | 0.7532 |
491
+ | cosine_accuracy@10 | 0.7848 |
492
+ | cosine_precision@1 | 0.6962 |
493
+ | cosine_precision@3 | 0.2426 |
494
+ | cosine_precision@5 | 0.1506 |
495
+ | cosine_precision@10 | 0.0785 |
496
+ | cosine_recall@1 | 0.6962 |
497
+ | cosine_recall@3 | 0.7278 |
498
+ | cosine_recall@5 | 0.7532 |
499
+ | cosine_recall@10 | 0.7848 |
500
+ | **cosine_ndcg@10** | **0.7365** |
501
+ | cosine_mrr@10 | 0.7215 |
502
+ | cosine_map@100 | 0.7262 |
503
+
504
+ #### Information Retrieval
505
+
506
+ * Dataset: `dim_256`
507
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
508
+ ```json
509
+ {
510
+ "truncate_dim": 256
511
+ }
512
+ ```
513
+
514
+ | Metric | Value |
515
+ |:--------------------|:-----------|
516
+ | cosine_accuracy@1 | 0.6646 |
517
+ | cosine_accuracy@3 | 0.7278 |
518
+ | cosine_accuracy@5 | 0.7342 |
519
+ | cosine_accuracy@10 | 0.7722 |
520
+ | cosine_precision@1 | 0.6646 |
521
+ | cosine_precision@3 | 0.2426 |
522
+ | cosine_precision@5 | 0.1468 |
523
+ | cosine_precision@10 | 0.0772 |
524
+ | cosine_recall@1 | 0.6646 |
525
+ | cosine_recall@3 | 0.7278 |
526
+ | cosine_recall@5 | 0.7342 |
527
+ | cosine_recall@10 | 0.7722 |
528
+ | **cosine_ndcg@10** | **0.7172** |
529
+ | cosine_mrr@10 | 0.6999 |
530
+ | cosine_map@100 | 0.705 |
531
+
532
+ #### Information Retrieval
533
+
534
+ * Dataset: `dim_128`
535
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
536
+ ```json
537
+ {
538
+ "truncate_dim": 128
539
+ }
540
+ ```
541
+
542
+ | Metric | Value |
543
+ |:--------------------|:-----------|
544
+ | cosine_accuracy@1 | 0.6203 |
545
+ | cosine_accuracy@3 | 0.7278 |
546
+ | cosine_accuracy@5 | 0.7405 |
547
+ | cosine_accuracy@10 | 0.7658 |
548
+ | cosine_precision@1 | 0.6203 |
549
+ | cosine_precision@3 | 0.2426 |
550
+ | cosine_precision@5 | 0.1481 |
551
+ | cosine_precision@10 | 0.0766 |
552
+ | cosine_recall@1 | 0.6203 |
553
+ | cosine_recall@3 | 0.7278 |
554
+ | cosine_recall@5 | 0.7405 |
555
+ | cosine_recall@10 | 0.7658 |
556
+ | **cosine_ndcg@10** | **0.6958** |
557
+ | cosine_mrr@10 | 0.673 |
558
+ | cosine_map@100 | 0.6759 |
559
+
560
+ #### Information Retrieval
561
+
562
+ * Dataset: `dim_64`
563
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
564
+ ```json
565
+ {
566
+ "truncate_dim": 64
567
+ }
568
+ ```
569
+
570
+ | Metric | Value |
571
+ |:--------------------|:-----------|
572
+ | cosine_accuracy@1 | 0.5633 |
573
+ | cosine_accuracy@3 | 0.6519 |
574
+ | cosine_accuracy@5 | 0.6835 |
575
+ | cosine_accuracy@10 | 0.7152 |
576
+ | cosine_precision@1 | 0.5633 |
577
+ | cosine_precision@3 | 0.2173 |
578
+ | cosine_precision@5 | 0.1367 |
579
+ | cosine_precision@10 | 0.0715 |
580
+ | cosine_recall@1 | 0.5633 |
581
+ | cosine_recall@3 | 0.6519 |
582
+ | cosine_recall@5 | 0.6835 |
583
+ | cosine_recall@10 | 0.7152 |
584
+ | **cosine_ndcg@10** | **0.6372** |
585
+ | cosine_mrr@10 | 0.6125 |
586
+ | cosine_map@100 | 0.6184 |
587
+
588
+ <!--
589
+ ## Bias, Risks and Limitations
590
+
591
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
592
+ -->
593
+
594
+ <!--
595
+ ### Recommendations
596
+
597
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
598
+ -->
599
+
600
+ ## Training Details
601
+
602
+ ### Training Dataset
603
+
604
+ #### json
605
+
606
+ * Dataset: json
607
+ * Size: 1,421 training samples
608
+ * Columns: <code>anchor</code> and <code>positive</code>
609
+ * Approximate statistics based on the first 1000 samples:
610
+ | | anchor | positive |
611
+ |:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
612
+ | type | string | string |
613
+ | details | <ul><li>min: 3 tokens</li><li>mean: 25.07 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 30 tokens</li><li>mean: 71.48 tokens</li><li>max: 512 tokens</li></ul> |
614
+ * Samples:
615
+ | anchor | positive |
616
+ |:---------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
617
+ | <code>Làm cách nào để ngăn ngừa chứng loạn sản thận?</code> | <code>Thật không may, chứng loạn sản thận không thể ngăn ngừa được vì đây là một tình trạng bẩm sinh xảy ra trong quá trình phát triển của thai nhi. Tuy nhiên, việc phát hiện và điều trị sớm có thể giúp kiểm soát tình trạng và ngăn ngừa các biến chứng.</code> |
618
+ | <code>Có bất kỳ biến chứng nào liên quan đến cây nhiệt đới không?</code> | <code>Có, những trường hợp nặng của bệnh nhiệt đới có thể dẫn đến suy dinh dưỡng, thiếu máu và các biến chứng khác. Điều quan trọng là phải tìm cách điều trị y tế càng sớm càng tốt nếu bạn nghi ngờ mình mắc bệnh Nhiệt đới.</code> |
619
+ | <code>Tôi cần một số thông tin về cách bảo quản và tiêu hủy Fluoxetine. Bạn có thể vui lòng cho tôi biết những gì tôi nên biết?</code> | <code>Fluoxetine nên được bảo quản ở nhiệt độ phòng, tránh ẩm và nóng. Nó nên được giữ trong hộp đựng ban đầu và tránh xa tầm tay trẻ em và vật nuôi. Về việc thải bỏ, bạn nên tuân theo các hướng dẫn do nhà cung cấp dịch vụ chăm sóc sức khỏe hoặc dược sĩ của bạn cung cấp. Điều quan trọng là không xả Fluoxetine xuống bồn cầu hoặc vứt vào thùng rác.</code> |
620
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
621
+ ```json
622
+ {
623
+ "loss": "MultipleNegativesRankingLoss",
624
+ "matryoshka_dims": [
625
+ 768,
626
+ 512,
627
+ 256,
628
+ 128,
629
+ 64
630
+ ],
631
+ "matryoshka_weights": [
632
+ 1,
633
+ 1,
634
+ 1,
635
+ 1,
636
+ 1
637
+ ],
638
+ "n_dims_per_step": -1
639
+ }
640
+ ```
641
+
642
+ ### Training Hyperparameters
643
+ #### Non-Default Hyperparameters
644
+
645
+ - `eval_strategy`: epoch
646
+ - `per_device_train_batch_size`: 16
647
+ - `gradient_accumulation_steps`: 8
648
+ - `learning_rate`: 2e-05
649
+ - `num_train_epochs`: 1
650
+ - `lr_scheduler_type`: cosine
651
+ - `warmup_ratio`: 0.1
652
+ - `bf16`: True
653
+ - `load_best_model_at_end`: True
654
+ - `optim`: adamw_torch_fused
655
+ - `batch_sampler`: no_duplicates
656
+
657
+ #### All Hyperparameters
658
+ <details><summary>Click to expand</summary>
659
+
660
+ - `overwrite_output_dir`: False
661
+ - `do_predict`: False
662
+ - `eval_strategy`: epoch
663
+ - `prediction_loss_only`: True
664
+ - `per_device_train_batch_size`: 16
665
+ - `per_device_eval_batch_size`: 8
666
+ - `per_gpu_train_batch_size`: None
667
+ - `per_gpu_eval_batch_size`: None
668
+ - `gradient_accumulation_steps`: 8
669
+ - `eval_accumulation_steps`: None
670
+ - `torch_empty_cache_steps`: None
671
+ - `learning_rate`: 2e-05
672
+ - `weight_decay`: 0.0
673
+ - `adam_beta1`: 0.9
674
+ - `adam_beta2`: 0.999
675
+ - `adam_epsilon`: 1e-08
676
+ - `max_grad_norm`: 1.0
677
+ - `num_train_epochs`: 1
678
+ - `max_steps`: -1
679
+ - `lr_scheduler_type`: cosine
680
+ - `lr_scheduler_kwargs`: {}
681
+ - `warmup_ratio`: 0.1
682
+ - `warmup_steps`: 0
683
+ - `log_level`: passive
684
+ - `log_level_replica`: warning
685
+ - `log_on_each_node`: True
686
+ - `logging_nan_inf_filter`: True
687
+ - `save_safetensors`: True
688
+ - `save_on_each_node`: False
689
+ - `save_only_model`: False
690
+ - `restore_callback_states_from_checkpoint`: False
691
+ - `no_cuda`: False
692
+ - `use_cpu`: False
693
+ - `use_mps_device`: False
694
+ - `seed`: 42
695
+ - `data_seed`: None
696
+ - `jit_mode_eval`: False
697
+ - `use_ipex`: False
698
+ - `bf16`: True
699
+ - `fp16`: False
700
+ - `fp16_opt_level`: O1
701
+ - `half_precision_backend`: auto
702
+ - `bf16_full_eval`: False
703
+ - `fp16_full_eval`: False
704
+ - `tf32`: None
705
+ - `local_rank`: 0
706
+ - `ddp_backend`: None
707
+ - `tpu_num_cores`: None
708
+ - `tpu_metrics_debug`: False
709
+ - `debug`: []
710
+ - `dataloader_drop_last`: False
711
+ - `dataloader_num_workers`: 0
712
+ - `dataloader_prefetch_factor`: None
713
+ - `past_index`: -1
714
+ - `disable_tqdm`: False
715
+ - `remove_unused_columns`: True
716
+ - `label_names`: None
717
+ - `load_best_model_at_end`: True
718
+ - `ignore_data_skip`: False
719
+ - `fsdp`: []
720
+ - `fsdp_min_num_params`: 0
721
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
722
+ - `tp_size`: 0
723
+ - `fsdp_transformer_layer_cls_to_wrap`: None
724
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
725
+ - `deepspeed`: None
726
+ - `label_smoothing_factor`: 0.0
727
+ - `optim`: adamw_torch_fused
728
+ - `optim_args`: None
729
+ - `adafactor`: False
730
+ - `group_by_length`: False
731
+ - `length_column_name`: length
732
+ - `ddp_find_unused_parameters`: None
733
+ - `ddp_bucket_cap_mb`: None
734
+ - `ddp_broadcast_buffers`: False
735
+ - `dataloader_pin_memory`: True
736
+ - `dataloader_persistent_workers`: False
737
+ - `skip_memory_metrics`: True
738
+ - `use_legacy_prediction_loop`: False
739
+ - `push_to_hub`: False
740
+ - `resume_from_checkpoint`: None
741
+ - `hub_model_id`: None
742
+ - `hub_strategy`: every_save
743
+ - `hub_private_repo`: None
744
+ - `hub_always_push`: False
745
+ - `gradient_checkpointing`: False
746
+ - `gradient_checkpointing_kwargs`: None
747
+ - `include_inputs_for_metrics`: False
748
+ - `include_for_metrics`: []
749
+ - `eval_do_concat_batches`: True
750
+ - `fp16_backend`: auto
751
+ - `push_to_hub_model_id`: None
752
+ - `push_to_hub_organization`: None
753
+ - `mp_parameters`:
754
+ - `auto_find_batch_size`: False
755
+ - `full_determinism`: False
756
+ - `torchdynamo`: None
757
+ - `ray_scope`: last
758
+ - `ddp_timeout`: 1800
759
+ - `torch_compile`: False
760
+ - `torch_compile_backend`: None
761
+ - `torch_compile_mode`: None
762
+ - `include_tokens_per_second`: False
763
+ - `include_num_input_tokens_seen`: False
764
+ - `neftune_noise_alpha`: None
765
+ - `optim_target_modules`: None
766
+ - `batch_eval_metrics`: False
767
+ - `eval_on_start`: False
768
+ - `use_liger_kernel`: False
769
+ - `eval_use_gather_object`: False
770
+ - `average_tokens_across_devices`: False
771
+ - `prompts`: None
772
+ - `batch_sampler`: no_duplicates
773
+ - `multi_dataset_batch_sampler`: proportional
774
+
775
+ </details>
776
+
777
+ ### Training Logs
778
+ | Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
779
+ |:----------:|:------:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
780
+ | 0.8989 | 10 | 15.0991 | - | - | - | - | - |
781
+ | **0.9888** | **11** | **-** | **0.736** | **0.7365** | **0.7172** | **0.6958** | **0.6372** |
782
+
783
+ * The bold row denotes the saved checkpoint.
784
+
785
+ ### Framework Versions
786
+ - Python: 3.12.5
787
+ - Sentence Transformers: 4.1.0
788
+ - Transformers: 4.51.3
789
+ - PyTorch: 2.6.0+cu118
790
+ - Accelerate: 1.6.0
791
+ - Datasets: 3.5.1
792
+ - Tokenizers: 0.21.1
793
+
794
+ ## Citation
795
+
796
+ ### BibTeX
797
+
798
+ #### Sentence Transformers
799
+ ```bibtex
800
+ @inproceedings{reimers-2019-sentence-bert,
801
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
802
+ author = "Reimers, Nils and Gurevych, Iryna",
803
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
804
+ month = "11",
805
+ year = "2019",
806
+ publisher = "Association for Computational Linguistics",
807
+ url = "https://arxiv.org/abs/1908.10084",
808
+ }
809
+ ```
810
+
811
+ #### MatryoshkaLoss
812
+ ```bibtex
813
+ @misc{kusupati2024matryoshka,
814
+ title={Matryoshka Representation Learning},
815
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
816
+ year={2024},
817
+ eprint={2205.13147},
818
+ archivePrefix={arXiv},
819
+ primaryClass={cs.LG}
820
+ }
821
+ ```
822
+
823
+ #### MultipleNegativesRankingLoss
824
+ ```bibtex
825
+ @misc{henderson2017efficient,
826
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
827
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
828
+ year={2017},
829
+ eprint={1705.00652},
830
+ archivePrefix={arXiv},
831
+ primaryClass={cs.CL}
832
+ }
833
+ ```
834
+
835
+ <!--
836
+ ## Glossary
837
+
838
+ *Clearly define terms in order to be accessible across audiences.*
839
+ -->
840
+
841
+ <!--
842
+ ## Model Card Authors
843
+
844
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
845
+ -->
846
+
847
+ <!--
848
+ ## Model Card Contact
849
+
850
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
851
+ -->
checkpoint-11/1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
checkpoint-11/README.md ADDED
@@ -0,0 +1,850 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - generated_from_trainer
10
+ - dataset_size:1421
11
+ - loss:MatryoshkaLoss
12
+ - loss:MultipleNegativesRankingLoss
13
+ base_model: hiieu/halong_embedding
14
+ widget:
15
+ - source_sentence: Dạ chào bác sĩ ,e bị đau tức bụng hông trái lan ra lưng ,xét nghiệm
16
+ nước tiểu thì protein 1+,hồng cầu 1+ thì có bị sao không bác sĩ
17
+ sentences:
18
+ - Trong hầu hết các trường hợp, chứng run do thuốc không phải là tình trạng vĩnh
19
+ viễn. Khi ngừng thuốc hoặc giảm liều lượng, tình trạng run rẩy thường biến mất.
20
+ Tuy nhiên, trong một số trường hợp, tình trạng run có thể vẫn tồn tại ngay cả
21
+ sau khi ngừng thuốc.
22
+ - Chào em Thường trong nước tiểu không có protein , hồng cầu. Em nên đi khám sâu
23
+ hơn chuyên khoa thận tiết niệu để phân biệt đặc điểm trên do viêm đường niệu ở
24
+ vị trí nào em nhé( niệu đạo, thận, bàng quang,.
25
+ - Tư vấn di truyền có thể giúp những người có nguy cơ sinh con mắc chứng loạn dưỡng
26
+ cơ Duchenne bằng cách cung cấp thông tin về khả năng truyền gen đột biến và thảo
27
+ luận về các lựa chọn sinh sản. Ví dụ, nếu cả cha lẫn mẹ đều là người mang gen,
28
+ họ có thể chọn sử dụng phương pháp thụ tinh trong ống nghiệm và xét nghiệm di
29
+ truyền để chọn ra những phôi không mang gen đột biến.
30
+ - source_sentence: Siêu âm mắt là gì?
31
+ sentences:
32
+ - Bệnh thần kinh ngoại biên có thể gây ra nhiều triệu chứng khác nhau bao gồm tê
33
+ hoặc ngứa ran ở tay hoặc chân, yếu cơ và đau nhói, rát. Nó cũng có thể gây nhạy
34
+ cảm khi chạm và khó phối hợp và giữ thăng bằng.
35
+ - Chao em Chào bác sĩ Ảnh em chụp thì vẫn vàng da. Bs cần hỏi em thêm một số thông
36
+ tin nữa để kê đơn cho bé.
37
+ - Siêu âm mắt là một thủ thuật không xâm lấn trong đó sóng âm thanh được sử dụng
38
+ để tạo ra hình ảnh của mắt. Xét nghiệm này có thể giúp bác sĩ nhìn thấy kích thước,
39
+ vị trí và hình dạng của bất kỳ khối u nào có thể có trong mắt.
40
+ - source_sentence: Những xét nghiệm này chính xác đến mức nào?
41
+ sentences:
42
+ - Hội chứng rụng tóc động kinh oligophrenia của Moynahan hay còn gọi là hội chứng
43
+ Moynahan, là một rối loạn di truyền hiếm gặp ảnh hưởng đến nhiều hệ thống cơ thể.
44
+ Các triệu chứng thường gặp bao gồm chậm phát triển, thiểu năng trí tuệ, co giật,
45
+ rụng tóc và các đặc điểm đặc biệt trên khuôn mặt. Bạn có muốn biết thêm thông
46
+ tin về bất kỳ triệu chứng cụ thể nào không?
47
+ - Độ chính xác của các bài kiểm tra có thể khác nhau tùy thuộc vào loại bài kiểm
48
+ tra và thời điểm thực hiện. Nói chung, các xét nghiệm này có độ chính xác cao
49
+ và hiếm khi cho kết quả dương tính giả hoặc âm tính giả.
50
+ - Thật không may, hội chứng Partington không có cách chữa trị. Điều trị tập trung
51
+ vào việc giảm bớt các triệu chứng và cải thiện chất lượng cuộc sống.
52
+ - source_sentence: bác sĩ ơii, cho em hỏi là những hạt như vậy trong miệng em là gì
53
+ vậy ạ
54
+ sentences:
55
+ - Vâng, có một số biện pháp tự nhiên có thể giúp chữa bệnh tiêu chảy. Ăn thực phẩm
56
+ giàu men vi sinh như sữa chua có thể giúp phục hồi vi khuẩn khỏe mạnh trong ruột.
57
+ - Có, các yếu tố nguy cơ khác bao gồm từng bị nhiễm trùng trước đó, mắc bệnh tự
58
+ miễn và tiếp xúc với một số chất độc hoặc thuốc. Huyết áp cao và hút thuốc cũng
59
+ được coi là yếu tố nguy cơ.
60
+ - Chào em Em có đau buốt gì ko em? dạ k ạ Nếu em đã quan hệ bằng miệng rồi, hiện
61
+ tại ko đau buốt gì nên đi xn HPV miệng em nhé
62
+ - source_sentence: Có xét nghiệm cụ thể nào để chẩn đoán hội chứng này không?
63
+ sentences:
64
+ - Entecavir đã được chứng minh là có hiệu quả chủ yếu chống lại HBV kiểu gen A.
65
+ Tuy nhiên, nó cũng có tác dụng chống lại HBV kiểu gen B và C.
66
+ - Có, có nhiều lựa chọn điều trị khác nhau tùy thuộc vào tình trạng cụ thể và mức
67
+ độ nghiêm trọng của các triệu chứng. Điều trị có thể bao gồm các bài tập sàn chậu,
68
+ dùng thuốc và phẫu thuật.
69
+ - Có, có những xét nghiệm cụ thể có thể chẩn đoán hội chứng Cockayne loại II. Chúng
70
+ bao gồm xét nghiệm di truyền, xét nghiệm máu và nước tiểu, cũng như kiểm tra thần
71
+ kinh.
72
+ pipeline_tag: sentence-similarity
73
+ library_name: sentence-transformers
74
+ metrics:
75
+ - cosine_accuracy@1
76
+ - cosine_accuracy@3
77
+ - cosine_accuracy@5
78
+ - cosine_accuracy@10
79
+ - cosine_precision@1
80
+ - cosine_precision@3
81
+ - cosine_precision@5
82
+ - cosine_precision@10
83
+ - cosine_recall@1
84
+ - cosine_recall@3
85
+ - cosine_recall@5
86
+ - cosine_recall@10
87
+ - cosine_ndcg@10
88
+ - cosine_mrr@10
89
+ - cosine_map@100
90
+ model-index:
91
+ - name: BGE base Financial Matryoshka
92
+ results:
93
+ - task:
94
+ type: information-retrieval
95
+ name: Information Retrieval
96
+ dataset:
97
+ name: dim 768
98
+ type: dim_768
99
+ metrics:
100
+ - type: cosine_accuracy@1
101
+ value: 0.689873417721519
102
+ name: Cosine Accuracy@1
103
+ - type: cosine_accuracy@3
104
+ value: 0.7341772151898734
105
+ name: Cosine Accuracy@3
106
+ - type: cosine_accuracy@5
107
+ value: 0.7658227848101266
108
+ name: Cosine Accuracy@5
109
+ - type: cosine_accuracy@10
110
+ value: 0.7911392405063291
111
+ name: Cosine Accuracy@10
112
+ - type: cosine_precision@1
113
+ value: 0.689873417721519
114
+ name: Cosine Precision@1
115
+ - type: cosine_precision@3
116
+ value: 0.24472573839662443
117
+ name: Cosine Precision@3
118
+ - type: cosine_precision@5
119
+ value: 0.1531645569620253
120
+ name: Cosine Precision@5
121
+ - type: cosine_precision@10
122
+ value: 0.07911392405063289
123
+ name: Cosine Precision@10
124
+ - type: cosine_recall@1
125
+ value: 0.689873417721519
126
+ name: Cosine Recall@1
127
+ - type: cosine_recall@3
128
+ value: 0.7341772151898734
129
+ name: Cosine Recall@3
130
+ - type: cosine_recall@5
131
+ value: 0.7658227848101266
132
+ name: Cosine Recall@5
133
+ - type: cosine_recall@10
134
+ value: 0.7911392405063291
135
+ name: Cosine Recall@10
136
+ - type: cosine_ndcg@10
137
+ value: 0.7359964164308189
138
+ name: Cosine Ndcg@10
139
+ - type: cosine_mrr@10
140
+ value: 0.7186884669479607
141
+ name: Cosine Mrr@10
142
+ - type: cosine_map@100
143
+ value: 0.7231429561762966
144
+ name: Cosine Map@100
145
+ - task:
146
+ type: information-retrieval
147
+ name: Information Retrieval
148
+ dataset:
149
+ name: dim 512
150
+ type: dim_512
151
+ metrics:
152
+ - type: cosine_accuracy@1
153
+ value: 0.6962025316455697
154
+ name: Cosine Accuracy@1
155
+ - type: cosine_accuracy@3
156
+ value: 0.7278481012658228
157
+ name: Cosine Accuracy@3
158
+ - type: cosine_accuracy@5
159
+ value: 0.7531645569620253
160
+ name: Cosine Accuracy@5
161
+ - type: cosine_accuracy@10
162
+ value: 0.7848101265822784
163
+ name: Cosine Accuracy@10
164
+ - type: cosine_precision@1
165
+ value: 0.6962025316455697
166
+ name: Cosine Precision@1
167
+ - type: cosine_precision@3
168
+ value: 0.24261603375527424
169
+ name: Cosine Precision@3
170
+ - type: cosine_precision@5
171
+ value: 0.15063291139240503
172
+ name: Cosine Precision@5
173
+ - type: cosine_precision@10
174
+ value: 0.07848101265822782
175
+ name: Cosine Precision@10
176
+ - type: cosine_recall@1
177
+ value: 0.6962025316455697
178
+ name: Cosine Recall@1
179
+ - type: cosine_recall@3
180
+ value: 0.7278481012658228
181
+ name: Cosine Recall@3
182
+ - type: cosine_recall@5
183
+ value: 0.7531645569620253
184
+ name: Cosine Recall@5
185
+ - type: cosine_recall@10
186
+ value: 0.7848101265822784
187
+ name: Cosine Recall@10
188
+ - type: cosine_ndcg@10
189
+ value: 0.7365237174869693
190
+ name: Cosine Ndcg@10
191
+ - type: cosine_mrr@10
192
+ value: 0.7215340566606389
193
+ name: Cosine Mrr@10
194
+ - type: cosine_map@100
195
+ value: 0.7262381247862028
196
+ name: Cosine Map@100
197
+ - task:
198
+ type: information-retrieval
199
+ name: Information Retrieval
200
+ dataset:
201
+ name: dim 256
202
+ type: dim_256
203
+ metrics:
204
+ - type: cosine_accuracy@1
205
+ value: 0.6645569620253164
206
+ name: Cosine Accuracy@1
207
+ - type: cosine_accuracy@3
208
+ value: 0.7278481012658228
209
+ name: Cosine Accuracy@3
210
+ - type: cosine_accuracy@5
211
+ value: 0.7341772151898734
212
+ name: Cosine Accuracy@5
213
+ - type: cosine_accuracy@10
214
+ value: 0.7721518987341772
215
+ name: Cosine Accuracy@10
216
+ - type: cosine_precision@1
217
+ value: 0.6645569620253164
218
+ name: Cosine Precision@1
219
+ - type: cosine_precision@3
220
+ value: 0.24261603375527424
221
+ name: Cosine Precision@3
222
+ - type: cosine_precision@5
223
+ value: 0.14683544303797466
224
+ name: Cosine Precision@5
225
+ - type: cosine_precision@10
226
+ value: 0.0772151898734177
227
+ name: Cosine Precision@10
228
+ - type: cosine_recall@1
229
+ value: 0.6645569620253164
230
+ name: Cosine Recall@1
231
+ - type: cosine_recall@3
232
+ value: 0.7278481012658228
233
+ name: Cosine Recall@3
234
+ - type: cosine_recall@5
235
+ value: 0.7341772151898734
236
+ name: Cosine Recall@5
237
+ - type: cosine_recall@10
238
+ value: 0.7721518987341772
239
+ name: Cosine Recall@10
240
+ - type: cosine_ndcg@10
241
+ value: 0.717246153733281
242
+ name: Cosine Ndcg@10
243
+ - type: cosine_mrr@10
244
+ value: 0.6999196302993772
245
+ name: Cosine Mrr@10
246
+ - type: cosine_map@100
247
+ value: 0.7049830151644797
248
+ name: Cosine Map@100
249
+ - task:
250
+ type: information-retrieval
251
+ name: Information Retrieval
252
+ dataset:
253
+ name: dim 128
254
+ type: dim_128
255
+ metrics:
256
+ - type: cosine_accuracy@1
257
+ value: 0.620253164556962
258
+ name: Cosine Accuracy@1
259
+ - type: cosine_accuracy@3
260
+ value: 0.7278481012658228
261
+ name: Cosine Accuracy@3
262
+ - type: cosine_accuracy@5
263
+ value: 0.740506329113924
264
+ name: Cosine Accuracy@5
265
+ - type: cosine_accuracy@10
266
+ value: 0.7658227848101266
267
+ name: Cosine Accuracy@10
268
+ - type: cosine_precision@1
269
+ value: 0.620253164556962
270
+ name: Cosine Precision@1
271
+ - type: cosine_precision@3
272
+ value: 0.24261603375527424
273
+ name: Cosine Precision@3
274
+ - type: cosine_precision@5
275
+ value: 0.14810126582278477
276
+ name: Cosine Precision@5
277
+ - type: cosine_precision@10
278
+ value: 0.07658227848101265
279
+ name: Cosine Precision@10
280
+ - type: cosine_recall@1
281
+ value: 0.620253164556962
282
+ name: Cosine Recall@1
283
+ - type: cosine_recall@3
284
+ value: 0.7278481012658228
285
+ name: Cosine Recall@3
286
+ - type: cosine_recall@5
287
+ value: 0.740506329113924
288
+ name: Cosine Recall@5
289
+ - type: cosine_recall@10
290
+ value: 0.7658227848101266
291
+ name: Cosine Recall@10
292
+ - type: cosine_ndcg@10
293
+ value: 0.695814972032374
294
+ name: Cosine Ndcg@10
295
+ - type: cosine_mrr@10
296
+ value: 0.673010849909584
297
+ name: Cosine Mrr@10
298
+ - type: cosine_map@100
299
+ value: 0.6758935313130828
300
+ name: Cosine Map@100
301
+ - task:
302
+ type: information-retrieval
303
+ name: Information Retrieval
304
+ dataset:
305
+ name: dim 64
306
+ type: dim_64
307
+ metrics:
308
+ - type: cosine_accuracy@1
309
+ value: 0.5632911392405063
310
+ name: Cosine Accuracy@1
311
+ - type: cosine_accuracy@3
312
+ value: 0.6518987341772152
313
+ name: Cosine Accuracy@3
314
+ - type: cosine_accuracy@5
315
+ value: 0.6835443037974683
316
+ name: Cosine Accuracy@5
317
+ - type: cosine_accuracy@10
318
+ value: 0.7151898734177216
319
+ name: Cosine Accuracy@10
320
+ - type: cosine_precision@1
321
+ value: 0.5632911392405063
322
+ name: Cosine Precision@1
323
+ - type: cosine_precision@3
324
+ value: 0.2172995780590717
325
+ name: Cosine Precision@3
326
+ - type: cosine_precision@5
327
+ value: 0.13670886075949362
328
+ name: Cosine Precision@5
329
+ - type: cosine_precision@10
330
+ value: 0.07151898734177213
331
+ name: Cosine Precision@10
332
+ - type: cosine_recall@1
333
+ value: 0.5632911392405063
334
+ name: Cosine Recall@1
335
+ - type: cosine_recall@3
336
+ value: 0.6518987341772152
337
+ name: Cosine Recall@3
338
+ - type: cosine_recall@5
339
+ value: 0.6835443037974683
340
+ name: Cosine Recall@5
341
+ - type: cosine_recall@10
342
+ value: 0.7151898734177216
343
+ name: Cosine Recall@10
344
+ - type: cosine_ndcg@10
345
+ value: 0.6372309190806515
346
+ name: Cosine Ndcg@10
347
+ - type: cosine_mrr@10
348
+ value: 0.6125075346594335
349
+ name: Cosine Mrr@10
350
+ - type: cosine_map@100
351
+ value: 0.6183770912827027
352
+ name: Cosine Map@100
353
+ ---
354
+
355
+ # BGE base Financial Matryoshka
356
+
357
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [hiieu/halong_embedding](https://huggingface.co/hiieu/halong_embedding) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
358
+
359
+ ## Model Details
360
+
361
+ ### Model Description
362
+ - **Model Type:** Sentence Transformer
363
+ - **Base model:** [hiieu/halong_embedding](https://huggingface.co/hiieu/halong_embedding) <!-- at revision b57776031035f70ed2030d2e35ecc533eb0f8f71 -->
364
+ - **Maximum Sequence Length:** 512 tokens
365
+ - **Output Dimensionality:** 768 dimensions
366
+ - **Similarity Function:** Cosine Similarity
367
+ - **Training Dataset:**
368
+ - json
369
+ - **Language:** en
370
+ - **License:** apache-2.0
371
+
372
+ ### Model Sources
373
+
374
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
375
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
376
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
377
+
378
+ ### Full Model Architecture
379
+
380
+ ```
381
+ SentenceTransformer(
382
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
383
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
384
+ (2): Normalize()
385
+ )
386
+ ```
387
+
388
+ ## Usage
389
+
390
+ ### Direct Usage (Sentence Transformers)
391
+
392
+ First install the Sentence Transformers library:
393
+
394
+ ```bash
395
+ pip install -U sentence-transformers
396
+ ```
397
+
398
+ Then you can load this model and run inference.
399
+ ```python
400
+ from sentence_transformers import SentenceTransformer
401
+
402
+ # Download from the 🤗 Hub
403
+ model = SentenceTransformer("sentence_transformers_model_id")
404
+ # Run inference
405
+ sentences = [
406
+ 'Có xét nghiệm cụ thể nào để chẩn đoán hội chứng này không?',
407
+ 'Có, có những xét nghiệm cụ thể có thể chẩn đoán hội chứng Cockayne loại II. Chúng bao gồm xét nghiệm di truyền, xét nghiệm máu và nước tiểu, cũng như kiểm tra thần kinh.',
408
+ 'Entecavir đã được chứng minh là có hiệu quả chủ yếu chống lại HBV kiểu gen A. Tuy nhiên, nó cũng có tác dụng chống lại HBV kiểu gen B và C.',
409
+ ]
410
+ embeddings = model.encode(sentences)
411
+ print(embeddings.shape)
412
+ # [3, 768]
413
+
414
+ # Get the similarity scores for the embeddings
415
+ similarities = model.similarity(embeddings, embeddings)
416
+ print(similarities.shape)
417
+ # [3, 3]
418
+ ```
419
+
420
+ <!--
421
+ ### Direct Usage (Transformers)
422
+
423
+ <details><summary>Click to see the direct usage in Transformers</summary>
424
+
425
+ </details>
426
+ -->
427
+
428
+ <!--
429
+ ### Downstream Usage (Sentence Transformers)
430
+
431
+ You can finetune this model on your own dataset.
432
+
433
+ <details><summary>Click to expand</summary>
434
+
435
+ </details>
436
+ -->
437
+
438
+ <!--
439
+ ### Out-of-Scope Use
440
+
441
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
442
+ -->
443
+
444
+ ## Evaluation
445
+
446
+ ### Metrics
447
+
448
+ #### Information Retrieval
449
+
450
+ * Dataset: `dim_768`
451
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
452
+ ```json
453
+ {
454
+ "truncate_dim": 768
455
+ }
456
+ ```
457
+
458
+ | Metric | Value |
459
+ |:--------------------|:----------|
460
+ | cosine_accuracy@1 | 0.6899 |
461
+ | cosine_accuracy@3 | 0.7342 |
462
+ | cosine_accuracy@5 | 0.7658 |
463
+ | cosine_accuracy@10 | 0.7911 |
464
+ | cosine_precision@1 | 0.6899 |
465
+ | cosine_precision@3 | 0.2447 |
466
+ | cosine_precision@5 | 0.1532 |
467
+ | cosine_precision@10 | 0.0791 |
468
+ | cosine_recall@1 | 0.6899 |
469
+ | cosine_recall@3 | 0.7342 |
470
+ | cosine_recall@5 | 0.7658 |
471
+ | cosine_recall@10 | 0.7911 |
472
+ | **cosine_ndcg@10** | **0.736** |
473
+ | cosine_mrr@10 | 0.7187 |
474
+ | cosine_map@100 | 0.7231 |
475
+
476
+ #### Information Retrieval
477
+
478
+ * Dataset: `dim_512`
479
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
480
+ ```json
481
+ {
482
+ "truncate_dim": 512
483
+ }
484
+ ```
485
+
486
+ | Metric | Value |
487
+ |:--------------------|:-----------|
488
+ | cosine_accuracy@1 | 0.6962 |
489
+ | cosine_accuracy@3 | 0.7278 |
490
+ | cosine_accuracy@5 | 0.7532 |
491
+ | cosine_accuracy@10 | 0.7848 |
492
+ | cosine_precision@1 | 0.6962 |
493
+ | cosine_precision@3 | 0.2426 |
494
+ | cosine_precision@5 | 0.1506 |
495
+ | cosine_precision@10 | 0.0785 |
496
+ | cosine_recall@1 | 0.6962 |
497
+ | cosine_recall@3 | 0.7278 |
498
+ | cosine_recall@5 | 0.7532 |
499
+ | cosine_recall@10 | 0.7848 |
500
+ | **cosine_ndcg@10** | **0.7365** |
501
+ | cosine_mrr@10 | 0.7215 |
502
+ | cosine_map@100 | 0.7262 |
503
+
504
+ #### Information Retrieval
505
+
506
+ * Dataset: `dim_256`
507
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
508
+ ```json
509
+ {
510
+ "truncate_dim": 256
511
+ }
512
+ ```
513
+
514
+ | Metric | Value |
515
+ |:--------------------|:-----------|
516
+ | cosine_accuracy@1 | 0.6646 |
517
+ | cosine_accuracy@3 | 0.7278 |
518
+ | cosine_accuracy@5 | 0.7342 |
519
+ | cosine_accuracy@10 | 0.7722 |
520
+ | cosine_precision@1 | 0.6646 |
521
+ | cosine_precision@3 | 0.2426 |
522
+ | cosine_precision@5 | 0.1468 |
523
+ | cosine_precision@10 | 0.0772 |
524
+ | cosine_recall@1 | 0.6646 |
525
+ | cosine_recall@3 | 0.7278 |
526
+ | cosine_recall@5 | 0.7342 |
527
+ | cosine_recall@10 | 0.7722 |
528
+ | **cosine_ndcg@10** | **0.7172** |
529
+ | cosine_mrr@10 | 0.6999 |
530
+ | cosine_map@100 | 0.705 |
531
+
532
+ #### Information Retrieval
533
+
534
+ * Dataset: `dim_128`
535
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
536
+ ```json
537
+ {
538
+ "truncate_dim": 128
539
+ }
540
+ ```
541
+
542
+ | Metric | Value |
543
+ |:--------------------|:-----------|
544
+ | cosine_accuracy@1 | 0.6203 |
545
+ | cosine_accuracy@3 | 0.7278 |
546
+ | cosine_accuracy@5 | 0.7405 |
547
+ | cosine_accuracy@10 | 0.7658 |
548
+ | cosine_precision@1 | 0.6203 |
549
+ | cosine_precision@3 | 0.2426 |
550
+ | cosine_precision@5 | 0.1481 |
551
+ | cosine_precision@10 | 0.0766 |
552
+ | cosine_recall@1 | 0.6203 |
553
+ | cosine_recall@3 | 0.7278 |
554
+ | cosine_recall@5 | 0.7405 |
555
+ | cosine_recall@10 | 0.7658 |
556
+ | **cosine_ndcg@10** | **0.6958** |
557
+ | cosine_mrr@10 | 0.673 |
558
+ | cosine_map@100 | 0.6759 |
559
+
560
+ #### Information Retrieval
561
+
562
+ * Dataset: `dim_64`
563
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
564
+ ```json
565
+ {
566
+ "truncate_dim": 64
567
+ }
568
+ ```
569
+
570
+ | Metric | Value |
571
+ |:--------------------|:-----------|
572
+ | cosine_accuracy@1 | 0.5633 |
573
+ | cosine_accuracy@3 | 0.6519 |
574
+ | cosine_accuracy@5 | 0.6835 |
575
+ | cosine_accuracy@10 | 0.7152 |
576
+ | cosine_precision@1 | 0.5633 |
577
+ | cosine_precision@3 | 0.2173 |
578
+ | cosine_precision@5 | 0.1367 |
579
+ | cosine_precision@10 | 0.0715 |
580
+ | cosine_recall@1 | 0.5633 |
581
+ | cosine_recall@3 | 0.6519 |
582
+ | cosine_recall@5 | 0.6835 |
583
+ | cosine_recall@10 | 0.7152 |
584
+ | **cosine_ndcg@10** | **0.6372** |
585
+ | cosine_mrr@10 | 0.6125 |
586
+ | cosine_map@100 | 0.6184 |
587
+
588
+ <!--
589
+ ## Bias, Risks and Limitations
590
+
591
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
592
+ -->
593
+
594
+ <!--
595
+ ### Recommendations
596
+
597
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
598
+ -->
599
+
600
+ ## Training Details
601
+
602
+ ### Training Dataset
603
+
604
+ #### json
605
+
606
+ * Dataset: json
607
+ * Size: 1,421 training samples
608
+ * Columns: <code>anchor</code> and <code>positive</code>
609
+ * Approximate statistics based on the first 1000 samples:
610
+ | | anchor | positive |
611
+ |:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
612
+ | type | string | string |
613
+ | details | <ul><li>min: 3 tokens</li><li>mean: 25.07 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 30 tokens</li><li>mean: 71.48 tokens</li><li>max: 512 tokens</li></ul> |
614
+ * Samples:
615
+ | anchor | positive |
616
+ |:---------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
617
+ | <code>Làm cách nào để ngăn ngừa chứng loạn sản thận?</code> | <code>Thật không may, chứng loạn sản thận không thể ngăn ngừa được vì đây là một tình trạng bẩm sinh xảy ra trong quá trình phát triển của thai nhi. Tuy nhiên, việc phát hiện và điều trị sớm có thể giúp kiểm soát tình trạng và ngăn ngừa các biến chứng.</code> |
618
+ | <code>Có bất kỳ biến chứng nào liên quan đến cây nhiệt đới không?</code> | <code>Có, những trường hợp nặng của bệnh nhiệt đới có thể dẫn đến suy dinh dưỡng, thiếu máu và các biến chứng khác. Điều quan trọng là phải tìm cách điều trị y tế càng sớm càng tốt nếu bạn nghi ngờ mình mắc bệnh Nhiệt đới.</code> |
619
+ | <code>Tôi cần một số thông tin về cách bảo quản và tiêu hủy Fluoxetine. Bạn có thể vui lòng cho tôi biết những gì tôi nên biết?</code> | <code>Fluoxetine nên được bảo quản ở nhiệt độ phòng, tránh ẩm và nóng. Nó nên được giữ trong hộp đựng ban đầu và tránh xa tầm tay trẻ em và vật nuôi. Về việc thải bỏ, bạn nên tuân theo các hướng dẫn do nhà cung cấp dịch vụ chăm sóc sức khỏe hoặc dược sĩ của bạn cung cấp. Điều quan trọng là không xả Fluoxetine xuống bồn cầu hoặc vứt vào thùng rác.</code> |
620
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
621
+ ```json
622
+ {
623
+ "loss": "MultipleNegativesRankingLoss",
624
+ "matryoshka_dims": [
625
+ 768,
626
+ 512,
627
+ 256,
628
+ 128,
629
+ 64
630
+ ],
631
+ "matryoshka_weights": [
632
+ 1,
633
+ 1,
634
+ 1,
635
+ 1,
636
+ 1
637
+ ],
638
+ "n_dims_per_step": -1
639
+ }
640
+ ```
641
+
642
+ ### Training Hyperparameters
643
+ #### Non-Default Hyperparameters
644
+
645
+ - `eval_strategy`: epoch
646
+ - `per_device_train_batch_size`: 16
647
+ - `gradient_accumulation_steps`: 8
648
+ - `learning_rate`: 2e-05
649
+ - `num_train_epochs`: 1
650
+ - `lr_scheduler_type`: cosine
651
+ - `warmup_ratio`: 0.1
652
+ - `bf16`: True
653
+ - `load_best_model_at_end`: True
654
+ - `optim`: adamw_torch_fused
655
+ - `batch_sampler`: no_duplicates
656
+
657
+ #### All Hyperparameters
658
+ <details><summary>Click to expand</summary>
659
+
660
+ - `overwrite_output_dir`: False
661
+ - `do_predict`: False
662
+ - `eval_strategy`: epoch
663
+ - `prediction_loss_only`: True
664
+ - `per_device_train_batch_size`: 16
665
+ - `per_device_eval_batch_size`: 8
666
+ - `per_gpu_train_batch_size`: None
667
+ - `per_gpu_eval_batch_size`: None
668
+ - `gradient_accumulation_steps`: 8
669
+ - `eval_accumulation_steps`: None
670
+ - `torch_empty_cache_steps`: None
671
+ - `learning_rate`: 2e-05
672
+ - `weight_decay`: 0.0
673
+ - `adam_beta1`: 0.9
674
+ - `adam_beta2`: 0.999
675
+ - `adam_epsilon`: 1e-08
676
+ - `max_grad_norm`: 1.0
677
+ - `num_train_epochs`: 1
678
+ - `max_steps`: -1
679
+ - `lr_scheduler_type`: cosine
680
+ - `lr_scheduler_kwargs`: {}
681
+ - `warmup_ratio`: 0.1
682
+ - `warmup_steps`: 0
683
+ - `log_level`: passive
684
+ - `log_level_replica`: warning
685
+ - `log_on_each_node`: True
686
+ - `logging_nan_inf_filter`: True
687
+ - `save_safetensors`: True
688
+ - `save_on_each_node`: False
689
+ - `save_only_model`: False
690
+ - `restore_callback_states_from_checkpoint`: False
691
+ - `no_cuda`: False
692
+ - `use_cpu`: False
693
+ - `use_mps_device`: False
694
+ - `seed`: 42
695
+ - `data_seed`: None
696
+ - `jit_mode_eval`: False
697
+ - `use_ipex`: False
698
+ - `bf16`: True
699
+ - `fp16`: False
700
+ - `fp16_opt_level`: O1
701
+ - `half_precision_backend`: auto
702
+ - `bf16_full_eval`: False
703
+ - `fp16_full_eval`: False
704
+ - `tf32`: None
705
+ - `local_rank`: 0
706
+ - `ddp_backend`: None
707
+ - `tpu_num_cores`: None
708
+ - `tpu_metrics_debug`: False
709
+ - `debug`: []
710
+ - `dataloader_drop_last`: False
711
+ - `dataloader_num_workers`: 0
712
+ - `dataloader_prefetch_factor`: None
713
+ - `past_index`: -1
714
+ - `disable_tqdm`: False
715
+ - `remove_unused_columns`: True
716
+ - `label_names`: None
717
+ - `load_best_model_at_end`: True
718
+ - `ignore_data_skip`: False
719
+ - `fsdp`: []
720
+ - `fsdp_min_num_params`: 0
721
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
722
+ - `tp_size`: 0
723
+ - `fsdp_transformer_layer_cls_to_wrap`: None
724
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
725
+ - `deepspeed`: None
726
+ - `label_smoothing_factor`: 0.0
727
+ - `optim`: adamw_torch_fused
728
+ - `optim_args`: None
729
+ - `adafactor`: False
730
+ - `group_by_length`: False
731
+ - `length_column_name`: length
732
+ - `ddp_find_unused_parameters`: None
733
+ - `ddp_bucket_cap_mb`: None
734
+ - `ddp_broadcast_buffers`: False
735
+ - `dataloader_pin_memory`: True
736
+ - `dataloader_persistent_workers`: False
737
+ - `skip_memory_metrics`: True
738
+ - `use_legacy_prediction_loop`: False
739
+ - `push_to_hub`: False
740
+ - `resume_from_checkpoint`: None
741
+ - `hub_model_id`: None
742
+ - `hub_strategy`: every_save
743
+ - `hub_private_repo`: None
744
+ - `hub_always_push`: False
745
+ - `gradient_checkpointing`: False
746
+ - `gradient_checkpointing_kwargs`: None
747
+ - `include_inputs_for_metrics`: False
748
+ - `include_for_metrics`: []
749
+ - `eval_do_concat_batches`: True
750
+ - `fp16_backend`: auto
751
+ - `push_to_hub_model_id`: None
752
+ - `push_to_hub_organization`: None
753
+ - `mp_parameters`:
754
+ - `auto_find_batch_size`: False
755
+ - `full_determinism`: False
756
+ - `torchdynamo`: None
757
+ - `ray_scope`: last
758
+ - `ddp_timeout`: 1800
759
+ - `torch_compile`: False
760
+ - `torch_compile_backend`: None
761
+ - `torch_compile_mode`: None
762
+ - `include_tokens_per_second`: False
763
+ - `include_num_input_tokens_seen`: False
764
+ - `neftune_noise_alpha`: None
765
+ - `optim_target_modules`: None
766
+ - `batch_eval_metrics`: False
767
+ - `eval_on_start`: False
768
+ - `use_liger_kernel`: False
769
+ - `eval_use_gather_object`: False
770
+ - `average_tokens_across_devices`: False
771
+ - `prompts`: None
772
+ - `batch_sampler`: no_duplicates
773
+ - `multi_dataset_batch_sampler`: proportional
774
+
775
+ </details>
776
+
777
+ ### Training Logs
778
+ | Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
779
+ |:------:|:----:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
780
+ | 0.8989 | 10 | 15.0991 | - | - | - | - | - |
781
+ | 0.9888 | 11 | - | 0.7360 | 0.7365 | 0.7172 | 0.6958 | 0.6372 |
782
+
783
+
784
+ ### Framework Versions
785
+ - Python: 3.12.5
786
+ - Sentence Transformers: 4.1.0
787
+ - Transformers: 4.51.3
788
+ - PyTorch: 2.6.0+cu118
789
+ - Accelerate: 1.6.0
790
+ - Datasets: 3.5.1
791
+ - Tokenizers: 0.21.1
792
+
793
+ ## Citation
794
+
795
+ ### BibTeX
796
+
797
+ #### Sentence Transformers
798
+ ```bibtex
799
+ @inproceedings{reimers-2019-sentence-bert,
800
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
801
+ author = "Reimers, Nils and Gurevych, Iryna",
802
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
803
+ month = "11",
804
+ year = "2019",
805
+ publisher = "Association for Computational Linguistics",
806
+ url = "https://arxiv.org/abs/1908.10084",
807
+ }
808
+ ```
809
+
810
+ #### MatryoshkaLoss
811
+ ```bibtex
812
+ @misc{kusupati2024matryoshka,
813
+ title={Matryoshka Representation Learning},
814
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
815
+ year={2024},
816
+ eprint={2205.13147},
817
+ archivePrefix={arXiv},
818
+ primaryClass={cs.LG}
819
+ }
820
+ ```
821
+
822
+ #### MultipleNegativesRankingLoss
823
+ ```bibtex
824
+ @misc{henderson2017efficient,
825
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
826
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
827
+ year={2017},
828
+ eprint={1705.00652},
829
+ archivePrefix={arXiv},
830
+ primaryClass={cs.CL}
831
+ }
832
+ ```
833
+
834
+ <!--
835
+ ## Glossary
836
+
837
+ *Clearly define terms in order to be accessible across audiences.*
838
+ -->
839
+
840
+ <!--
841
+ ## Model Card Authors
842
+
843
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
844
+ -->
845
+
846
+ <!--
847
+ ## Model Card Contact
848
+
849
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
850
+ -->
checkpoint-11/config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "XLMRobertaModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "eos_token_id": 2,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 768,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 3072,
14
+ "layer_norm_eps": 1e-05,
15
+ "max_position_embeddings": 514,
16
+ "model_type": "xlm-roberta",
17
+ "num_attention_heads": 12,
18
+ "num_hidden_layers": 12,
19
+ "output_past": true,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "torch_dtype": "float32",
23
+ "transformers_version": "4.51.3",
24
+ "type_vocab_size": 1,
25
+ "use_cache": true,
26
+ "vocab_size": 250002
27
+ }
checkpoint-11/config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "4.1.0",
4
+ "transformers": "4.51.3",
5
+ "pytorch": "2.6.0+cu118"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
checkpoint-11/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6d7e63314d7f5685fc3d39440bc58b3fddccd5f2e041b5d9aff3955f9ec3a54a
3
+ size 1112197096
checkpoint-11/modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
checkpoint-11/optimizer.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:ceca402f6206054f3ea720912b1718da98de47416d52345eb2628373ea674040
3
+ size 2219791994
checkpoint-11/rng_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d30be5ae5e26b587a8655c5e2f949708f79be389e263edf2ea04393e2afe08f4
3
+ size 14244
checkpoint-11/scheduler.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:31b9a2943017389cf3a1d7039e2179da81ee83e86ec09213c33b7faafc253434
3
+ size 1064
checkpoint-11/sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
checkpoint-11/special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
checkpoint-11/tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
checkpoint-11/tokenizer_config.json ADDED
@@ -0,0 +1,62 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "max_length": 512,
51
+ "model_max_length": 512,
52
+ "pad_to_multiple_of": null,
53
+ "pad_token": "<pad>",
54
+ "pad_token_type_id": 0,
55
+ "padding_side": "right",
56
+ "sep_token": "</s>",
57
+ "stride": 0,
58
+ "tokenizer_class": "XLMRobertaTokenizerFast",
59
+ "truncation_side": "right",
60
+ "truncation_strategy": "longest_first",
61
+ "unk_token": "<unk>"
62
+ }
checkpoint-11/trainer_state.json ADDED
@@ -0,0 +1,124 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_global_step": 11,
3
+ "best_metric": 0.695814972032374,
4
+ "best_model_checkpoint": "medical_embedding_vietnamese\\checkpoint-11",
5
+ "epoch": 0.9887640449438202,
6
+ "eval_steps": 500,
7
+ "global_step": 11,
8
+ "is_hyper_param_search": false,
9
+ "is_local_process_zero": true,
10
+ "is_world_process_zero": true,
11
+ "log_history": [
12
+ {
13
+ "epoch": 0.898876404494382,
14
+ "grad_norm": 171.29739379882812,
15
+ "learning_rate": 2.339555568810221e-06,
16
+ "loss": 15.0991,
17
+ "step": 10
18
+ },
19
+ {
20
+ "epoch": 0.9887640449438202,
21
+ "eval_dim_128_cosine_accuracy@1": 0.620253164556962,
22
+ "eval_dim_128_cosine_accuracy@10": 0.7658227848101266,
23
+ "eval_dim_128_cosine_accuracy@3": 0.7278481012658228,
24
+ "eval_dim_128_cosine_accuracy@5": 0.740506329113924,
25
+ "eval_dim_128_cosine_map@100": 0.6758935313130828,
26
+ "eval_dim_128_cosine_mrr@10": 0.673010849909584,
27
+ "eval_dim_128_cosine_ndcg@10": 0.695814972032374,
28
+ "eval_dim_128_cosine_precision@1": 0.620253164556962,
29
+ "eval_dim_128_cosine_precision@10": 0.07658227848101265,
30
+ "eval_dim_128_cosine_precision@3": 0.24261603375527424,
31
+ "eval_dim_128_cosine_precision@5": 0.14810126582278477,
32
+ "eval_dim_128_cosine_recall@1": 0.620253164556962,
33
+ "eval_dim_128_cosine_recall@10": 0.7658227848101266,
34
+ "eval_dim_128_cosine_recall@3": 0.7278481012658228,
35
+ "eval_dim_128_cosine_recall@5": 0.740506329113924,
36
+ "eval_dim_256_cosine_accuracy@1": 0.6645569620253164,
37
+ "eval_dim_256_cosine_accuracy@10": 0.7721518987341772,
38
+ "eval_dim_256_cosine_accuracy@3": 0.7278481012658228,
39
+ "eval_dim_256_cosine_accuracy@5": 0.7341772151898734,
40
+ "eval_dim_256_cosine_map@100": 0.7049830151644797,
41
+ "eval_dim_256_cosine_mrr@10": 0.6999196302993772,
42
+ "eval_dim_256_cosine_ndcg@10": 0.717246153733281,
43
+ "eval_dim_256_cosine_precision@1": 0.6645569620253164,
44
+ "eval_dim_256_cosine_precision@10": 0.0772151898734177,
45
+ "eval_dim_256_cosine_precision@3": 0.24261603375527424,
46
+ "eval_dim_256_cosine_precision@5": 0.14683544303797466,
47
+ "eval_dim_256_cosine_recall@1": 0.6645569620253164,
48
+ "eval_dim_256_cosine_recall@10": 0.7721518987341772,
49
+ "eval_dim_256_cosine_recall@3": 0.7278481012658228,
50
+ "eval_dim_256_cosine_recall@5": 0.7341772151898734,
51
+ "eval_dim_512_cosine_accuracy@1": 0.6962025316455697,
52
+ "eval_dim_512_cosine_accuracy@10": 0.7848101265822784,
53
+ "eval_dim_512_cosine_accuracy@3": 0.7278481012658228,
54
+ "eval_dim_512_cosine_accuracy@5": 0.7531645569620253,
55
+ "eval_dim_512_cosine_map@100": 0.7262381247862028,
56
+ "eval_dim_512_cosine_mrr@10": 0.7215340566606389,
57
+ "eval_dim_512_cosine_ndcg@10": 0.7365237174869693,
58
+ "eval_dim_512_cosine_precision@1": 0.6962025316455697,
59
+ "eval_dim_512_cosine_precision@10": 0.07848101265822782,
60
+ "eval_dim_512_cosine_precision@3": 0.24261603375527424,
61
+ "eval_dim_512_cosine_precision@5": 0.15063291139240503,
62
+ "eval_dim_512_cosine_recall@1": 0.6962025316455697,
63
+ "eval_dim_512_cosine_recall@10": 0.7848101265822784,
64
+ "eval_dim_512_cosine_recall@3": 0.7278481012658228,
65
+ "eval_dim_512_cosine_recall@5": 0.7531645569620253,
66
+ "eval_dim_64_cosine_accuracy@1": 0.5632911392405063,
67
+ "eval_dim_64_cosine_accuracy@10": 0.7151898734177216,
68
+ "eval_dim_64_cosine_accuracy@3": 0.6518987341772152,
69
+ "eval_dim_64_cosine_accuracy@5": 0.6835443037974683,
70
+ "eval_dim_64_cosine_map@100": 0.6183770912827027,
71
+ "eval_dim_64_cosine_mrr@10": 0.6125075346594335,
72
+ "eval_dim_64_cosine_ndcg@10": 0.6372309190806515,
73
+ "eval_dim_64_cosine_precision@1": 0.5632911392405063,
74
+ "eval_dim_64_cosine_precision@10": 0.07151898734177213,
75
+ "eval_dim_64_cosine_precision@3": 0.2172995780590717,
76
+ "eval_dim_64_cosine_precision@5": 0.13670886075949362,
77
+ "eval_dim_64_cosine_recall@1": 0.5632911392405063,
78
+ "eval_dim_64_cosine_recall@10": 0.7151898734177216,
79
+ "eval_dim_64_cosine_recall@3": 0.6518987341772152,
80
+ "eval_dim_64_cosine_recall@5": 0.6835443037974683,
81
+ "eval_dim_768_cosine_accuracy@1": 0.689873417721519,
82
+ "eval_dim_768_cosine_accuracy@10": 0.7911392405063291,
83
+ "eval_dim_768_cosine_accuracy@3": 0.7341772151898734,
84
+ "eval_dim_768_cosine_accuracy@5": 0.7658227848101266,
85
+ "eval_dim_768_cosine_map@100": 0.7231429561762966,
86
+ "eval_dim_768_cosine_mrr@10": 0.7186884669479607,
87
+ "eval_dim_768_cosine_ndcg@10": 0.7359964164308189,
88
+ "eval_dim_768_cosine_precision@1": 0.689873417721519,
89
+ "eval_dim_768_cosine_precision@10": 0.07911392405063289,
90
+ "eval_dim_768_cosine_precision@3": 0.24472573839662443,
91
+ "eval_dim_768_cosine_precision@5": 0.1531645569620253,
92
+ "eval_dim_768_cosine_recall@1": 0.689873417721519,
93
+ "eval_dim_768_cosine_recall@10": 0.7911392405063291,
94
+ "eval_dim_768_cosine_recall@3": 0.7341772151898734,
95
+ "eval_dim_768_cosine_recall@5": 0.7658227848101266,
96
+ "eval_runtime": 27.5674,
97
+ "eval_samples_per_second": 0.0,
98
+ "eval_sequential_score": 0.6372309190806515,
99
+ "eval_steps_per_second": 0.0,
100
+ "step": 11
101
+ }
102
+ ],
103
+ "logging_steps": 10,
104
+ "max_steps": 11,
105
+ "num_input_tokens_seen": 0,
106
+ "num_train_epochs": 1,
107
+ "save_steps": 500,
108
+ "stateful_callbacks": {
109
+ "TrainerControl": {
110
+ "args": {
111
+ "should_epoch_stop": false,
112
+ "should_evaluate": false,
113
+ "should_log": false,
114
+ "should_save": true,
115
+ "should_training_stop": true
116
+ },
117
+ "attributes": {}
118
+ }
119
+ },
120
+ "total_flos": 0.0,
121
+ "train_batch_size": 16,
122
+ "trial_name": null,
123
+ "trial_params": null
124
+ }
checkpoint-11/training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e45857aeb3b81c769a093eeea76b911fa94a5ee3b0ecbcd96ce4c0317642722d
3
+ size 5624
config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "XLMRobertaModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "eos_token_id": 2,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 768,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 3072,
14
+ "layer_norm_eps": 1e-05,
15
+ "max_position_embeddings": 514,
16
+ "model_type": "xlm-roberta",
17
+ "num_attention_heads": 12,
18
+ "num_hidden_layers": 12,
19
+ "output_past": true,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "torch_dtype": "float32",
23
+ "transformers_version": "4.51.3",
24
+ "type_vocab_size": 1,
25
+ "use_cache": true,
26
+ "vocab_size": 250002
27
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "4.1.0",
4
+ "transformers": "4.51.3",
5
+ "pytorch": "2.6.0+cu118"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
eval/Information-Retrieval_evaluation_dim_128_results.csv ADDED
@@ -0,0 +1,2 @@
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 0.9887640449438202,11,0.620253164556962,0.7278481012658228,0.740506329113924,0.7658227848101266,0.620253164556962,0.620253164556962,0.24261603375527424,0.7278481012658228,0.14810126582278477,0.740506329113924,0.07658227848101265,0.7658227848101266,0.673010849909584,0.695814972032374,0.6758935313130828
eval/Information-Retrieval_evaluation_dim_256_results.csv ADDED
@@ -0,0 +1,2 @@
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 0.9887640449438202,11,0.6645569620253164,0.7278481012658228,0.7341772151898734,0.7721518987341772,0.6645569620253164,0.6645569620253164,0.24261603375527424,0.7278481012658228,0.14683544303797466,0.7341772151898734,0.0772151898734177,0.7721518987341772,0.6999196302993772,0.717246153733281,0.7049830151644797
eval/Information-Retrieval_evaluation_dim_512_results.csv ADDED
@@ -0,0 +1,2 @@
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 0.9887640449438202,11,0.6962025316455697,0.7278481012658228,0.7531645569620253,0.7848101265822784,0.6962025316455697,0.6962025316455697,0.24261603375527424,0.7278481012658228,0.15063291139240503,0.7531645569620253,0.07848101265822782,0.7848101265822784,0.7215340566606389,0.7365237174869693,0.7262381247862028
eval/Information-Retrieval_evaluation_dim_64_results.csv ADDED
@@ -0,0 +1,2 @@
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 0.9887640449438202,11,0.5632911392405063,0.6518987341772152,0.6835443037974683,0.7151898734177216,0.5632911392405063,0.5632911392405063,0.2172995780590717,0.6518987341772152,0.13670886075949362,0.6835443037974683,0.07151898734177213,0.7151898734177216,0.6125075346594335,0.6372309190806515,0.6183770912827027
eval/Information-Retrieval_evaluation_dim_768_results.csv ADDED
@@ -0,0 +1,2 @@
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 0.9887640449438202,11,0.689873417721519,0.7341772151898734,0.7658227848101266,0.7911392405063291,0.689873417721519,0.689873417721519,0.24472573839662443,0.7341772151898734,0.1531645569620253,0.7658227848101266,0.07911392405063289,0.7911392405063291,0.7186884669479607,0.7359964164308189,0.7231429561762966
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6d7e63314d7f5685fc3d39440bc58b3fddccd5f2e041b5d9aff3955f9ec3a54a
3
+ size 1112197096
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,62 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "max_length": 512,
51
+ "model_max_length": 512,
52
+ "pad_to_multiple_of": null,
53
+ "pad_token": "<pad>",
54
+ "pad_token_type_id": 0,
55
+ "padding_side": "right",
56
+ "sep_token": "</s>",
57
+ "stride": 0,
58
+ "tokenizer_class": "XLMRobertaTokenizerFast",
59
+ "truncation_side": "right",
60
+ "truncation_strategy": "longest_first",
61
+ "unk_token": "<unk>"
62
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e45857aeb3b81c769a093eeea76b911fa94a5ee3b0ecbcd96ce4c0317642722d
3
+ size 5624