rasyosef commited on
Commit
eb3bb31
·
verified ·
1 Parent(s): 99496ed

Add new SparseEncoder model

Browse files
1_SpladePooling/config.json ADDED
@@ -0,0 +1,5 @@
 
 
 
 
 
 
1
+ {
2
+ "pooling_strategy": "max",
3
+ "activation_function": "relu",
4
+ "word_embedding_dimension": 32000
5
+ }
README.md ADDED
@@ -0,0 +1,533 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - am
4
+ license: mit
5
+ tags:
6
+ - sentence-transformers
7
+ - sparse-encoder
8
+ - sparse
9
+ - splade
10
+ - generated_from_trainer
11
+ - dataset_size:184407
12
+ - loss:SpladeLoss
13
+ - loss:SparseMultipleNegativesRankingLoss
14
+ - loss:FlopsLoss
15
+ base_model: rasyosef/roberta-base-amharic
16
+ widget:
17
+ - text: "ዩቲዩብ ቲክቶክ መሰል መተግበሪያ ሕንድ ውስጥ ሊጀምር ነው\\nዩቲዩብ ሾርትስ የተሰኘ ስም የተሰጠው መተግበሪያ ተንቀሳቃሽ\
18
+ \ ምስሎች መጋሪያ ነው።\n\nተጠቃሚዎች ከ15 ሰኮንድ የረዘመ ምስል እንዲጭኑ አይፈቀድላቸውም። \n\nመተግበሪያ ከቻይናው\
19
+ \ ቲክቶክ ጋር ተመሳሳይነት ያለው ቴክኖሎጂ እንደሚጠቀምም ታውቋል። \n\nሕንድ ባለፈው ሰኔ ከቻይና ጋር ድንበር ላይ መጋጨቷን\
20
+ \ ተከትሎ ቲክቶክ የተሰኘው አነጋጋሪ የተንቀሳቃሽ ምስል መጋሪያ ድር አምባን ጨምሮ ሌሎች 58 መተበግሪያዎችን ማገዷ አይዘነጋም።\
21
+ \ \n\nበወቅቱ ቲክቶክ ሕንድ ውስጥ በዓለም ትለቁ የተባለ ገበያ ነበረው። የተጠቃሚዎች ቁጥርም 120 ሚሊዮን ገደማ ነበር።\n\
22
+ \nዩቲዩብ ሕንድ ውስጥ የቲክቶክን ክፍተት ለመሙላት ጥቅም ላይ መዋል ከጀመሩ ሃገር በቀል ድርጅቶችም ፉክክር ይጠብቀዋል። \n\
23
+ \nየዩቲዩብ ምርቶች ቁጥጥር ምክትል ፕሬዝደንት የሆኑት ክሪስ ጄፍ እንዳሉት ሾርትስ የተሰኘው አዲስ ቴክኖሎጂ ዋና ዓላማው ተጠቃሚዎች\
24
+ \ ሞባይል ስልካቸውን ብቻ ተጠቅመው አጠር ያሉ ማራኪ ቪድዮዎችን እንዲሠሩ ማመቻቸት ነው። \n\nአዲሱ ቴክኖሎጂ የተለያዩ ካሜራዎችን\
25
+ \ ተጠቅሞ ቪድዮዎችን መሥራት ያስችላል። \n\nአልፎም ተጠቃሚዎች ከሙዚቃ ቤተ መዘክር የፈለጉትን ሙዚቃ ተጠቅመው መጠቀም እንዲችሉ\
26
+ \ ያደርጋል። \n\nምክትል ፕሬዝደንቱ ሾርትስ በደንብ እየተሻሻለ ሲመጣ አዳዲስ ቴክኖሎጂዎች ተገጥመውለት ወደ ሌሎች ገበያዎች\
27
+ \ እንደሚሠራጭ ተናግረዋል። \n\nየአሜሪካው ፕሬዝደንት ዶናልድ ትራምፕ ቻይና ሠራሹ ቲክቶክ ዩናይትድ ስቴትስ ውስጥ እንዳይሠራ\
28
+ \ አደርጋለሁ ማለታቸውን ተከትሎ በርካታ አማራጮች ወደ ገበያ መምጣት ጀምረዋል። \n\nፕሬዝደንቱ የተጠቃሚዎች ግላዊ መረጃ\
29
+ \ በቲክቶክ አማይነት ለቻይና መንግሥት ተላልፎ እየተሰጠ ነው ይላሉ። \n\nየሕንድ መንግሥትም ተመሳሳይ ቅሬታ በማቅረብ ነው\
30
+ \ ቲክቶክን ከጥቅም ውጭ ያደረገው። \n\n"
31
+ - text: በጃኑዋሪ 1958 እ.ኤ.አ.፣ ሴኔጋልና የፈረንሣይ ሱዳን ተቀላቅለው የማሊ ፌዴሬሽንን መሠረቱ። ይህም ፌዴሬሽን በአፕሪል
32
+ 4፣ 1960 እ.ኤ.አ. ከፈረንሣይ ጋር በተፈረመው የሥልጣን ዝውውር ስምምነት አማካኝ በጁን 20፣ 1960 እ.ኤ.አ. ነጻነቱን
33
+ አውጀ። በውስጣዊ የፖለቲካ ውዝግቦች ምክኒያት ፌዴሬሽኑ ክሁለት ወር በኋላ ተከፈለ። ሴኔጋልም ነጻነቱን በድጋሚ አውጀ። ሊዎፖልድ
34
+ ሴንግሆርም የመጀመሪያው ፕሬዘዳንት ሆኖ በኦገስት 1961 እ.ኤ.አ. ተመረጠ። ፕሬዝዳንት ሊዎፖልድ ሴንግሆር ሀገሩን መምራት
35
+ ከጀመረ በኋላ ከጠቅላይ ሚኒስትሩ ማማዱ ዲያ ጋር ባለው አለመስማማት ምክኒያት በጠቅላይ ሚኒስትሩ የተመራ መፈንቅለ-መንግሥት
36
+ በዲሴምበር 1962 እ.ኤ.አ. ተካሄደ። ይህ መፈንቅለ-መንግሥት ያለ ደም ፍስሻ የከሸፈ ሲሆን ማማዱ ዲያም ታሰረ። ከዛም ሴኔጋል
37
+ የፕሬዝዳነንቱን ሥልጣን የሚያጠነክር አዲስ ሕገ-መንግሥት አሳለፈች። በ1980 እ.ኤ.አ. ፕሬዝዳንት ሴንግሆር በራሱ ፍቃድ ከሥልጣኑ
38
+ የወረደ ሲሆን በ1981 እ.ኤ.ኣ. በራሱ በሊዎፖልድ ሴንግሆር የተመረጠው አብዱ ዲዮፍ ፕሬዝዳንት ሆነ። በፌብሩዋሪ 1፣ 1982
39
+ እ.ኤ.አ.፣ ሴኔጋል ከጋምቢያ ጋር ተዋሕዳ የሴኔጋምቢያ ኮንፌዴሬሽንን መሠረተች። ከስምንት ዓመት በኋላ ግን በ1989 እ.ኤ.አ.
40
+ ኮንፌዴሬሽኑ ፈረሰ። ከ1982 እ.ኤ.አ. ጀምሮ በደቡባዊ ሴኔጋል በካሳማንክ አካባቢ የሚገኙ አማጺዎች ከሴኔጋል መንግሥት ጋር
41
+ በየጊዜው ተጋጭተዋል። ሴኔጋል ዓለም-አቀፍ ሰላም-አስከባሪ ሃይሎችን በመላክ ትታተወቃለች። አብዱ ዲዮፍ ከ1981 እስከ 2000
42
+ እ.ኤ.አ. ድረስ ፕሬዝዳንት ነበረ። በሥልጣን ጊዜው አብዱ የፖለቲካ ተሳትፎን አበረታትቷል፣ መንግሥቱ በኤኮኖሚው ላይ ያለውን
43
+ ቁጥጥር አሳንሷል፣ እና ሴኔጋል ክውጭ በተለይም ከታዳጊ ሀገሮች ጋር ያላትን የዲፕሎማሲ ግንኙነቶችን አጠናክሯል። አብዱ ለአራት
44
+ የሥራ-ጊዜዎች ፕሬዝዳንት ሆኖ አገልግሏል። በ2000 እ.ኤ.አ. በዓለም-አቀፍ ታዛቢዎች ነጻና ዲሞክራሲያዊ በተባለ ምርጫ የአብዱ
45
+ ዲዮፍ ተቀናቃኝ አብዱላይ ዋዲ አሸንፎ ፕሬዝዳንት ሆኗል። ወደ ውጭ አገር የሚላኩ ሸቀጦች በተለይ አሣ፣ ጥጥ፣ ጨርቅ፣ ባምባራ
46
+ ለውዝ (Vignea subterranea)፣ ካልሲየም ፎስፌት ናቸው። ሴኔጋል ፕሬዝዳንታዊ ሪፐብሊክ ናት። ከ2001 እ.ኤ.አ.
47
+ ጀምሮ ፕሬዝዳንቷ በየአምስት ዓመት የሚመረጥ ሲሆን ከዛ በፊት ደግሞ በየሰባት ዓመት ነበር። ያሁኑ ፕሬዝዳንት አብዱላዬ ዋዴ
48
+ ሲሆኑ በማርች 2007 እ.ኤ.አ. እንደገና ተመርጠዋል።
49
+ - text: 'በዩናይትድ ስቴትስ የሚደገፉት የሶሪያ ዲሞክራሲያዊ ኃይሎች ዛሬ ማክሰኞ ባወጡት መግለጫ ከሶሪያዋ ራካ ከተማ “የእስልምና
50
+ መንግሥት” ብሎ ራሱን በሚጠራው ቡድን ቁጥጥር ሥር የነበሩትን የመጨረሻዎቹን ይዞታዎች አስለቅቀው መቆጣጠራቸውን አስታወቁ።በኩሮዶችና
51
+ በአረብ ሚሊሺያዎች የተዋቀረው የሶሪያ ዲሞክራሲያዊ ኃይሎች ቃል አቀባይ ለጋዜጠኞች በሰጡት ቃል የራካው ውጊያ ተጠናቋል ብለዋል።ብሪታንያ
52
+ የሚገኘው የሶሪያ ሰብዓዊ መብቶች ቅኝት አካልም ራካ ነፃ ወጥታለች ሲል አስታውቋል።የዲምክራሲያዊ ኃይሎቹ ተዋጊዎች የእስልምና
53
+ መንግሥት የዕዝ ማዕከል ሆኖ ሲያገለግል የነበረውን አንድ ሆስፒታል ከተቆጣጠሩ በኋላ በከተማዋ የቡድኑ ዋና ሰፈር የነበረውን
54
+ የኳስ ሜዳ ይዘውታል።የእስልምና መንግሥት ተዋጊዎችን ከራካ የማስወጣት ጥቃቱ በዩናይትድ ስቴትስ በሚመራው ሕብረት የአየር ጥቃትና
55
+ ሌላም ድጋፍ እየታገዘ የተጀመረው ባለፈው ሰኔ ወር እንደነበር ይታወሳል።ራካ ዘጠና ከመቶ በሶሪያ ዲሞክራሲያዊ ኃይሎች እጅ መግባቷን
56
+ የዩናይትድ ስቴትስ መራሹ ሕብረት ቃል ኣአቀባይ ራያን ዲለን ተናግረዋል። '
57
+ - text: በኦሮሚያ ክልል ለሚገኙ ታማኝ ግብር ከፋይ ባለሀብቶች እውቅና ተሰጠ
58
+ - text: ሱዳን ከኢትዮጵያ ጋር የሚያወዛግባትን መሬት እንደማትለቅ አስታወቀች
59
+ pipeline_tag: feature-extraction
60
+ library_name: sentence-transformers
61
+ metrics:
62
+ - dot_accuracy@1
63
+ - dot_accuracy@3
64
+ - dot_accuracy@5
65
+ - dot_accuracy@10
66
+ - dot_precision@1
67
+ - dot_precision@3
68
+ - dot_precision@5
69
+ - dot_precision@10
70
+ - dot_recall@1
71
+ - dot_recall@3
72
+ - dot_recall@5
73
+ - dot_recall@10
74
+ - dot_ndcg@10
75
+ - dot_mrr@10
76
+ - dot_map@100
77
+ - query_active_dims
78
+ - query_sparsity_ratio
79
+ - corpus_active_dims
80
+ - corpus_sparsity_ratio
81
+ model-index:
82
+ - name: SPLADE-RoBERTa-Amharic-Base
83
+ results:
84
+ - task:
85
+ type: sparse-information-retrieval
86
+ name: Sparse Information Retrieval
87
+ dataset:
88
+ name: Unknown
89
+ type: unknown
90
+ metrics:
91
+ - type: dot_accuracy@1
92
+ value: 0.6625659050966608
93
+ name: Dot Accuracy@1
94
+ - type: dot_accuracy@3
95
+ value: 0.8331868775629759
96
+ name: Dot Accuracy@3
97
+ - type: dot_accuracy@5
98
+ value: 0.8725834797891037
99
+ name: Dot Accuracy@5
100
+ - type: dot_accuracy@10
101
+ value: 0.9111013473930872
102
+ name: Dot Accuracy@10
103
+ - type: dot_precision@1
104
+ value: 0.6625659050966608
105
+ name: Dot Precision@1
106
+ - type: dot_precision@3
107
+ value: 0.27772895918765866
108
+ name: Dot Precision@3
109
+ - type: dot_precision@5
110
+ value: 0.1745166959578207
111
+ name: Dot Precision@5
112
+ - type: dot_precision@10
113
+ value: 0.09111013473930872
114
+ name: Dot Precision@10
115
+ - type: dot_recall@1
116
+ value: 0.6625659050966608
117
+ name: Dot Recall@1
118
+ - type: dot_recall@3
119
+ value: 0.8331868775629759
120
+ name: Dot Recall@3
121
+ - type: dot_recall@5
122
+ value: 0.8725834797891037
123
+ name: Dot Recall@5
124
+ - type: dot_recall@10
125
+ value: 0.9111013473930872
126
+ name: Dot Recall@10
127
+ - type: dot_ndcg@10
128
+ value: 0.793323433202864
129
+ name: Dot Ndcg@10
130
+ - type: dot_mrr@10
131
+ value: 0.7548727927023166
132
+ name: Dot Mrr@10
133
+ - type: dot_map@100
134
+ value: 0.7575361502469213
135
+ name: Dot Map@100
136
+ - type: query_active_dims
137
+ value: 144.32879638671875
138
+ name: Query Active Dims
139
+ - type: query_sparsity_ratio
140
+ value: 0.995489725112915
141
+ name: Query Sparsity Ratio
142
+ - type: corpus_active_dims
143
+ value: 310.48967695411466
144
+ name: Corpus Active Dims
145
+ - type: corpus_sparsity_ratio
146
+ value: 0.9902971975951841
147
+ name: Corpus Sparsity Ratio
148
+ ---
149
+
150
+ # SPLADE-RoBERTa-Amharic-Base
151
+
152
+ This is a [SPLADE Sparse Encoder](https://www.sbert.net/docs/sparse_encoder/usage/usage.html) model finetuned from [rasyosef/roberta-base-amharic](https://huggingface.co/rasyosef/roberta-base-amharic) using the [sentence-transformers](https://www.SBERT.net) library. It maps sentences & paragraphs to a 32000-dimensional sparse vector space and can be used for semantic search and sparse retrieval.
153
+ ## Model Details
154
+
155
+ ### Model Description
156
+ - **Model Type:** SPLADE Sparse Encoder
157
+ - **Base model:** [rasyosef/roberta-base-amharic](https://huggingface.co/rasyosef/roberta-base-amharic) <!-- at revision b1a3d2c267262e2b82c83be9d4e59db762a5e931 -->
158
+ - **Maximum Sequence Length:** 510 tokens
159
+ - **Output Dimensionality:** 32000 dimensions
160
+ - **Similarity Function:** Dot Product
161
+ <!-- - **Training Dataset:** Unknown -->
162
+ - **Language:** am
163
+ - **License:** mit
164
+
165
+ ### Model Sources
166
+
167
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
168
+ - **Documentation:** [Sparse Encoder Documentation](https://www.sbert.net/docs/sparse_encoder/usage/usage.html)
169
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
170
+ - **Hugging Face:** [Sparse Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=sparse-encoder)
171
+
172
+ ### Full Model Architecture
173
+
174
+ ```
175
+ SparseEncoder(
176
+ (0): MLMTransformer({'max_seq_length': 510, 'do_lower_case': False, 'architecture': 'XLMRobertaForMaskedLM'})
177
+ (1): SpladePooling({'pooling_strategy': 'max', 'activation_function': 'relu', 'word_embedding_dimension': 32000})
178
+ )
179
+ ```
180
+
181
+ ## Usage
182
+
183
+ ### Direct Usage (Sentence Transformers)
184
+
185
+ First install the Sentence Transformers library:
186
+
187
+ ```bash
188
+ pip install -U sentence-transformers
189
+ ```
190
+
191
+ Then you can load this model and run inference.
192
+ ```python
193
+ from sentence_transformers import SparseEncoder
194
+
195
+ # Download from the 🤗 Hub
196
+ model = SparseEncoder("rasyosef/SPLADE-RoBERTa-Amharic-Base")
197
+ # Run inference
198
+ sentences = [
199
+ 'ሱዳን ከኢትዮጵያ ጋር የሚያወዛግባትን መሬት እንደማትለቅ አስታወቀች',
200
+ 'የሱዳኑ ሱና ከፍተኛ የመከላከያ ኃላፊን ጠቅሶ፤ ሱዳን በምዕራባዊ ድንበሯ ላይ የሚገኘውንና ከኢትዮጵያ ጋር ያወዛግባት የነበረውን መሬት እንደማትመልስ ዘግቧል።\n\n"ሱዳን ከአልፋሻጋ ይዞታ ቅንጣት ታህል እንደማትሰጥ ሜጀር ጀነራል ሀይደር አልቲራፊ አረጋግጠዋል። ለወታደራዊ ኃይል ምልመላ እየተደረገ መሆኑንም ተናግረዋል" ይላል የመንግሥታዊው ሱና ዘገባ።\n\nኢትዮጵያ በበኩሏ አለመግባባቱን በድርድር ለመፍታት ሱዳን የያዘችውን መሬት እንድትለቅ እንደ ቅድመ ሁኔታ አስቀምጣለች። \n\nየሱዳኑ ጄነራል ግን አልገዳሪፍ ውስጥ ፋላታ ከተባለው ጎሳ ድጋፍ በተቀበሉበት ወቅት ባደረጉት ንግግር "ሁሉም ዜጎች ልጆቻቸው ወታደራዊ ኃይሉን ተቀላቅለው የአገራቸውን ዳር ድንበርና ክብር እንዲያስጠብቁ እንዲያነሳሱ እጠይቃለሁ" ብለዋል።\n\nየሱዳን ወታደራዊ ኃይል ድንበር ላይ ያለውን ቀጠና ለማሳደግ የመንገድና የድልድይ ግንባታ ላይ እንደተሰማራ ተናግረዋል። "በቀጠናው የአገልግሎት ዘርፍ በመገንባት እንቅስቃሴን ምቹ ለማድረግም እየሠሩ ነው" ሲሉ አክለዋል።\n\nየኢትዮጵያ የውጪ ጉዳይ ሚንስትር ቃል አቀባይ ዲና ሙፍቲ፤ ከቀናት በፊት በሰጡት መግለጫ ሱዳን ወደቀደመ ይዞታዋ ካልተመለሰች ለድርድር መቀመጥ እንደማይቻል ተናግረዋል።\n\nሱዳን የኢትዮጵያን ድንበር አልፋ እንድትጠብቅም ሆነ መሬት እንድትይዝ የተደረሰ ስምምነት እንደሌለም ቃል አቀባዩ አምባሳደር ዲና መናገራቸው ይታወሳል።\n\nሱዳን የያዘችውን መሬት እንድትለቅ ኢትዮጵያ በቅድመ ሁኔታ ማስቀመጧንና ይህ ከተሳካ ሁለቱ አገራት በዋናነትም ችግራቸውን ተነጋግረው መፍታት እንደሚችሉም ���ስረድተዋል።\n\nሱዳን እና ኢትዮጵያን የሚያወዛግበው አልፋሽጋ የግብርና ሥራ እየተከናወነበት የሚገኝ ሲሆን፤ ባሳለፍነው ጥቅምት ሱዳን አካባቢውን ሙሉ በሙሉ እንደምትቆጣጠር አስታውቃለች።\n\nይህም ከኢትዮጵያ ጋር የሚያወዛግባትንና በኢትዮጵያ ሚሊሻ ተይዞ የነበረውን የድንበር አካባባቢ ይጠቀልላል።\n\n ',
201
+ 'ትግራይ፡ ጦርነቱን ተከትሎ ከ6ሺህ በላይ ኢትዮጵያውያን ወደ ሱዳን ሸሽተዋል\\nየሱዳን ባለስልጣናት በቀጣይ ቀናት እስከ 200 ሺህ ኢትዮጵያውን ድንበር ተሻግረው ወደ ሱዳን ሊገቡ እንደሚችሉ ጠቁመዋል። \n\nጠቅላይ ሚንስትር ዐብይ የትግራይ ልዩ ኃይል በአገር መከላከያ ሠራዊት ሰሜን እዝ ላይ ጥቃት ሰንዝሯል ካሉ በኋላ የአገር መከላከያ ሠራዊት እርምጃ እንዲወስድ ማዘዛቸው ይታወሳል። \n\nሮይተርስ የዜና ወኪል በዘገባው ወደ ሱዳን ድንበር የተሻገሩት ስደተኞች ሲቪል ወይም ወታደራዊ ይሁኑ ያለው ነገር የለም። \n\nየስደተኞቹ ቁጥር ትናንት ማክሰኞ 6ሺህ መድረሱን የሱዳን የስደተኞች ኮሚሽን ገልጾ ቁጥሩ ከዚህም ሊለቅ እንደሚችል ስጋቱን አስቀምጧል። \n\nሮይተርስ የአገሬውን የዜና አገልግሎት ጠቅሶ እንደዘገበው 6ሺህ የሚሆኑ ስደተኞች ወደ ሱዳን የዘለቁት ሉቅዲ፣ ቁዳይማህ እና ሐምዳይት በተባሉ የሱዳን ድንበር አካባቢዎች በኩል ነው። ሌሎች በርካታ ስደተኞችም በአትባራ ወንዝ ዳርቻ ወደ ሱዳን ለመሻገር በመጠባበቅ ላይ ናቸው።\n\nሮይተርስ የሱዳን ዜና አገልግሎትን ጠቅሶ ከቀናት በፊት እንደዘገበው ደግሞ የጦርነቱን ማገርሸት ተከትሎ የሱዳን መንግሥት ከኢትዮጵያ ጋር የሚያዋስነውን ድንበር በከፊል እንደዘጋ ጽፎ ነበር።\n\nየሱዳን ዜና አገልግሎት እንደሚለው በምሥራቅ ሱዳን አል ቃዳሪፍ ክልል የሚገኘው አስተዳደር ከአማራና ትግራይ የሚያገናኙትን አዋሳኝ ድንበሮችን ላልተወሰነ ጊዜ ዘግቷል።\n\nየዜና አገልግሎቱ ዘገባ እንዳተተው በሱዳን በኩል ሁለቱን የኢትዮጵያ ክልሎች በሚያዋስኑ ግዛቶች አሁን ምርት የመሰብሰቢያ ወቅት ስለሆነ የጦርነቱ ዳፋ የስደተኛ ጎርፍ አስከትሎ ገበሬዎችና ማሳቸው ላይ ችግር ሊፈጥር ይችላል።\n\nበጎረቤት አገር የሚደረገው ጦርነት ያሳሰበው የሱዳን መንግሥት የደኅንነትና ጸጥታ ጉዳዮች ምክር ቤት ባለፈው ማክሰኞ ልዩ ስብሰባ መቀመጡንና በጉዳዩ ዙርያ መምከሩም ተዘግቧል።\n\nየሱዳን የመከላከያ ሚኒስትር ያሲን ኢብራሂም ይህን ስብሰባ ተከትሎ እንዳሉት በጎረቤት አገር ኢትዮያ ያለውን ሁኔታ በአንክሮ እየተከታተሉት እንደሆነና ሁለቱም ተዋጊ ወገኖች ወደ ሰላምና መረጋጋት እንዲመለሱ ማሳሰባቸውን ሱዳን ትሪቡን ዘግቧል።\n\nየሱዳን ጠቅላይ ሚኒስተር ቢሮ እንደገለጠው አብደላ ሐምዱክ ለኢትዮጵያ አቻቸው ዐቢይ አሕመድ አራት ጊዜ ያህል እንደደወሉላቸውና ከህወሓት ጋር ለድርድር ዝግጁ እንዲሆኑ እንደወተወቷቸው ይኸው ጋዜጣ ዘግቧል።\n\nአቶ ገዱ በሱዳን\n\nይህ በአንዲህ እንዳለ የኢፊዲሪ የውጭ ጉዳይ ሚኒስትር የነበሩትና በቅርቡ የጠቅላይ ሚኒስትር የብሔራዊ ደኅንነት አማካሪ ሚኒስትር ተደርገው የተመደቡት አቶ ገዱ አንዳጋቸው ሱዳን ገብተዋል ሲሉ የመንግሥት መገናኛ ብዙኃን ዘግበዋል።\n\nአቶ ገዱ ወደ ካርቱም ያቀኑት ከጠቅላይ ሚኒስትር ዐቢይ አህመድ የተላከ መልዕክት ለሱዳን ሉዓላዊ ምክር ቤት ፕሬዚዳንት ለሌትናልት ጄኔራል አብዱልፈታህ አልቡርሃን እና ለሱዳን ጠቅላይ ሚኒስትር አብደላህ ሀምዶክ ለማድረስ ነው።\n\nአቶ ገዱ ከሌትናልት ጄኔራል አብዱልፈታህ አልቡርሃን እና ጠቅላይ ሚኒስትር አብደላህ ሀምዶክ በኢትዮጵያ ወቅታዊ ሁኔታ ዙርያ መነጋገራቸውም ተዘግቧል።\n\n',
202
+ ]
203
+ embeddings = model.encode(sentences)
204
+ print(embeddings.shape)
205
+ # [3, 32000]
206
+
207
+ # Get the similarity scores for the embeddings
208
+ similarities = model.similarity(embeddings, embeddings)
209
+ print(similarities)
210
+ # tensor([[ 56.5779, 44.1052, 12.5016],
211
+ # [ 44.1052, 107.3544, 17.8198],
212
+ # [ 12.5016, 17.8198, 82.5939]])
213
+ ```
214
+
215
+ <!--
216
+ ### Direct Usage (Transformers)
217
+
218
+ <details><summary>Click to see the direct usage in Transformers</summary>
219
+
220
+ </details>
221
+ -->
222
+
223
+ <!--
224
+ ### Downstream Usage (Sentence Transformers)
225
+
226
+ You can finetune this model on your own dataset.
227
+
228
+ <details><summary>Click to expand</summary>
229
+
230
+ </details>
231
+ -->
232
+
233
+ <!--
234
+ ### Out-of-Scope Use
235
+
236
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
237
+ -->
238
+
239
+ ## Evaluation
240
+
241
+ ### Metrics
242
+
243
+ #### Sparse Information Retrieval
244
+
245
+ * Evaluated with [<code>SparseInformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sparse_encoder/evaluation.html#sentence_transformers.sparse_encoder.evaluation.SparseInformationRetrievalEvaluator)
246
+
247
+ | Metric | Value |
248
+ |:----------------------|:-----------|
249
+ | dot_accuracy@1 | 0.6626 |
250
+ | dot_accuracy@3 | 0.8332 |
251
+ | dot_accuracy@5 | 0.8726 |
252
+ | dot_accuracy@10 | 0.9111 |
253
+ | dot_precision@1 | 0.6626 |
254
+ | dot_precision@3 | 0.2777 |
255
+ | dot_precision@5 | 0.1745 |
256
+ | dot_precision@10 | 0.0911 |
257
+ | dot_recall@1 | 0.6626 |
258
+ | dot_recall@3 | 0.8332 |
259
+ | dot_recall@5 | 0.8726 |
260
+ | dot_recall@10 | 0.9111 |
261
+ | **dot_ndcg@10** | **0.7933** |
262
+ | dot_mrr@10 | 0.7549 |
263
+ | dot_map@100 | 0.7575 |
264
+ | query_active_dims | 144.3288 |
265
+ | query_sparsity_ratio | 0.9955 |
266
+ | corpus_active_dims | 310.4897 |
267
+ | corpus_sparsity_ratio | 0.9903 |
268
+
269
+ <!--
270
+ ## Bias, Risks and Limitations
271
+
272
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
273
+ -->
274
+
275
+ <!--
276
+ ### Recommendations
277
+
278
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
279
+ -->
280
+
281
+ ## Training Details
282
+
283
+ ### Training Dataset
284
+
285
+ #### Unnamed Dataset
286
+
287
+ * Size: 184,407 training samples
288
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
289
+ * Approximate statistics based on the first 1000 samples:
290
+ | | anchor | positive | negative |
291
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
292
+ | type | string | string | string |
293
+ | details | <ul><li>min: 3 tokens</li><li>mean: 15.91 tokens</li><li>max: 81 tokens</li></ul> | <ul><li>min: 31 tokens</li><li>mean: 320.35 tokens</li><li>max: 510 tokens</li></ul> | <ul><li>min: 41 tokens</li><li>mean: 329.89 tokens</li><li>max: 510 tokens</li></ul> |
294
+ * Samples:
295
+ | anchor | positive | negative |
296
+ |:-------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
297
+ | <code>ነገረ ግራኝ ወፍጻሜ ሞቱ</code> | <code>ነገር ግራኝ ወፍጻሜ ሞቱ በ19ኛው ክፍለ ዘመን የተደረሰ መጽሐፍ ሲሆን ግራኝ አህመድ በዓፄ ልብነ ድንግል መታበይ ምክንያት አገሪቱን ለመቅጣት የመጣ ሃይል አድርጎ የሚያቀርብ ጽሑፍ ነው። <br><br> ልብነ ድንግል<br> ግራኝ አህመድ<br> የኢትዮጵያ ታሪክ<br> 19ኛ ክፍለ ዘመን አማርኛ ሥነ ጽሑፍ</code> | <code>ልዑል ራስ መኮንን የንጉሠ ነገሥቱ ዳግማዊ ምኒልክ ተወካይ ሆነው ሁለት ጊዜ የአውሮፓን አገሮች ጎብኝተዋል። በዚህ ጊዜ እሳቸው ኢጣሊያን ሲጎበኙ በነበረ ጊዜ የኢጣሊያ ጋዘጦች የውጫሌ ውልን በተመለከተ፤ «...በውጫሌ ውል ላይ ኢትዮጵያ የኢጣሊያን ጥገኝነት ተቀብላ ውል ከፈረመች በኋላ የጀርመን ንጉሠ ነገሥት ከኢትዮጵያ የሚላከውን ማንኛውንም ደብዳቤም ሆን ጉዳይ በኢጣሊያ መንግሥት በኩል መቀበል ሲገባቸው በቀጥታ ከምኒልክ የተጻፈውን ደብዳቤ ተቀብለዋል...» እያሉ የጻፉትን ራስ መኮንን ተቃውሞአቸውን ለኢጣሊያ መንግሥት ከነገሩ በኋላ ወደ ኢትዮጵያ ሲመለሱ የውሉን መበላሸት ለአጤ ምኒልክ አሳወቁ። ከኢጣሊያንም ጋር በተደረገውም ጦርነት ራስ መኮንን ፲፭ ሺህ እግረኛ ወታደሮች ይዘው ከምኒልክ እና ታላላቅ ጦር አዛዦች ጋር ዘምተዋል። በ፲፰፻፺፰ ዓ.ም መጀመሪያ ላይ በብርቱ ስለታመሙ ለኅክምና ወደ አዲስ አበባ ለመሄድ ጥር ፬ ቀን ከከተማቸው ከሐረር ተነሱ። ጥር ፱ቀን ቡርቃ ወንዝ አድረው የጥምቀትን በዓል አክብረው ከዋሉ በኋላ ሕመሙ ስለጸናባቸው ወደ ኋላ ተመልሰው ቁልቢ ገብተው በሐኪም ይታከሙ ጀመር። እዚሁም ሲታመሙ ከቆዩ በኋላ መጋቢት ፲፫ ቀን ፲፰፻፺፰ ዓ.ም ቁልቢ ላይ አርፈው ሐረር ላይ እሳቸው በተከሉት በቅዱስ ሚካኤል ቤተ ክርስቲያን ተቀበሩ። ዐፄ ምኒልክም የአርባቸው ለቅሶ የሚለቀሰው አዲስ አበባ እንዲሆን ባዘዙት መሠረት፤ ሰኞ ሚያዝያ ፳፪ ቀን በአዲስ አበባና በዙሪያው ያሉት የየገዳማቱና የየአድባራቱ ካህናት የክርስቲያን የፍታት ጸሎት ተድርጎ በማግስቱም ማክሰኞ የጊዮርጊስ ዕለት ሚያዝያ ፳፫ቀን ፲፰፻፺፰ ዓ.ም በሰኢ ሜዳ ላይ ድንኳን ተተክሎ፤ መኳንንቱና ሠራዊቱ ተሰብስቦ የራስ መኮንን የማዕረግ ልብሳቸውና የራስ ወርቃቸው፤ ኒሻኖቻቸውና የጦር መሳሪያቸው ተይዞ ፈረስና ...</code> |
298
+ | <code>ምርጫ ቦርድ ለመኢአድና ለአንድነት የሰጠው ቀነ ገደብ አለቀ</code> | <code>መኢአድ እና አንድነት ለዴሞክራሲና ለፍትሕ ፓርቲ “የመተዳደሪያ ደንቦቻቸውን የጣሱ የአመራር ምርጫዎች አካሂደዋል” ያለው የኢትዮጵያ ብሔራዊ ምርጫ ቦርድ “የውስጥ ችግሮቻችሁን ፍቱ” በሚል ለሁለቱ ፓርቲዎች የሰጠው የሁለት ሣምንታት ቀነ ገደብ ማክሰኞ፤ ጥር 19/2007 ዓ.ም ተጠናቅቋል፡፡ሁለቱ ፓርቲዎች በተደጋጋሚ በሰጧቸው መግለጫዎች ምርጫ ቦርድ በውስጥ ጉዳያችን ጣልቃ እየገባ ነው ሲሉ ስሞታ አሰምተዋል፡፡የቀነ ገደቡን መጠናቀቅ አስመልክቶ እስክንድር ፍሬው የኢትዮጵያ ምርጫ ቦርድን የሕዝብ ግንኙነት ዳይሬክተር አቶ ደምሰው በንቲን በስልክ አነጋግሯል፡፡የተያያዘውን የድምፅ ፋይል ያዳምጡ፡፡</code> | <code>የምርጫ ቦርዱ የምርጫው የጊዜ ሰሌዳን አስመልክቶ ባስቀመጠው መረጃ መሰረት ከታህሳስ 16-ጥር 16፣ 2013 ዓ.ም የምርጫ ክልል ቢሮዎችን መክፈት፣ እንዲሁም ከጥር 24- የካቲት 21 2013 ዓ.ም ለምርጫ አስፈፃሚዎች ስልጠና ለመራጮች ምዝገባ የሚከናወን ይሆናል።<br><br>በዚህም የጊዜ ሰሌዳ መሰረት በተለያዩ ክልሎች የሚገኙ የምርጫ ቢሮዎች ለመክፈት የሚያስፈልገው ትብብርን ማግኘት እንዳልቻለ ቅሬታውን አቅርቧል።<br><br>በአሁኑም ወቅት ለምርጫ ክልል እና ለዞን ማስተባበሪያ ጽ/ቤት ሊያገለግሉ የሚችሉ ቢሮዎችን አምስት ክልሎች ሙሉ በሙሉ ማሟላት አልተቻለም ብሏል። እነዚህም የተጠቀሱት ክልሎች አፋር፣ አማራ፣ ሲዳማ፣ ደቡብ ብሔሮች፣ ብሔረሰቦች እና ሕዝቦች፣ ሶማሌ ክልል ሲሆኑ እነዚህም ክልሎች የተጠየቁትን በሙሉ እስከ የካቲት 5፣ 2013 ዓ.ም ማጠናቀቅ አለባቸው ሲል አሳስቧል።<br><br>ብሔራዊ ምርጫ ቦርዱ ጥር 10፣ 2013 ባወጣው መግለጫ ከክልሎች እና የከተማ መስተዳድሮች የሚያስፈልገው ትብብር ባለመሟላቱ የምርጫ ክልል ቢሮዎችን ለመክፈት ዝግጅት ማድረግ እንዳልቻለ ባስታወቀው መሰረት ከፍተኛ መሻሻሎች ታይተዋል ብሏል።<br><br>በዚህም መሰረት አዲስ አበባና ድሬዳዋ መስተዳድሮች፣ ቤኒሻንጉል ጉሙዝ፣ ኦሮሚያ፣ ሐረሪ ክልሎች ለምርጫ ክልልና ለዞን ማስተባበሪያ ፅህፈት ቤት የሚያስፈልጉትን ቢሮዎች በማዘጋጀት ለቦርዱ ማስታወቃቸው ተገልጿል። <br><br>በእነዚህ ቢሮዎችን ባሟሉ ቦታዎች የምርጫ ጊዜ ሰሌዳው በሚያዘው መሰረት ከየካቲት 08-21፣ 2013 ዓ.ም የዕጩ ምዝገባ የሚካሄድ ሲሆን በቀሪዎቹ ደግሞ ሙሉ ለሙሉ አሟልተው ሲያቀርቡ ምዝገባው እንደሚጀመር አስታውቋል።<br><br>ከዚህም በተጨማሪ የኢትዮጵያ ብሔራዊ ምርጫ ቦርድ ግንቦት 28፣ 2013 ዓ.ም ለሚደረገው ምርጫ የመራጮች ትምህርት ለማስተማር ዕውቅና ለተሰጣቸው...</code> |
299
+ | <code>ሁሉም ኢትዮጵያዊ በፈለገበት ቦታ የሚኖርባትን ሀገር መገንባት አማራጭ የሌለው ሥራቸው መሆኑን የአማራ ክልል እና የወላይታ ዞን የሥራ ኃላፊዎች ተናገሩ።</code> | <code>ባሕር ዳር፡ መስከረም 19/2012 ዓ/ም (አብመድ) ከኅብረተሰቡ ጋር ያላቸው መልካም ትስስር ግጭት ለሚፈጥሩትና ኢትዮጵያ የጋራ መሆኗ ላልገባቸው ምሳሌ እንደሚሆን በወላይታ የሚኖሩ አማራዎች ተናገሩ፡፡በ “ጊፋታ” (የወላይታ ብሄር ዘመን መለወጫ በዓል) ላይ ከተለያዩ የኢትዮጵያ አካባቢዎች እንግዶች ታድመዋል፡፡ ከታዳሚዎች መካከል የአማራ ክልል የመንግሥት የሥራ ኃላፊዎች ልዑክ ይገኝበታል።</code> | <code>ባሕር ዳር፡ መስከረም 13/2013ዓ.ም (አብመድ) ከሰሞኑ በቤኔሻንጉል ጉሙዝ ክልል መተከል ዞን በተፈጠረ የፀጥታ ችግር የተሳተፉ አካላት ላይ ርምጃ የመውሰድ ተግባሩ ተጠናክሮ መቀጠሉን የክልሉ ሰላም ግንባታና ፀጥታ ቢሮ አስታወቀ፡፡ ቢሮው የታላቁ የኢትዮጵያ ሕዳሴ ግድብ መገኛ በመሆኑ የመላው ኢትዮጵያውያን ዓይን እና ጆሮ ወደ ክልሉ መሆኑን ቢሮው አስታውሷል፡፡ በመተከል ዞን በርካታ ብሔር ብሔረሰቦች እና ሕዝቦች በወንድማማችነት ለዘመናተ አብረው መኖራቸውንም አመላክቷል፡፡በመተከል ዞን የአማራ፣ የአገው፣ የሽናሻ፣ የጉሙዝ፣ የኦሮሞ እና ሌሎችም ብሔረሰቦች ዘመናትን አብረው አሳልፈዋል፡፡ ክፉ ጊዜን በመተባበር ማሳለፋቸው እና ደስታቸውን በጋራ መካፈላቸውም ለዓመታት ብዝኃነት ጎልቶ እንዲወጣ አድርጎታል፡፡ ሕዝቦች መካከል ምንም ችግር አለመፈጠሩን በማንሳትም አሁንም በተለመደው አብሮነታቸው እየኖሩ መሆኑን አስታውቋል፡፡</code> |
300
+ * Loss: [<code>SpladeLoss</code>](https://sbert.net/docs/package_reference/sparse_encoder/losses.html#spladeloss) with these parameters:
301
+ ```json
302
+ {
303
+ "loss": "SparseMultipleNegativesRankingLoss(scale=1.0, similarity_fct='dot_score')",
304
+ "document_regularizer_weight": 0.0003,
305
+ "query_regularizer_weight": 0.0005
306
+ }
307
+ ```
308
+
309
+ ### Training Hyperparameters
310
+ #### Non-Default Hyperparameters
311
+
312
+ - `eval_strategy`: epoch
313
+ - `per_device_train_batch_size`: 32
314
+ - `per_device_eval_batch_size`: 32
315
+ - `learning_rate`: 6e-05
316
+ - `num_train_epochs`: 4
317
+ - `lr_scheduler_type`: cosine
318
+ - `warmup_ratio`: 0.05
319
+ - `fp16`: True
320
+ - `optim`: adamw_torch_fused
321
+ - `batch_sampler`: no_duplicates
322
+
323
+ #### All Hyperparameters
324
+ <details><summary>Click to expand</summary>
325
+
326
+ - `overwrite_output_dir`: False
327
+ - `do_predict`: False
328
+ - `eval_strategy`: epoch
329
+ - `prediction_loss_only`: True
330
+ - `per_device_train_batch_size`: 32
331
+ - `per_device_eval_batch_size`: 32
332
+ - `per_gpu_train_batch_size`: None
333
+ - `per_gpu_eval_batch_size`: None
334
+ - `gradient_accumulation_steps`: 1
335
+ - `eval_accumulation_steps`: None
336
+ - `torch_empty_cache_steps`: None
337
+ - `learning_rate`: 6e-05
338
+ - `weight_decay`: 0.0
339
+ - `adam_beta1`: 0.9
340
+ - `adam_beta2`: 0.999
341
+ - `adam_epsilon`: 1e-08
342
+ - `max_grad_norm`: 1.0
343
+ - `num_train_epochs`: 4
344
+ - `max_steps`: -1
345
+ - `lr_scheduler_type`: cosine
346
+ - `lr_scheduler_kwargs`: {}
347
+ - `warmup_ratio`: 0.05
348
+ - `warmup_steps`: 0
349
+ - `log_level`: passive
350
+ - `log_level_replica`: warning
351
+ - `log_on_each_node`: True
352
+ - `logging_nan_inf_filter`: True
353
+ - `save_safetensors`: True
354
+ - `save_on_each_node`: False
355
+ - `save_only_model`: False
356
+ - `restore_callback_states_from_checkpoint`: False
357
+ - `no_cuda`: False
358
+ - `use_cpu`: False
359
+ - `use_mps_device`: False
360
+ - `seed`: 42
361
+ - `data_seed`: None
362
+ - `jit_mode_eval`: False
363
+ - `use_ipex`: False
364
+ - `bf16`: False
365
+ - `fp16`: True
366
+ - `fp16_opt_level`: O1
367
+ - `half_precision_backend`: auto
368
+ - `bf16_full_eval`: False
369
+ - `fp16_full_eval`: False
370
+ - `tf32`: None
371
+ - `local_rank`: 0
372
+ - `ddp_backend`: None
373
+ - `tpu_num_cores`: None
374
+ - `tpu_metrics_debug`: False
375
+ - `debug`: []
376
+ - `dataloader_drop_last`: False
377
+ - `dataloader_num_workers`: 0
378
+ - `dataloader_prefetch_factor`: None
379
+ - `past_index`: -1
380
+ - `disable_tqdm`: False
381
+ - `remove_unused_columns`: True
382
+ - `label_names`: None
383
+ - `load_best_model_at_end`: False
384
+ - `ignore_data_skip`: False
385
+ - `fsdp`: []
386
+ - `fsdp_min_num_params`: 0
387
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
388
+ - `fsdp_transformer_layer_cls_to_wrap`: None
389
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
390
+ - `deepspeed`: None
391
+ - `label_smoothing_factor`: 0.0
392
+ - `optim`: adamw_torch_fused
393
+ - `optim_args`: None
394
+ - `adafactor`: False
395
+ - `group_by_length`: False
396
+ - `length_column_name`: length
397
+ - `ddp_find_unused_parameters`: None
398
+ - `ddp_bucket_cap_mb`: None
399
+ - `ddp_broadcast_buffers`: False
400
+ - `dataloader_pin_memory`: True
401
+ - `dataloader_persistent_workers`: False
402
+ - `skip_memory_metrics`: True
403
+ - `use_legacy_prediction_loop`: False
404
+ - `push_to_hub`: False
405
+ - `resume_from_checkpoint`: None
406
+ - `hub_model_id`: None
407
+ - `hub_strategy`: every_save
408
+ - `hub_private_repo`: None
409
+ - `hub_always_push`: False
410
+ - `hub_revision`: None
411
+ - `gradient_checkpointing`: False
412
+ - `gradient_checkpointing_kwargs`: None
413
+ - `include_inputs_for_metrics`: False
414
+ - `include_for_metrics`: []
415
+ - `eval_do_concat_batches`: True
416
+ - `fp16_backend`: auto
417
+ - `push_to_hub_model_id`: None
418
+ - `push_to_hub_organization`: None
419
+ - `mp_parameters`:
420
+ - `auto_find_batch_size`: False
421
+ - `full_determinism`: False
422
+ - `torchdynamo`: None
423
+ - `ray_scope`: last
424
+ - `ddp_timeout`: 1800
425
+ - `torch_compile`: False
426
+ - `torch_compile_backend`: None
427
+ - `torch_compile_mode`: None
428
+ - `include_tokens_per_second`: False
429
+ - `include_num_input_tokens_seen`: False
430
+ - `neftune_noise_alpha`: None
431
+ - `optim_target_modules`: None
432
+ - `batch_eval_metrics`: False
433
+ - `eval_on_start`: False
434
+ - `use_liger_kernel`: False
435
+ - `liger_kernel_config`: None
436
+ - `eval_use_gather_object`: False
437
+ - `average_tokens_across_devices`: False
438
+ - `prompts`: None
439
+ - `batch_sampler`: no_duplicates
440
+ - `multi_dataset_batch_sampler`: proportional
441
+ - `router_mapping`: {}
442
+ - `learning_rate_mapping`: {}
443
+
444
+ </details>
445
+
446
+ ### Training Logs
447
+ | Epoch | Step | Training Loss | dot_ndcg@10 |
448
+ |:-----:|:-----:|:-------------:|:-----------:|
449
+ | 1.0 | 5763 | 34.5486 | 0.7278 |
450
+ | 2.0 | 11526 | 0.0824 | 0.7739 |
451
+ | 3.0 | 17289 | 0.0249 | 0.7798 |
452
+ | 4.0 | 23052 | 0.009 | 0.7933 |
453
+ | -1 | -1 | - | 0.7933 |
454
+
455
+
456
+ ### Framework Versions
457
+ - Python: 3.11.13
458
+ - Sentence Transformers: 5.0.0
459
+ - Transformers: 4.53.0
460
+ - PyTorch: 2.6.0+cu124
461
+ - Accelerate: 1.8.1
462
+ - Datasets: 3.6.0
463
+ - Tokenizers: 0.21.2
464
+
465
+ ## Citation
466
+
467
+ ### BibTeX
468
+
469
+ #### Sentence Transformers
470
+ ```bibtex
471
+ @inproceedings{reimers-2019-sentence-bert,
472
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
473
+ author = "Reimers, Nils and Gurevych, Iryna",
474
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
475
+ month = "11",
476
+ year = "2019",
477
+ publisher = "Association for Computational Linguistics",
478
+ url = "https://arxiv.org/abs/1908.10084",
479
+ }
480
+ ```
481
+
482
+ #### SpladeLoss
483
+ ```bibtex
484
+ @misc{formal2022distillationhardnegativesampling,
485
+ title={From Distillation to Hard Negative Sampling: Making Sparse Neural IR Models More Effective},
486
+ author={Thibault Formal and Carlos Lassance and Benjamin Piwowarski and Stéphane Clinchant},
487
+ year={2022},
488
+ eprint={2205.04733},
489
+ archivePrefix={arXiv},
490
+ primaryClass={cs.IR},
491
+ url={https://arxiv.org/abs/2205.04733},
492
+ }
493
+ ```
494
+
495
+ #### SparseMultipleNegativesRankingLoss
496
+ ```bibtex
497
+ @misc{henderson2017efficient,
498
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
499
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
500
+ year={2017},
501
+ eprint={1705.00652},
502
+ archivePrefix={arXiv},
503
+ primaryClass={cs.CL}
504
+ }
505
+ ```
506
+
507
+ #### FlopsLoss
508
+ ```bibtex
509
+ @article{paria2020minimizing,
510
+ title={Minimizing flops to learn efficient sparse representations},
511
+ author={Paria, Biswajit and Yeh, Chih-Kuan and Yen, Ian EH and Xu, Ning and Ravikumar, Pradeep and P{'o}czos, Barnab{'a}s},
512
+ journal={arXiv preprint arXiv:2004.05665},
513
+ year={2020}
514
+ }
515
+ ```
516
+
517
+ <!--
518
+ ## Glossary
519
+
520
+ *Clearly define terms in order to be accessible across audiences.*
521
+ -->
522
+
523
+ <!--
524
+ ## Model Card Authors
525
+
526
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
527
+ -->
528
+
529
+ <!--
530
+ ## Model Card Contact
531
+
532
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
533
+ -->
config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "XLMRobertaForMaskedLM"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "eos_token_id": 2,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 768,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 3072,
14
+ "layer_norm_eps": 1e-05,
15
+ "max_position_embeddings": 512,
16
+ "model_type": "xlm-roberta",
17
+ "num_attention_heads": 12,
18
+ "num_hidden_layers": 12,
19
+ "output_past": true,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "torch_dtype": "float32",
23
+ "transformers_version": "4.53.0",
24
+ "type_vocab_size": 1,
25
+ "use_cache": true,
26
+ "vocab_size": 32000
27
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "model_type": "SparseEncoder",
3
+ "__version__": {
4
+ "sentence_transformers": "5.0.0",
5
+ "transformers": "4.53.0",
6
+ "pytorch": "2.6.0+cu124"
7
+ },
8
+ "prompts": {
9
+ "query": "",
10
+ "document": ""
11
+ },
12
+ "default_prompt_name": null,
13
+ "similarity_fn_name": "dot"
14
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:7359e0ee2531abdfb25cdfa29a3eda863eb594687d0ca5c627124d5fb1f2bc64
3
+ size 442624664
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.sparse_encoder.models.MLMTransformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_SpladePooling",
12
+ "type": "sentence_transformers.sparse_encoder.models.SpladePooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 510,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": false,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "model_max_length": 510,
51
+ "pad_token": "<pad>",
52
+ "sep_token": "</s>",
53
+ "tokenizer_class": "XLMRobertaTokenizerFast",
54
+ "unk_token": "<unk>"
55
+ }