Add new SparseEncoder model
Browse files- 1_SpladePooling/config.json +5 -0
- README.md +533 -0
- config.json +27 -0
- config_sentence_transformers.json +14 -0
- model.safetensors +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +51 -0
- tokenizer.json +0 -0
- tokenizer_config.json +55 -0
1_SpladePooling/config.json
ADDED
@@ -0,0 +1,5 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"pooling_strategy": "max",
|
3 |
+
"activation_function": "relu",
|
4 |
+
"word_embedding_dimension": 32000
|
5 |
+
}
|
README.md
ADDED
@@ -0,0 +1,533 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
language:
|
3 |
+
- am
|
4 |
+
license: mit
|
5 |
+
tags:
|
6 |
+
- sentence-transformers
|
7 |
+
- sparse-encoder
|
8 |
+
- sparse
|
9 |
+
- splade
|
10 |
+
- generated_from_trainer
|
11 |
+
- dataset_size:184407
|
12 |
+
- loss:SpladeLoss
|
13 |
+
- loss:SparseMultipleNegativesRankingLoss
|
14 |
+
- loss:FlopsLoss
|
15 |
+
base_model: rasyosef/roberta-base-amharic
|
16 |
+
widget:
|
17 |
+
- text: "ዩቲዩብ ቲክቶክ መሰል መተግበሪያ ሕንድ ውስጥ ሊጀምር ነው\\nዩቲዩብ ሾርትስ የተሰኘ ስም የተሰጠው መተግበሪያ ተንቀሳቃሽ\
|
18 |
+
\ ምስሎች መጋሪያ ነው።\n\nተጠቃሚዎች ከ15 ሰኮንድ የረዘመ ምስል እንዲጭኑ አይፈቀድላቸውም። \n\nመተግበሪያ ከቻይናው\
|
19 |
+
\ ቲክቶክ ጋር ተመሳሳይነት ያለው ቴክኖሎጂ እንደሚጠቀምም ታውቋል። \n\nሕንድ ባለፈው ሰኔ ከቻይና ጋር ድንበር ላይ መጋጨቷን\
|
20 |
+
\ ተከትሎ ቲክቶክ የተሰኘው አነጋጋሪ የተንቀሳቃሽ ምስል መጋሪያ ድር አምባን ጨምሮ ሌሎች 58 መተበግሪያዎችን ማገዷ አይዘነጋም።\
|
21 |
+
\ \n\nበወቅቱ ቲክቶክ ሕንድ ውስጥ በዓለም ትለቁ የተባለ ገበያ ነበረው። የተጠቃሚዎች ቁጥርም 120 ሚሊዮን ገደማ ነበር።\n\
|
22 |
+
\nዩቲዩብ ሕንድ ውስጥ የቲክቶክን ክፍተት ለመሙላት ጥቅም ላይ መዋል ከጀመሩ ሃገር በቀል ድርጅቶችም ፉክክር ይጠብቀዋል። \n\
|
23 |
+
\nየዩቲዩብ ምርቶች ቁጥጥር ምክትል ፕሬዝደንት የሆኑት ክሪስ ጄፍ እንዳሉት ሾርትስ የተሰኘው አዲስ ቴክኖሎጂ ዋና ዓላማው ተጠቃሚዎች\
|
24 |
+
\ ሞባይል ስልካቸውን ብቻ ተጠቅመው አጠር ያሉ ማራኪ ቪድዮዎችን እንዲሠሩ ማመቻቸት ነው። \n\nአዲሱ ቴክኖሎጂ የተለያዩ ካሜራዎችን\
|
25 |
+
\ ተጠቅሞ ቪድዮዎችን መሥራት ያስችላል። \n\nአልፎም ተጠቃሚዎች ከሙዚቃ ቤተ መዘክር የፈለጉትን ሙዚቃ ተጠቅመው መጠቀም እንዲችሉ\
|
26 |
+
\ ያደርጋል። \n\nምክትል ፕሬዝደንቱ ሾርትስ በደንብ እየተሻሻለ ሲመጣ አዳዲስ ቴክኖሎጂዎች ተገጥመውለት ወደ ሌሎች ገበያዎች\
|
27 |
+
\ እንደሚሠራጭ ተናግረዋል። \n\nየአሜሪካው ፕሬዝደንት ዶናልድ ትራምፕ ቻይና ሠራሹ ቲክቶክ ዩናይትድ ስቴትስ ውስጥ እንዳይሠራ\
|
28 |
+
\ አደርጋለሁ ማለታቸውን ተከትሎ በርካታ አማራጮች ወደ ገበያ መምጣት ጀምረዋል። \n\nፕሬዝደንቱ የተጠቃሚዎች ግላዊ መረጃ\
|
29 |
+
\ በቲክቶክ አማይነት ለቻይና መንግሥት ተላልፎ እየተሰጠ ነው ይላሉ። \n\nየሕንድ መንግሥትም ተመሳሳይ ቅሬታ በማቅረብ ነው\
|
30 |
+
\ ቲክቶክን ከጥቅም ውጭ ያደረገው። \n\n"
|
31 |
+
- text: በጃኑዋሪ 1958 እ.ኤ.አ.፣ ሴኔጋልና የፈረንሣይ ሱዳን ተቀላቅለው የማሊ ፌዴሬሽንን መሠረቱ። ይህም ፌዴሬሽን በአፕሪል
|
32 |
+
4፣ 1960 እ.ኤ.አ. ከፈረንሣይ ጋር በተፈረመው የሥልጣን ዝውውር ስምምነት አማካኝ በጁን 20፣ 1960 እ.ኤ.አ. ነጻነቱን
|
33 |
+
አውጀ። በውስጣዊ የፖለቲካ ውዝግቦች ምክኒያት ፌዴሬሽኑ ክሁለት ወር በኋላ ተከፈለ። ሴኔጋልም ነጻነቱን በድጋሚ አውጀ። ሊዎፖልድ
|
34 |
+
ሴንግሆርም የመጀመሪያው ፕሬዘዳንት ሆኖ በኦገስት 1961 እ.ኤ.አ. ተመረጠ። ፕሬዝዳንት ሊዎፖልድ ሴንግሆር ሀገሩን መምራት
|
35 |
+
ከጀመረ በኋላ ከጠቅላይ ሚኒስትሩ ማማዱ ዲያ ጋር ባለው አለመስማማት ምክኒያት በጠቅላይ ሚኒስትሩ የተመራ መፈንቅለ-መንግሥት
|
36 |
+
በዲሴምበር 1962 እ.ኤ.አ. ተካሄደ። ይህ መፈንቅለ-መንግሥት ያለ ደም ፍስሻ የከሸፈ ሲሆን ማማዱ ዲያም ታሰረ። ከዛም ሴኔጋል
|
37 |
+
የፕሬዝዳነንቱን ሥልጣን የሚያጠነክር አዲስ ሕገ-መንግሥት አሳለፈች። በ1980 እ.ኤ.አ. ፕሬዝዳንት ሴንግሆር በራሱ ፍቃድ ከሥልጣኑ
|
38 |
+
የወረደ ሲሆን በ1981 እ.ኤ.ኣ. በራሱ በሊዎፖልድ ሴንግሆር የተመረጠው አብዱ ዲዮፍ ፕሬዝዳንት ሆነ። በፌብሩዋሪ 1፣ 1982
|
39 |
+
እ.ኤ.አ.፣ ሴኔጋል ከጋምቢያ ጋር ተዋሕዳ የሴኔጋምቢያ ኮንፌዴሬሽንን መሠረተች። ከስምንት ዓመት በኋላ ግን በ1989 እ.ኤ.አ.
|
40 |
+
ኮንፌዴሬሽኑ ፈረሰ። ከ1982 እ.ኤ.አ. ጀምሮ በደቡባዊ ሴኔጋል በካሳማንክ አካባቢ የሚገኙ አማጺዎች ከሴኔጋል መንግሥት ጋር
|
41 |
+
በየጊዜው ተጋጭተዋል። ሴኔጋል ዓለም-አቀፍ ሰላም-አስከባሪ ሃይሎችን በመላክ ትታተወቃለች። አብዱ ዲዮፍ ከ1981 እስከ 2000
|
42 |
+
እ.ኤ.አ. ድረስ ፕሬዝዳንት ነበረ። በሥልጣን ጊዜው አብዱ የፖለቲካ ተሳትፎን አበረታትቷል፣ መንግሥቱ በኤኮኖሚው ላይ ያለውን
|
43 |
+
ቁጥጥር አሳንሷል፣ እና ሴኔጋል ክውጭ በተለይም ከታዳጊ ሀገሮች ጋር ያላትን የዲፕሎማሲ ግንኙነቶችን አጠናክሯል። አብዱ ለአራት
|
44 |
+
የሥራ-ጊዜዎች ፕሬዝዳንት ሆኖ አገልግሏል። በ2000 እ.ኤ.አ. በዓለም-አቀፍ ታዛቢዎች ነጻና ዲሞክራሲያዊ በተባለ ምርጫ የአብዱ
|
45 |
+
ዲዮፍ ተቀናቃኝ አብዱላይ ዋዲ አሸንፎ ፕሬዝዳንት ሆኗል። ወደ ውጭ አገር የሚላኩ ሸቀጦች በተለይ አሣ፣ ጥጥ፣ ጨርቅ፣ ባምባራ
|
46 |
+
ለውዝ (Vignea subterranea)፣ ካልሲየም ፎስፌት ናቸው። ሴኔጋል ፕሬዝዳንታዊ ሪፐብሊክ ናት። ከ2001 እ.ኤ.አ.
|
47 |
+
ጀምሮ ፕሬዝዳንቷ በየአምስት ዓመት የሚመረጥ ሲሆን ከዛ በፊት ደግሞ በየሰባት ዓመት ነበር። ያሁኑ ፕሬዝዳንት አብዱላዬ ዋዴ
|
48 |
+
ሲሆኑ በማርች 2007 እ.ኤ.አ. እንደገና ተመርጠዋል።
|
49 |
+
- text: 'በዩናይትድ ስቴትስ የሚደገፉት የሶሪያ ዲሞክራሲያዊ ኃይሎች ዛሬ ማክሰኞ ባወጡት መግለጫ ከሶሪያዋ ራካ ከተማ “የእስልምና
|
50 |
+
መንግሥት” ብሎ ራሱን በሚጠራው ቡድን ቁጥጥር ሥር የነበሩትን የመጨረሻዎቹን ይዞታዎች አስለቅቀው መቆጣጠራቸውን አስታወቁ።በኩሮዶችና
|
51 |
+
በአረብ ሚሊሺያዎች የተዋቀረው የሶሪያ ዲሞክራሲያዊ ኃይሎች ቃል አቀባይ ለጋዜጠኞች በሰጡት ቃል የራካው ውጊያ ተጠናቋል ብለዋል።ብሪታንያ
|
52 |
+
የሚገኘው የሶሪያ ሰብዓዊ መብቶች ቅኝት አካልም ራካ ነፃ ወጥታለች ሲል አስታውቋል።የዲምክራሲያዊ ኃይሎቹ ተዋጊዎች የእስልምና
|
53 |
+
መንግሥት የዕዝ ማዕከል ሆኖ ሲያገለግል የነበረውን አንድ ሆስፒታል ከተቆጣጠሩ በኋላ በከተማዋ የቡድኑ ዋና ሰፈር የነበረውን
|
54 |
+
የኳስ ሜዳ ይዘውታል።የእስልምና መንግሥት ተዋጊዎችን ከራካ የማስወጣት ጥቃቱ በዩናይትድ ስቴትስ በሚመራው ሕብረት የአየር ጥቃትና
|
55 |
+
ሌላም ድጋፍ እየታገዘ የተጀመረው ባለፈው ሰኔ ወር እንደነበር ይታወሳል።ራካ ዘጠና ከመቶ በሶሪያ ዲሞክራሲያዊ ኃይሎች እጅ መግባቷን
|
56 |
+
የዩናይትድ ስቴትስ መራሹ ሕብረት ቃል ኣአቀባይ ራያን ዲለን ተናግረዋል። '
|
57 |
+
- text: በኦሮሚያ ክልል ለሚገኙ ታማኝ ግብር ከፋይ ባለሀብቶች እውቅና ተሰጠ
|
58 |
+
- text: ሱዳን ከኢትዮጵያ ጋር የሚያወዛግባትን መሬት እንደማትለቅ አስታወቀች
|
59 |
+
pipeline_tag: feature-extraction
|
60 |
+
library_name: sentence-transformers
|
61 |
+
metrics:
|
62 |
+
- dot_accuracy@1
|
63 |
+
- dot_accuracy@3
|
64 |
+
- dot_accuracy@5
|
65 |
+
- dot_accuracy@10
|
66 |
+
- dot_precision@1
|
67 |
+
- dot_precision@3
|
68 |
+
- dot_precision@5
|
69 |
+
- dot_precision@10
|
70 |
+
- dot_recall@1
|
71 |
+
- dot_recall@3
|
72 |
+
- dot_recall@5
|
73 |
+
- dot_recall@10
|
74 |
+
- dot_ndcg@10
|
75 |
+
- dot_mrr@10
|
76 |
+
- dot_map@100
|
77 |
+
- query_active_dims
|
78 |
+
- query_sparsity_ratio
|
79 |
+
- corpus_active_dims
|
80 |
+
- corpus_sparsity_ratio
|
81 |
+
model-index:
|
82 |
+
- name: SPLADE-RoBERTa-Amharic-Base
|
83 |
+
results:
|
84 |
+
- task:
|
85 |
+
type: sparse-information-retrieval
|
86 |
+
name: Sparse Information Retrieval
|
87 |
+
dataset:
|
88 |
+
name: Unknown
|
89 |
+
type: unknown
|
90 |
+
metrics:
|
91 |
+
- type: dot_accuracy@1
|
92 |
+
value: 0.6625659050966608
|
93 |
+
name: Dot Accuracy@1
|
94 |
+
- type: dot_accuracy@3
|
95 |
+
value: 0.8331868775629759
|
96 |
+
name: Dot Accuracy@3
|
97 |
+
- type: dot_accuracy@5
|
98 |
+
value: 0.8725834797891037
|
99 |
+
name: Dot Accuracy@5
|
100 |
+
- type: dot_accuracy@10
|
101 |
+
value: 0.9111013473930872
|
102 |
+
name: Dot Accuracy@10
|
103 |
+
- type: dot_precision@1
|
104 |
+
value: 0.6625659050966608
|
105 |
+
name: Dot Precision@1
|
106 |
+
- type: dot_precision@3
|
107 |
+
value: 0.27772895918765866
|
108 |
+
name: Dot Precision@3
|
109 |
+
- type: dot_precision@5
|
110 |
+
value: 0.1745166959578207
|
111 |
+
name: Dot Precision@5
|
112 |
+
- type: dot_precision@10
|
113 |
+
value: 0.09111013473930872
|
114 |
+
name: Dot Precision@10
|
115 |
+
- type: dot_recall@1
|
116 |
+
value: 0.6625659050966608
|
117 |
+
name: Dot Recall@1
|
118 |
+
- type: dot_recall@3
|
119 |
+
value: 0.8331868775629759
|
120 |
+
name: Dot Recall@3
|
121 |
+
- type: dot_recall@5
|
122 |
+
value: 0.8725834797891037
|
123 |
+
name: Dot Recall@5
|
124 |
+
- type: dot_recall@10
|
125 |
+
value: 0.9111013473930872
|
126 |
+
name: Dot Recall@10
|
127 |
+
- type: dot_ndcg@10
|
128 |
+
value: 0.793323433202864
|
129 |
+
name: Dot Ndcg@10
|
130 |
+
- type: dot_mrr@10
|
131 |
+
value: 0.7548727927023166
|
132 |
+
name: Dot Mrr@10
|
133 |
+
- type: dot_map@100
|
134 |
+
value: 0.7575361502469213
|
135 |
+
name: Dot Map@100
|
136 |
+
- type: query_active_dims
|
137 |
+
value: 144.32879638671875
|
138 |
+
name: Query Active Dims
|
139 |
+
- type: query_sparsity_ratio
|
140 |
+
value: 0.995489725112915
|
141 |
+
name: Query Sparsity Ratio
|
142 |
+
- type: corpus_active_dims
|
143 |
+
value: 310.48967695411466
|
144 |
+
name: Corpus Active Dims
|
145 |
+
- type: corpus_sparsity_ratio
|
146 |
+
value: 0.9902971975951841
|
147 |
+
name: Corpus Sparsity Ratio
|
148 |
+
---
|
149 |
+
|
150 |
+
# SPLADE-RoBERTa-Amharic-Base
|
151 |
+
|
152 |
+
This is a [SPLADE Sparse Encoder](https://www.sbert.net/docs/sparse_encoder/usage/usage.html) model finetuned from [rasyosef/roberta-base-amharic](https://huggingface.co/rasyosef/roberta-base-amharic) using the [sentence-transformers](https://www.SBERT.net) library. It maps sentences & paragraphs to a 32000-dimensional sparse vector space and can be used for semantic search and sparse retrieval.
|
153 |
+
## Model Details
|
154 |
+
|
155 |
+
### Model Description
|
156 |
+
- **Model Type:** SPLADE Sparse Encoder
|
157 |
+
- **Base model:** [rasyosef/roberta-base-amharic](https://huggingface.co/rasyosef/roberta-base-amharic) <!-- at revision b1a3d2c267262e2b82c83be9d4e59db762a5e931 -->
|
158 |
+
- **Maximum Sequence Length:** 510 tokens
|
159 |
+
- **Output Dimensionality:** 32000 dimensions
|
160 |
+
- **Similarity Function:** Dot Product
|
161 |
+
<!-- - **Training Dataset:** Unknown -->
|
162 |
+
- **Language:** am
|
163 |
+
- **License:** mit
|
164 |
+
|
165 |
+
### Model Sources
|
166 |
+
|
167 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
168 |
+
- **Documentation:** [Sparse Encoder Documentation](https://www.sbert.net/docs/sparse_encoder/usage/usage.html)
|
169 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
170 |
+
- **Hugging Face:** [Sparse Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=sparse-encoder)
|
171 |
+
|
172 |
+
### Full Model Architecture
|
173 |
+
|
174 |
+
```
|
175 |
+
SparseEncoder(
|
176 |
+
(0): MLMTransformer({'max_seq_length': 510, 'do_lower_case': False, 'architecture': 'XLMRobertaForMaskedLM'})
|
177 |
+
(1): SpladePooling({'pooling_strategy': 'max', 'activation_function': 'relu', 'word_embedding_dimension': 32000})
|
178 |
+
)
|
179 |
+
```
|
180 |
+
|
181 |
+
## Usage
|
182 |
+
|
183 |
+
### Direct Usage (Sentence Transformers)
|
184 |
+
|
185 |
+
First install the Sentence Transformers library:
|
186 |
+
|
187 |
+
```bash
|
188 |
+
pip install -U sentence-transformers
|
189 |
+
```
|
190 |
+
|
191 |
+
Then you can load this model and run inference.
|
192 |
+
```python
|
193 |
+
from sentence_transformers import SparseEncoder
|
194 |
+
|
195 |
+
# Download from the 🤗 Hub
|
196 |
+
model = SparseEncoder("rasyosef/SPLADE-RoBERTa-Amharic-Base")
|
197 |
+
# Run inference
|
198 |
+
sentences = [
|
199 |
+
'ሱዳን ከኢትዮጵያ ጋር የሚያወዛግባትን መሬት እንደማትለቅ አስታወቀች',
|
200 |
+
'የሱዳኑ ሱና ከፍተኛ የመከላከያ ኃላፊን ጠቅሶ፤ ሱዳን በምዕራባዊ ድንበሯ ላይ የሚገኘውንና ከኢትዮጵያ ጋር ያወዛግባት የነበረውን መሬት እንደማትመልስ ዘግቧል።\n\n"ሱዳን ከአልፋሻጋ ይዞታ ቅንጣት ታህል እንደማትሰጥ ሜጀር ጀነራል ሀይደር አልቲራፊ አረጋግጠዋል። ለወታደራዊ ኃይል ምልመላ እየተደረገ መሆኑንም ተናግረዋል" ይላል የመንግሥታዊው ሱና ዘገባ።\n\nኢትዮጵያ በበኩሏ አለመግባባቱን በድርድር ለመፍታት ሱዳን የያዘችውን መሬት እንድትለቅ እንደ ቅድመ ሁኔታ አስቀምጣለች። \n\nየሱዳኑ ጄነራል ግን አልገዳሪፍ ውስጥ ፋላታ ከተባለው ጎሳ ድጋፍ በተቀበሉበት ወቅት ባደረጉት ንግግር "ሁሉም ዜጎች ልጆቻቸው ወታደራዊ ኃይሉን ተቀላቅለው የአገራቸውን ዳር ድንበርና ክብር እንዲያስጠብቁ እንዲያነሳሱ እጠይቃለሁ" ብለዋል።\n\nየሱዳን ወታደራዊ ኃይል ድንበር ላይ ያለውን ቀጠና ለማሳደግ የመንገድና የድልድይ ግንባታ ላይ እንደተሰማራ ተናግረዋል። "በቀጠናው የአገልግሎት ዘርፍ በመገንባት እንቅስቃሴን ምቹ ለማድረግም እየሠሩ ነው" ሲሉ አክለዋል።\n\nየኢትዮጵያ የውጪ ጉዳይ ሚንስትር ቃል አቀባይ ዲና ሙፍቲ፤ ከቀናት በፊት በሰጡት መግለጫ ሱዳን ወደቀደመ ይዞታዋ ካልተመለሰች ለድርድር መቀመጥ እንደማይቻል ተናግረዋል።\n\nሱዳን የኢትዮጵያን ድንበር አልፋ እንድትጠብቅም ሆነ መሬት እንድትይዝ የተደረሰ ስምምነት እንደሌለም ቃል አቀባዩ አምባሳደር ዲና መናገራቸው ይታወሳል።\n\nሱዳን የያዘችውን መሬት እንድትለቅ ኢትዮጵያ በቅድመ ሁኔታ ማስቀመጧንና ይህ ከተሳካ ሁለቱ አገራት በዋናነትም ችግራቸውን ተነጋግረው መፍታት እንደሚችሉም ���ስረድተዋል።\n\nሱዳን እና ኢትዮጵያን የሚያወዛግበው አልፋሽጋ የግብርና ሥራ እየተከናወነበት የሚገኝ ሲሆን፤ ባሳለፍነው ጥቅምት ሱዳን አካባቢውን ሙሉ በሙሉ እንደምትቆጣጠር አስታውቃለች።\n\nይህም ከኢትዮጵያ ጋር የሚያወዛግባትንና በኢትዮጵያ ሚሊሻ ተይዞ የነበረውን የድንበር አካባባቢ ይጠቀልላል።\n\n ',
|
201 |
+
'ትግራይ፡ ጦርነቱን ተከትሎ ከ6ሺህ በላይ ኢትዮጵያውያን ወደ ሱዳን ሸሽተዋል\\nየሱዳን ባለስልጣናት በቀጣይ ቀናት እስከ 200 ሺህ ኢትዮጵያውን ድንበር ተሻግረው ወደ ሱዳን ሊገቡ እንደሚችሉ ጠቁመዋል። \n\nጠቅላይ ሚንስትር ዐብይ የትግራይ ልዩ ኃይል በአገር መከላከያ ሠራዊት ሰሜን እዝ ላይ ጥቃት ሰንዝሯል ካሉ በኋላ የአገር መከላከያ ሠራዊት እርምጃ እንዲወስድ ማዘዛቸው ይታወሳል። \n\nሮይተርስ የዜና ወኪል በዘገባው ወደ ሱዳን ድንበር የተሻገሩት ስደተኞች ሲቪል ወይም ወታደራዊ ይሁኑ ያለው ነገር የለም። \n\nየስደተኞቹ ቁጥር ትናንት ማክሰኞ 6ሺህ መድረሱን የሱዳን የስደተኞች ኮሚሽን ገልጾ ቁጥሩ ከዚህም ሊለቅ እንደሚችል ስጋቱን አስቀምጧል። \n\nሮይተርስ የአገሬውን የዜና አገልግሎት ጠቅሶ እንደዘገበው 6ሺህ የሚሆኑ ስደተኞች ወደ ሱዳን የዘለቁት ሉቅዲ፣ ቁዳይማህ እና ሐምዳይት በተባሉ የሱዳን ድንበር አካባቢዎች በኩል ነው። ሌሎች በርካታ ስደተኞችም በአትባራ ወንዝ ዳርቻ ወደ ሱዳን ለመሻገር በመጠባበቅ ላይ ናቸው።\n\nሮይተርስ የሱዳን ዜና አገልግሎትን ጠቅሶ ከቀናት በፊት እንደዘገበው ደግሞ የጦርነቱን ማገርሸት ተከትሎ የሱዳን መንግሥት ከኢትዮጵያ ጋር የሚያዋስነውን ድንበር በከፊል እንደዘጋ ጽፎ ነበር።\n\nየሱዳን ዜና አገልግሎት እንደሚለው በምሥራቅ ሱዳን አል ቃዳሪፍ ክልል የሚገኘው አስተዳደር ከአማራና ትግራይ የሚያገናኙትን አዋሳኝ ድንበሮችን ላልተወሰነ ጊዜ ዘግቷል።\n\nየዜና አገልግሎቱ ዘገባ እንዳተተው በሱዳን በኩል ሁለቱን የኢትዮጵያ ክልሎች በሚያዋስኑ ግዛቶች አሁን ምርት የመሰብሰቢያ ወቅት ስለሆነ የጦርነቱ ዳፋ የስደተኛ ጎርፍ አስከትሎ ገበሬዎችና ማሳቸው ላይ ችግር ሊፈጥር ይችላል።\n\nበጎረቤት አገር የሚደረገው ጦርነት ያሳሰበው የሱዳን መንግሥት የደኅንነትና ጸጥታ ጉዳዮች ምክር ቤት ባለፈው ማክሰኞ ልዩ ስብሰባ መቀመጡንና በጉዳዩ ዙርያ መምከሩም ተዘግቧል።\n\nየሱዳን የመከላከያ ሚኒስትር ያሲን ኢብራሂም ይህን ስብሰባ ተከትሎ እንዳሉት በጎረቤት አገር ኢትዮያ ያለውን ሁኔታ በአንክሮ እየተከታተሉት እንደሆነና ሁለቱም ተዋጊ ወገኖች ወደ ሰላምና መረጋጋት እንዲመለሱ ማሳሰባቸውን ሱዳን ትሪቡን ዘግቧል።\n\nየሱዳን ጠቅላይ ሚኒስተር ቢሮ እንደገለጠው አብደላ ሐምዱክ ለኢትዮጵያ አቻቸው ዐቢይ አሕመድ አራት ጊዜ ያህል እንደደወሉላቸውና ከህወሓት ጋር ለድርድር ዝግጁ እንዲሆኑ እንደወተወቷቸው ይኸው ጋዜጣ ዘግቧል።\n\nአቶ ገዱ በሱዳን\n\nይህ በአንዲህ እንዳለ የኢፊዲሪ የውጭ ጉዳይ ሚኒስትር የነበሩትና በቅርቡ የጠቅላይ ሚኒስትር የብሔራዊ ደኅንነት አማካሪ ሚኒስትር ተደርገው የተመደቡት አቶ ገዱ አንዳጋቸው ሱዳን ገብተዋል ሲሉ የመንግሥት መገናኛ ብዙኃን ዘግበዋል።\n\nአቶ ገዱ ወደ ካርቱም ያቀኑት ከጠቅላይ ሚኒስትር ዐቢይ አህመድ የተላከ መልዕክት ለሱዳን ሉዓላዊ ምክር ቤት ፕሬዚዳንት ለሌትናልት ጄኔራል አብዱልፈታህ አልቡርሃን እና ለሱዳን ጠቅላይ ሚኒስትር አብደላህ ሀምዶክ ለማድረስ ነው።\n\nአቶ ገዱ ከሌትናልት ጄኔራል አብዱልፈታህ አልቡርሃን እና ጠቅላይ ሚኒስትር አብደላህ ሀምዶክ በኢትዮጵያ ወቅታዊ ሁኔታ ዙርያ መነጋገራቸውም ተዘግቧል።\n\n',
|
202 |
+
]
|
203 |
+
embeddings = model.encode(sentences)
|
204 |
+
print(embeddings.shape)
|
205 |
+
# [3, 32000]
|
206 |
+
|
207 |
+
# Get the similarity scores for the embeddings
|
208 |
+
similarities = model.similarity(embeddings, embeddings)
|
209 |
+
print(similarities)
|
210 |
+
# tensor([[ 56.5779, 44.1052, 12.5016],
|
211 |
+
# [ 44.1052, 107.3544, 17.8198],
|
212 |
+
# [ 12.5016, 17.8198, 82.5939]])
|
213 |
+
```
|
214 |
+
|
215 |
+
<!--
|
216 |
+
### Direct Usage (Transformers)
|
217 |
+
|
218 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
219 |
+
|
220 |
+
</details>
|
221 |
+
-->
|
222 |
+
|
223 |
+
<!--
|
224 |
+
### Downstream Usage (Sentence Transformers)
|
225 |
+
|
226 |
+
You can finetune this model on your own dataset.
|
227 |
+
|
228 |
+
<details><summary>Click to expand</summary>
|
229 |
+
|
230 |
+
</details>
|
231 |
+
-->
|
232 |
+
|
233 |
+
<!--
|
234 |
+
### Out-of-Scope Use
|
235 |
+
|
236 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
237 |
+
-->
|
238 |
+
|
239 |
+
## Evaluation
|
240 |
+
|
241 |
+
### Metrics
|
242 |
+
|
243 |
+
#### Sparse Information Retrieval
|
244 |
+
|
245 |
+
* Evaluated with [<code>SparseInformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sparse_encoder/evaluation.html#sentence_transformers.sparse_encoder.evaluation.SparseInformationRetrievalEvaluator)
|
246 |
+
|
247 |
+
| Metric | Value |
|
248 |
+
|:----------------------|:-----------|
|
249 |
+
| dot_accuracy@1 | 0.6626 |
|
250 |
+
| dot_accuracy@3 | 0.8332 |
|
251 |
+
| dot_accuracy@5 | 0.8726 |
|
252 |
+
| dot_accuracy@10 | 0.9111 |
|
253 |
+
| dot_precision@1 | 0.6626 |
|
254 |
+
| dot_precision@3 | 0.2777 |
|
255 |
+
| dot_precision@5 | 0.1745 |
|
256 |
+
| dot_precision@10 | 0.0911 |
|
257 |
+
| dot_recall@1 | 0.6626 |
|
258 |
+
| dot_recall@3 | 0.8332 |
|
259 |
+
| dot_recall@5 | 0.8726 |
|
260 |
+
| dot_recall@10 | 0.9111 |
|
261 |
+
| **dot_ndcg@10** | **0.7933** |
|
262 |
+
| dot_mrr@10 | 0.7549 |
|
263 |
+
| dot_map@100 | 0.7575 |
|
264 |
+
| query_active_dims | 144.3288 |
|
265 |
+
| query_sparsity_ratio | 0.9955 |
|
266 |
+
| corpus_active_dims | 310.4897 |
|
267 |
+
| corpus_sparsity_ratio | 0.9903 |
|
268 |
+
|
269 |
+
<!--
|
270 |
+
## Bias, Risks and Limitations
|
271 |
+
|
272 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
273 |
+
-->
|
274 |
+
|
275 |
+
<!--
|
276 |
+
### Recommendations
|
277 |
+
|
278 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
279 |
+
-->
|
280 |
+
|
281 |
+
## Training Details
|
282 |
+
|
283 |
+
### Training Dataset
|
284 |
+
|
285 |
+
#### Unnamed Dataset
|
286 |
+
|
287 |
+
* Size: 184,407 training samples
|
288 |
+
* Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
|
289 |
+
* Approximate statistics based on the first 1000 samples:
|
290 |
+
| | anchor | positive | negative |
|
291 |
+
|:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
292 |
+
| type | string | string | string |
|
293 |
+
| details | <ul><li>min: 3 tokens</li><li>mean: 15.91 tokens</li><li>max: 81 tokens</li></ul> | <ul><li>min: 31 tokens</li><li>mean: 320.35 tokens</li><li>max: 510 tokens</li></ul> | <ul><li>min: 41 tokens</li><li>mean: 329.89 tokens</li><li>max: 510 tokens</li></ul> |
|
294 |
+
* Samples:
|
295 |
+
| anchor | positive | negative |
|
296 |
+
|:-------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
297 |
+
| <code>ነገረ ግራኝ ወፍጻሜ ሞቱ</code> | <code>ነገር ግራኝ ወፍጻሜ ሞቱ በ19ኛው ክፍለ ዘመን የተደረሰ መጽሐፍ ሲሆን ግራኝ አህመድ በዓፄ ልብነ ድንግል መታበይ ምክንያት አገሪቱን ለመቅጣት የመጣ ሃይል አድርጎ የሚያቀርብ ጽሑፍ ነው። <br><br> ልብነ ድንግል<br> ግራኝ አህመድ<br> የኢትዮጵያ ታሪክ<br> 19ኛ ክፍለ ዘመን አማርኛ ሥነ ጽሑፍ</code> | <code>ልዑል ራስ መኮንን የንጉሠ ነገሥቱ ዳግማዊ ምኒልክ ተወካይ ሆነው ሁለት ጊዜ የአውሮፓን አገሮች ጎብኝተዋል። በዚህ ጊዜ እሳቸው ኢጣሊያን ሲጎበኙ በነበረ ጊዜ የኢጣሊያ ጋዘጦች የውጫሌ ውልን በተመለከተ፤ «...በውጫሌ ውል ላይ ኢትዮጵያ የኢጣሊያን ጥገኝነት ተቀብላ ውል ከፈረመች በኋላ የጀርመን ንጉሠ ነገሥት ከኢትዮጵያ የሚላከውን ማንኛውንም ደብዳቤም ሆን ጉዳይ በኢጣሊያ መንግሥት በኩል መቀበል ሲገባቸው በቀጥታ ከምኒልክ የተጻፈውን ደብዳቤ ተቀብለዋል...» እያሉ የጻፉትን ራስ መኮንን ተቃውሞአቸውን ለኢጣሊያ መንግሥት ከነገሩ በኋላ ወደ ኢትዮጵያ ሲመለሱ የውሉን መበላሸት ለአጤ ምኒልክ አሳወቁ። ከኢጣሊያንም ጋር በተደረገውም ጦርነት ራስ መኮንን ፲፭ ሺህ እግረኛ ወታደሮች ይዘው ከምኒልክ እና ታላላቅ ጦር አዛዦች ጋር ዘምተዋል። በ፲፰፻፺፰ ዓ.ም መጀመሪያ ላይ በብርቱ ስለታመሙ ለኅክምና ወደ አዲስ አበባ ለመሄድ ጥር ፬ ቀን ከከተማቸው ከሐረር ተነሱ። ጥር ፱ቀን ቡርቃ ወንዝ አድረው የጥምቀትን በዓል አክብረው ከዋሉ በኋላ ሕመሙ ስለጸናባቸው ወደ ኋላ ተመልሰው ቁልቢ ገብተው በሐኪም ይታከሙ ጀመር። እዚሁም ሲታመሙ ከቆዩ በኋላ መጋቢት ፲፫ ቀን ፲፰፻፺፰ ዓ.ም ቁልቢ ላይ አርፈው ሐረር ላይ እሳቸው በተከሉት በቅዱስ ሚካኤል ቤተ ክርስቲያን ተቀበሩ። ዐፄ ምኒልክም የአርባቸው ለቅሶ የሚለቀሰው አዲስ አበባ እንዲሆን ባዘዙት መሠረት፤ ሰኞ ሚያዝያ ፳፪ ቀን በአዲስ አበባና በዙሪያው ያሉት የየገዳማቱና የየአድባራቱ ካህናት የክርስቲያን የፍታት ጸሎት ተድርጎ በማግስቱም ማክሰኞ የጊዮርጊስ ዕለት ሚያዝያ ፳፫ቀን ፲፰፻፺፰ ዓ.ም በሰኢ ሜዳ ላይ ድንኳን ተተክሎ፤ መኳንንቱና ሠራዊቱ ተሰብስቦ የራስ መኮንን የማዕረግ ልብሳቸውና የራስ ወርቃቸው፤ ኒሻኖቻቸውና የጦር መሳሪያቸው ተይዞ ፈረስና ...</code> |
|
298 |
+
| <code>ምርጫ ቦርድ ለመኢአድና ለአንድነት የሰጠው ቀነ ገደብ አለቀ</code> | <code>መኢአድ እና አንድነት ለዴሞክራሲና ለፍትሕ ፓርቲ “የመተዳደሪያ ደንቦቻቸውን የጣሱ የአመራር ምርጫዎች አካሂደዋል” ያለው የኢትዮጵያ ብሔራዊ ምርጫ ቦርድ “የውስጥ ችግሮቻችሁን ፍቱ” በሚል ለሁለቱ ፓርቲዎች የሰጠው የሁለት ሣምንታት ቀነ ገደብ ማክሰኞ፤ ጥር 19/2007 ዓ.ም ተጠናቅቋል፡፡ሁለቱ ፓርቲዎች በተደጋጋሚ በሰጧቸው መግለጫዎች ምርጫ ቦርድ በውስጥ ጉዳያችን ጣልቃ እየገባ ነው ሲሉ ስሞታ አሰምተዋል፡፡የቀነ ገደቡን መጠናቀቅ አስመልክቶ እስክንድር ፍሬው የኢትዮጵያ ምርጫ ቦርድን የሕዝብ ግንኙነት ዳይሬክተር አቶ ደምሰው በንቲን በስልክ አነጋግሯል፡፡የተያያዘውን የድምፅ ፋይል ያዳምጡ፡፡</code> | <code>የምርጫ ቦርዱ የምርጫው የጊዜ ሰሌዳን አስመልክቶ ባስቀመጠው መረጃ መሰረት ከታህሳስ 16-ጥር 16፣ 2013 ዓ.ም የምርጫ ክልል ቢሮዎችን መክፈት፣ እንዲሁም ከጥር 24- የካቲት 21 2013 ዓ.ም ለምርጫ አስፈፃሚዎች ስልጠና ለመራጮች ምዝገባ የሚከናወን ይሆናል።<br><br>በዚህም የጊዜ ሰሌዳ መሰረት በተለያዩ ክልሎች የሚገኙ የምርጫ ቢሮዎች ለመክፈት የሚያስፈልገው ትብብርን ማግኘት እንዳልቻለ ቅሬታውን አቅርቧል።<br><br>በአሁኑም ወቅት ለምርጫ ክልል እና ለዞን ማስተባበሪያ ጽ/ቤት ሊያገለግሉ የሚችሉ ቢሮዎችን አምስት ክልሎች ሙሉ በሙሉ ማሟላት አልተቻለም ብሏል። እነዚህም የተጠቀሱት ክልሎች አፋር፣ አማራ፣ ሲዳማ፣ ደቡብ ብሔሮች፣ ብሔረሰቦች እና ሕዝቦች፣ ሶማሌ ክልል ሲሆኑ እነዚህም ክልሎች የተጠየቁትን በሙሉ እስከ የካቲት 5፣ 2013 ዓ.ም ማጠናቀቅ አለባቸው ሲል አሳስቧል።<br><br>ብሔራዊ ምርጫ ቦርዱ ጥር 10፣ 2013 ባወጣው መግለጫ ከክልሎች እና የከተማ መስተዳድሮች የሚያስፈልገው ትብብር ባለመሟላቱ የምርጫ ክልል ቢሮዎችን ለመክፈት ዝግጅት ማድረግ እንዳልቻለ ባስታወቀው መሰረት ከፍተኛ መሻሻሎች ታይተዋል ብሏል።<br><br>በዚህም መሰረት አዲስ አበባና ድሬዳዋ መስተዳድሮች፣ ቤኒሻንጉል ጉሙዝ፣ ኦሮሚያ፣ ሐረሪ ክልሎች ለምርጫ ክልልና ለዞን ማስተባበሪያ ፅህፈት ቤት የሚያስፈልጉትን ቢሮዎች በማዘጋጀት ለቦርዱ ማስታወቃቸው ተገልጿል። <br><br>በእነዚህ ቢሮዎችን ባሟሉ ቦታዎች የምርጫ ጊዜ ሰሌዳው በሚያዘው መሰረት ከየካቲት 08-21፣ 2013 ዓ.ም የዕጩ ምዝገባ የሚካሄድ ሲሆን በቀሪዎቹ ደግሞ ሙሉ ለሙሉ አሟልተው ሲያቀርቡ ምዝገባው እንደሚጀመር አስታውቋል።<br><br>ከዚህም በተጨማሪ የኢትዮጵያ ብሔራዊ ምርጫ ቦርድ ግንቦት 28፣ 2013 ዓ.ም ለሚደረገው ምርጫ የመራጮች ትምህርት ለማስተማር ዕውቅና ለተሰጣቸው...</code> |
|
299 |
+
| <code>ሁሉም ኢትዮጵያዊ በፈለገበት ቦታ የሚኖርባትን ሀገር መገንባት አማራጭ የሌለው ሥራቸው መሆኑን የአማራ ክልል እና የወላይታ ዞን የሥራ ኃላፊዎች ተናገሩ።</code> | <code>ባሕር ዳር፡ መስከረም 19/2012 ዓ/ም (አብመድ) ከኅብረተሰቡ ጋር ያላቸው መልካም ትስስር ግጭት ለሚፈጥሩትና ኢትዮጵያ የጋራ መሆኗ ላልገባቸው ምሳሌ እንደሚሆን በወላይታ የሚኖሩ አማራዎች ተናገሩ፡፡በ “ጊፋታ” (የወላይታ ብሄር ዘመን መለወጫ በዓል) ላይ ከተለያዩ የኢትዮጵያ አካባቢዎች እንግዶች ታድመዋል፡፡ ከታዳሚዎች መካከል የአማራ ክልል የመንግሥት የሥራ ኃላፊዎች ልዑክ ይገኝበታል።</code> | <code>ባሕር ዳር፡ መስከረም 13/2013ዓ.ም (አብመድ) ከሰሞኑ በቤኔሻንጉል ጉሙዝ ክልል መተከል ዞን በተፈጠረ የፀጥታ ችግር የተሳተፉ አካላት ላይ ርምጃ የመውሰድ ተግባሩ ተጠናክሮ መቀጠሉን የክልሉ ሰላም ግንባታና ፀጥታ ቢሮ አስታወቀ፡፡ ቢሮው የታላቁ የኢትዮጵያ ሕዳሴ ግድብ መገኛ በመሆኑ የመላው ኢትዮጵያውያን ዓይን እና ጆሮ ወደ ክልሉ መሆኑን ቢሮው አስታውሷል፡፡ በመተከል ዞን በርካታ ብሔር ብሔረሰቦች እና ሕዝቦች በወንድማማችነት ለዘመናተ አብረው መኖራቸውንም አመላክቷል፡፡በመተከል ዞን የአማራ፣ የአገው፣ የሽናሻ፣ የጉሙዝ፣ የኦሮሞ እና ሌሎችም ብሔረሰቦች ዘመናትን አብረው አሳልፈዋል፡፡ ክፉ ጊዜን በመተባበር ማሳለፋቸው እና ደስታቸውን በጋራ መካፈላቸውም ለዓመታት ብዝኃነት ጎልቶ እንዲወጣ አድርጎታል፡፡ ሕዝቦች መካከል ምንም ችግር አለመፈጠሩን በማንሳትም አሁንም በተለመደው አብሮነታቸው እየኖሩ መሆኑን አስታውቋል፡፡</code> |
|
300 |
+
* Loss: [<code>SpladeLoss</code>](https://sbert.net/docs/package_reference/sparse_encoder/losses.html#spladeloss) with these parameters:
|
301 |
+
```json
|
302 |
+
{
|
303 |
+
"loss": "SparseMultipleNegativesRankingLoss(scale=1.0, similarity_fct='dot_score')",
|
304 |
+
"document_regularizer_weight": 0.0003,
|
305 |
+
"query_regularizer_weight": 0.0005
|
306 |
+
}
|
307 |
+
```
|
308 |
+
|
309 |
+
### Training Hyperparameters
|
310 |
+
#### Non-Default Hyperparameters
|
311 |
+
|
312 |
+
- `eval_strategy`: epoch
|
313 |
+
- `per_device_train_batch_size`: 32
|
314 |
+
- `per_device_eval_batch_size`: 32
|
315 |
+
- `learning_rate`: 6e-05
|
316 |
+
- `num_train_epochs`: 4
|
317 |
+
- `lr_scheduler_type`: cosine
|
318 |
+
- `warmup_ratio`: 0.05
|
319 |
+
- `fp16`: True
|
320 |
+
- `optim`: adamw_torch_fused
|
321 |
+
- `batch_sampler`: no_duplicates
|
322 |
+
|
323 |
+
#### All Hyperparameters
|
324 |
+
<details><summary>Click to expand</summary>
|
325 |
+
|
326 |
+
- `overwrite_output_dir`: False
|
327 |
+
- `do_predict`: False
|
328 |
+
- `eval_strategy`: epoch
|
329 |
+
- `prediction_loss_only`: True
|
330 |
+
- `per_device_train_batch_size`: 32
|
331 |
+
- `per_device_eval_batch_size`: 32
|
332 |
+
- `per_gpu_train_batch_size`: None
|
333 |
+
- `per_gpu_eval_batch_size`: None
|
334 |
+
- `gradient_accumulation_steps`: 1
|
335 |
+
- `eval_accumulation_steps`: None
|
336 |
+
- `torch_empty_cache_steps`: None
|
337 |
+
- `learning_rate`: 6e-05
|
338 |
+
- `weight_decay`: 0.0
|
339 |
+
- `adam_beta1`: 0.9
|
340 |
+
- `adam_beta2`: 0.999
|
341 |
+
- `adam_epsilon`: 1e-08
|
342 |
+
- `max_grad_norm`: 1.0
|
343 |
+
- `num_train_epochs`: 4
|
344 |
+
- `max_steps`: -1
|
345 |
+
- `lr_scheduler_type`: cosine
|
346 |
+
- `lr_scheduler_kwargs`: {}
|
347 |
+
- `warmup_ratio`: 0.05
|
348 |
+
- `warmup_steps`: 0
|
349 |
+
- `log_level`: passive
|
350 |
+
- `log_level_replica`: warning
|
351 |
+
- `log_on_each_node`: True
|
352 |
+
- `logging_nan_inf_filter`: True
|
353 |
+
- `save_safetensors`: True
|
354 |
+
- `save_on_each_node`: False
|
355 |
+
- `save_only_model`: False
|
356 |
+
- `restore_callback_states_from_checkpoint`: False
|
357 |
+
- `no_cuda`: False
|
358 |
+
- `use_cpu`: False
|
359 |
+
- `use_mps_device`: False
|
360 |
+
- `seed`: 42
|
361 |
+
- `data_seed`: None
|
362 |
+
- `jit_mode_eval`: False
|
363 |
+
- `use_ipex`: False
|
364 |
+
- `bf16`: False
|
365 |
+
- `fp16`: True
|
366 |
+
- `fp16_opt_level`: O1
|
367 |
+
- `half_precision_backend`: auto
|
368 |
+
- `bf16_full_eval`: False
|
369 |
+
- `fp16_full_eval`: False
|
370 |
+
- `tf32`: None
|
371 |
+
- `local_rank`: 0
|
372 |
+
- `ddp_backend`: None
|
373 |
+
- `tpu_num_cores`: None
|
374 |
+
- `tpu_metrics_debug`: False
|
375 |
+
- `debug`: []
|
376 |
+
- `dataloader_drop_last`: False
|
377 |
+
- `dataloader_num_workers`: 0
|
378 |
+
- `dataloader_prefetch_factor`: None
|
379 |
+
- `past_index`: -1
|
380 |
+
- `disable_tqdm`: False
|
381 |
+
- `remove_unused_columns`: True
|
382 |
+
- `label_names`: None
|
383 |
+
- `load_best_model_at_end`: False
|
384 |
+
- `ignore_data_skip`: False
|
385 |
+
- `fsdp`: []
|
386 |
+
- `fsdp_min_num_params`: 0
|
387 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
388 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
389 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
390 |
+
- `deepspeed`: None
|
391 |
+
- `label_smoothing_factor`: 0.0
|
392 |
+
- `optim`: adamw_torch_fused
|
393 |
+
- `optim_args`: None
|
394 |
+
- `adafactor`: False
|
395 |
+
- `group_by_length`: False
|
396 |
+
- `length_column_name`: length
|
397 |
+
- `ddp_find_unused_parameters`: None
|
398 |
+
- `ddp_bucket_cap_mb`: None
|
399 |
+
- `ddp_broadcast_buffers`: False
|
400 |
+
- `dataloader_pin_memory`: True
|
401 |
+
- `dataloader_persistent_workers`: False
|
402 |
+
- `skip_memory_metrics`: True
|
403 |
+
- `use_legacy_prediction_loop`: False
|
404 |
+
- `push_to_hub`: False
|
405 |
+
- `resume_from_checkpoint`: None
|
406 |
+
- `hub_model_id`: None
|
407 |
+
- `hub_strategy`: every_save
|
408 |
+
- `hub_private_repo`: None
|
409 |
+
- `hub_always_push`: False
|
410 |
+
- `hub_revision`: None
|
411 |
+
- `gradient_checkpointing`: False
|
412 |
+
- `gradient_checkpointing_kwargs`: None
|
413 |
+
- `include_inputs_for_metrics`: False
|
414 |
+
- `include_for_metrics`: []
|
415 |
+
- `eval_do_concat_batches`: True
|
416 |
+
- `fp16_backend`: auto
|
417 |
+
- `push_to_hub_model_id`: None
|
418 |
+
- `push_to_hub_organization`: None
|
419 |
+
- `mp_parameters`:
|
420 |
+
- `auto_find_batch_size`: False
|
421 |
+
- `full_determinism`: False
|
422 |
+
- `torchdynamo`: None
|
423 |
+
- `ray_scope`: last
|
424 |
+
- `ddp_timeout`: 1800
|
425 |
+
- `torch_compile`: False
|
426 |
+
- `torch_compile_backend`: None
|
427 |
+
- `torch_compile_mode`: None
|
428 |
+
- `include_tokens_per_second`: False
|
429 |
+
- `include_num_input_tokens_seen`: False
|
430 |
+
- `neftune_noise_alpha`: None
|
431 |
+
- `optim_target_modules`: None
|
432 |
+
- `batch_eval_metrics`: False
|
433 |
+
- `eval_on_start`: False
|
434 |
+
- `use_liger_kernel`: False
|
435 |
+
- `liger_kernel_config`: None
|
436 |
+
- `eval_use_gather_object`: False
|
437 |
+
- `average_tokens_across_devices`: False
|
438 |
+
- `prompts`: None
|
439 |
+
- `batch_sampler`: no_duplicates
|
440 |
+
- `multi_dataset_batch_sampler`: proportional
|
441 |
+
- `router_mapping`: {}
|
442 |
+
- `learning_rate_mapping`: {}
|
443 |
+
|
444 |
+
</details>
|
445 |
+
|
446 |
+
### Training Logs
|
447 |
+
| Epoch | Step | Training Loss | dot_ndcg@10 |
|
448 |
+
|:-----:|:-----:|:-------------:|:-----------:|
|
449 |
+
| 1.0 | 5763 | 34.5486 | 0.7278 |
|
450 |
+
| 2.0 | 11526 | 0.0824 | 0.7739 |
|
451 |
+
| 3.0 | 17289 | 0.0249 | 0.7798 |
|
452 |
+
| 4.0 | 23052 | 0.009 | 0.7933 |
|
453 |
+
| -1 | -1 | - | 0.7933 |
|
454 |
+
|
455 |
+
|
456 |
+
### Framework Versions
|
457 |
+
- Python: 3.11.13
|
458 |
+
- Sentence Transformers: 5.0.0
|
459 |
+
- Transformers: 4.53.0
|
460 |
+
- PyTorch: 2.6.0+cu124
|
461 |
+
- Accelerate: 1.8.1
|
462 |
+
- Datasets: 3.6.0
|
463 |
+
- Tokenizers: 0.21.2
|
464 |
+
|
465 |
+
## Citation
|
466 |
+
|
467 |
+
### BibTeX
|
468 |
+
|
469 |
+
#### Sentence Transformers
|
470 |
+
```bibtex
|
471 |
+
@inproceedings{reimers-2019-sentence-bert,
|
472 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
473 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
474 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
475 |
+
month = "11",
|
476 |
+
year = "2019",
|
477 |
+
publisher = "Association for Computational Linguistics",
|
478 |
+
url = "https://arxiv.org/abs/1908.10084",
|
479 |
+
}
|
480 |
+
```
|
481 |
+
|
482 |
+
#### SpladeLoss
|
483 |
+
```bibtex
|
484 |
+
@misc{formal2022distillationhardnegativesampling,
|
485 |
+
title={From Distillation to Hard Negative Sampling: Making Sparse Neural IR Models More Effective},
|
486 |
+
author={Thibault Formal and Carlos Lassance and Benjamin Piwowarski and Stéphane Clinchant},
|
487 |
+
year={2022},
|
488 |
+
eprint={2205.04733},
|
489 |
+
archivePrefix={arXiv},
|
490 |
+
primaryClass={cs.IR},
|
491 |
+
url={https://arxiv.org/abs/2205.04733},
|
492 |
+
}
|
493 |
+
```
|
494 |
+
|
495 |
+
#### SparseMultipleNegativesRankingLoss
|
496 |
+
```bibtex
|
497 |
+
@misc{henderson2017efficient,
|
498 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
499 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
500 |
+
year={2017},
|
501 |
+
eprint={1705.00652},
|
502 |
+
archivePrefix={arXiv},
|
503 |
+
primaryClass={cs.CL}
|
504 |
+
}
|
505 |
+
```
|
506 |
+
|
507 |
+
#### FlopsLoss
|
508 |
+
```bibtex
|
509 |
+
@article{paria2020minimizing,
|
510 |
+
title={Minimizing flops to learn efficient sparse representations},
|
511 |
+
author={Paria, Biswajit and Yeh, Chih-Kuan and Yen, Ian EH and Xu, Ning and Ravikumar, Pradeep and P{'o}czos, Barnab{'a}s},
|
512 |
+
journal={arXiv preprint arXiv:2004.05665},
|
513 |
+
year={2020}
|
514 |
+
}
|
515 |
+
```
|
516 |
+
|
517 |
+
<!--
|
518 |
+
## Glossary
|
519 |
+
|
520 |
+
*Clearly define terms in order to be accessible across audiences.*
|
521 |
+
-->
|
522 |
+
|
523 |
+
<!--
|
524 |
+
## Model Card Authors
|
525 |
+
|
526 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
527 |
+
-->
|
528 |
+
|
529 |
+
<!--
|
530 |
+
## Model Card Contact
|
531 |
+
|
532 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
533 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,27 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"architectures": [
|
3 |
+
"XLMRobertaForMaskedLM"
|
4 |
+
],
|
5 |
+
"attention_probs_dropout_prob": 0.1,
|
6 |
+
"bos_token_id": 0,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"eos_token_id": 2,
|
9 |
+
"hidden_act": "gelu",
|
10 |
+
"hidden_dropout_prob": 0.1,
|
11 |
+
"hidden_size": 768,
|
12 |
+
"initializer_range": 0.02,
|
13 |
+
"intermediate_size": 3072,
|
14 |
+
"layer_norm_eps": 1e-05,
|
15 |
+
"max_position_embeddings": 512,
|
16 |
+
"model_type": "xlm-roberta",
|
17 |
+
"num_attention_heads": 12,
|
18 |
+
"num_hidden_layers": 12,
|
19 |
+
"output_past": true,
|
20 |
+
"pad_token_id": 1,
|
21 |
+
"position_embedding_type": "absolute",
|
22 |
+
"torch_dtype": "float32",
|
23 |
+
"transformers_version": "4.53.0",
|
24 |
+
"type_vocab_size": 1,
|
25 |
+
"use_cache": true,
|
26 |
+
"vocab_size": 32000
|
27 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"model_type": "SparseEncoder",
|
3 |
+
"__version__": {
|
4 |
+
"sentence_transformers": "5.0.0",
|
5 |
+
"transformers": "4.53.0",
|
6 |
+
"pytorch": "2.6.0+cu124"
|
7 |
+
},
|
8 |
+
"prompts": {
|
9 |
+
"query": "",
|
10 |
+
"document": ""
|
11 |
+
},
|
12 |
+
"default_prompt_name": null,
|
13 |
+
"similarity_fn_name": "dot"
|
14 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:7359e0ee2531abdfb25cdfa29a3eda863eb594687d0ca5c627124d5fb1f2bc64
|
3 |
+
size 442624664
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.sparse_encoder.models.MLMTransformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_SpladePooling",
|
12 |
+
"type": "sentence_transformers.sparse_encoder.models.SpladePooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 510,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"cls_token": {
|
10 |
+
"content": "<s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"eos_token": {
|
17 |
+
"content": "</s>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"mask_token": {
|
24 |
+
"content": "<mask>",
|
25 |
+
"lstrip": true,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"pad_token": {
|
31 |
+
"content": "<pad>",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
},
|
37 |
+
"sep_token": {
|
38 |
+
"content": "</s>",
|
39 |
+
"lstrip": false,
|
40 |
+
"normalized": false,
|
41 |
+
"rstrip": false,
|
42 |
+
"single_word": false
|
43 |
+
},
|
44 |
+
"unk_token": {
|
45 |
+
"content": "<unk>",
|
46 |
+
"lstrip": false,
|
47 |
+
"normalized": false,
|
48 |
+
"rstrip": false,
|
49 |
+
"single_word": false
|
50 |
+
}
|
51 |
+
}
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
ADDED
@@ -0,0 +1,55 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"4": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"bos_token": "<s>",
|
45 |
+
"clean_up_tokenization_spaces": false,
|
46 |
+
"cls_token": "<s>",
|
47 |
+
"eos_token": "</s>",
|
48 |
+
"extra_special_tokens": {},
|
49 |
+
"mask_token": "<mask>",
|
50 |
+
"model_max_length": 510,
|
51 |
+
"pad_token": "<pad>",
|
52 |
+
"sep_token": "</s>",
|
53 |
+
"tokenizer_class": "XLMRobertaTokenizerFast",
|
54 |
+
"unk_token": "<unk>"
|
55 |
+
}
|