File size: 37,286 Bytes
dd82a8a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:47178
- loss:CosineSimilarityLoss
base_model: NAMAA-Space/AraModernBert-Base-STS
widget:
- source_sentence: من هو قانصوه الغوري؟
  sentences:
  - الأشرف أبو النصر قانصوه من بيبردى الغورى الجركسي الجنس هو من سلاطين المماليك البرجية.[1][2][3]
    ولد سنة (850 هـ- 1446 م). ثم امتلكه الأشرف قايتباى وأعتقه وجعله من جملة مماليكه
    الجمدارية ثم أصبح في حرسه الخاص وارتقى في عدة مناصب حتى ولي حجابة الحجاب بحلب.[4]
    وفي دولة الأشرف جنبلاط عين وزيرا. بويع بالسلطنة سنة 906 هـ- 1500 م وظل في ملك
    مصر والشام إلى أن قتل في معركة مرج دابق شمال حلب سنة 1516.
  - 'الوسابي (الاسم العلمي:Eutrema japonicum مرادف: Wasabia japonica) نبات من الفصيلة
    الصليبية، والتي تشمل كذلك الكرنب، والفجل والخردل. يعرف الواسابي باسم "الفجل الياباني"،
    وتستخدم جذوره في عمل البهارات حيث أن لها نكهة قوية للغاية. تقترب حدة طعمه إلى
    الخردل الحار منه إلى الكابساسين في الفلفل الحار، فهو ينتج أبخرة تحفز الممرات الأنفية
    أكثر من اللسان. ينمو الواسابي بشكل طبيعي - دون تدخل الإنسان - على طول مجرى الأنهار
    في الوديان الجبلية في اليابان.'
  - يغذي النهر الذي يبلغ طوله حوالي 4700 كيلومتر شبكة كبيرة من الروافد، تصله من الجهات
    الشمالية والغربية. أكبر تلك الروافد نهر أونجي الذي يعد أهم الروافد الشمالية لنهر
    الكونغو، الذي يغذيه بدوره نهران أحدهما هو (يومو) الذي ينبع من خط تقسيم المياه
    بين النيل والكونغو، والآخر نهر (أويلي) الذي ينبع من أخدود يقع عند التقاء الحدود
    السودانية الأوغندية والزائيرية. تصب مياه بحيرة تنجانيقا في نهر الكونغو وفي نهاية
    المطاف إلى المحيط الأطلسي.
- source_sentence: في أي عام تأسس نادي تبوك الأدبي؟
  sentences:
  - يرجع الفضل في اكتشاف هذا العنصر إلى الكيميائي الألماني مارتن هاينريش كلابروث بينما
    كان يعمل في مختبره التجريبي في برلين في عام 1789. كان كلابروث قادرًا على تخليق
    مركب أصفر من المحتمل أن يكون ثنائي يورانات الصوديوم عن طريق إذابة اليورانينيت
    في حمض النيتريك وتحييد المحلول مع هيدروكسيد الصوديوم.[8] افترض كلابروث أن المادة
    الصفراء كانت عبارة عن أكسيد لعنصر لم يتم اكتشافه بعد، وقام بتسخينه بفحم للحصول
    على مسحوق أسود، والذي كان يعتقد أنه المعدن المكتشف حديثًا بحد ذاته. كان المسحوق
    في الواقع عبارة عن أكسيد لليورانيوم.[9] سُمى العنصر المكتشف حديثًا على اسم كوكب
    أورانوس الذي سُمي على اسم إله السماء اليوناني أورانوس، والذي تم اكتشافه قبل ثماني
    سنوات على يد ويليام هيرشل.[10]
  - تتألف سوريا من أربع عشرة محافظة، والمحافظات مقسمة بدورها لوحدات إداريّة أصغر هي
    المنطقة ومركزها يكون مدينة، والمنطقة بدورها أيضاً مقسمة لوحدات إدارية أصغر هي
    النواحي، والنواحي إلى قرى وبلدات ومزارع أو أحياء.
  - المتكور الدوار (التروبوسفير)  وهي الطبقة التي تبدأ من سطح الأرض وتمتد إلى ارتفاع
    حوالي 10كم وتحدث فيها معظم التغيرات الجوية التي نلمسها يوميا. وهي الطبقة التي
    تحتوي على معظم بخار الماء والأكسجين (O2) وثاني أكسيد الكربون (CO2) وتتركز فيها
    أنشطة الإنسان. أغلب السحب تكون في المتكور الدوّار (التروبوسفير)، لأن حوالي 99%
    من الماء المتواجد في الغلاف الجوي يكون في هذه الطبقة. تقل فيها درجات الحرارة مع
    زيادة الارتفاع.
- source_sentence: من هو مخترع العجلات المطاطية التي تسير عليها السيارات؟
  sentences:
  - تعود براءة اختراع الأطر المطاطية لـ جون بويد دنلوب والذي أنشأ سنة 1889 مصنعا لها.
  - عام 1929 عرض الطيّار المتدرج فرانك ويتل أفكاره عن التوربين النفاث بشكل رسمي إلى
    رؤسائه، [14][15] وحصل على براءة الاختراع بعد ذلك بسنة في إنجلترا واعتمدت عام 1932.[16][17]
    أخرج هذا الاختراع للعالم ضاغط دفع محوري ذو مرحلتين يغذي ضاغط الطرد المركزي أحادي
    الطرف، وكان يركز على أبسط ضاغط بالطرد المركزي فقط. كان من نتيجة هذا الاختراع أن
    ظهر أول محرك يعمل على الوقود السائل ويحتوي على مضخة خاصة به عام 1937، وأثناء تجربة
    المحرك، صعق فريق ويتل عندما استمر المحرك بالعمل على الرغم من منع الوقود عنه، فتبين
    أن الوقود يتسرب داخل المحرك الذي لم يتوقف عن العمل حتى احترق جميع الوقود بداخله،
    لذلك لم يستطع ويتل أن يقنع الحكومة بجدوى اختراعه وهكذا استمر تطوير المحرك النفاث
    بوتيرة بطيئة.[18]   في عام 1935 بدأ هانز فون أوهين العمل على تصميم مشابه بألمانيا،[19]
    غير عالم بمحاولة ويتل السابقة على ما يظهر. كان المحرك التجريبي الأول لأوهين أكثر
    تكاملاً وعمل على الطاقة خارجية، إلا أنه لم يستطع اثبات المفهوم الأساسي للمحرك.
    وبعد هذه المحاولة قابل أوهين إرنست هيكل أحد كبار مصنعي الطائرات في ذاك الوقت وعرض
    عليه تصميم للمحرك الموعود. وكان هينكل قد اشترى لتوه مصنع هيرث للمحركات فخصص قسمًا
    خاصًا لأوهين ومسؤول الميكانيك ماكس هان اللذان شرعا بإنتاج وتشغيل الطراز الأول
    لمحركات HeS 1 في سبتمبر من سنة 1937، باستخدام الهيدروجين كوقود يضخ تحت ضغط خارجي.
    استخدمت التصاميم اللاحقة من شاكلة HeS 3  (بقدرة 5 كيلونيوتن) البنزين كوقود، وجهزت
    إحدى تلك الطائرات، والتي حملت اسم He 178، ليُصار إلى الطيران بها، فحصل ذلك على
    يد الطيار إيريك وارسيز في صباح 27 أغسطس سنة 1939، وكانت تلك أول طائرة تطير باستخدام
    محرك نفاث.[20]
  - هجمات الحرمان من الخدمات أو هجوم حجب الخدمة  هي هجمات تتم عن طريق إغراق المواقع
    بسيل من البيانات غير اللازمة يتم إرسالها عن طريق أجهزة مصابة ببرامج(في هذه الحالة
    تسمى DDOS Attacks) تعمل نشر هذه الهجمات بحيث يتحكم فيها القراصنة والعابثين الإلكترونيين
    لمهاجمة الشبكة (الإنترنت)عن بعد بإرسال تلك البيانات إلى المواقع بشكل كثيف مما
    يسبب بطء الخدمات أو زحاماً مرورياً بهذه المواقع ويسبب صعوبة وصول المستخدمين لها
    نظراً لهذا الاكتظاظ, خصوصاً وأنه يبدو، وباعتراف الكثير من خبراء الأمن على الشبكة،
    وكأنه لا يوجد علاج في الوقت الحالي لهذا الأسلوب في الهجوم على مواقع الشبكة (الإنترنت)،
    وعلى هذا الأساس فإن هذا النوع من الهجمات يُدعى في بعض الأوساط "بإيدز الإنترنت".ويتم
    هذا الهجوم بدون كسر ملفات كلمات السر أو سرقة البيانات السرية، هجمات حجب الخدمة
    تتم ببساطه بان يقوم المهاجم بإطلاق أحد البرامج التي تزحم المرور للموقع الخاص بك
    وبالتالي تمنع أي مستخدم آخر من الوصول إليه.
- source_sentence: من هو مؤلف كتاب ملائكة وشياطين ؟
  sentences:
  - 'التبشير بالإنجيل (باللاتينية الكنسية: evangelium، من اليونانية العامية: εὐαγγελιστής،
    المكونة من εὐ التي تعني "خير" وαγγελιστής التي تعني "رسالة") هو مصطلح مسيحي يقصد
    به نشر الإنجيل وتعاليم يسوع بين مجموعة من البشر لدعوتهم إلى التحول إلى المسيحيةوتعرف
    الكنيسة الكاثوليكية التبشير بأنه: "عمل رعوي موجه إلى الذين لا يعرفون رسالة المسيح".[1]
    طبقًا لوصايا العهد الجديد فإن المسيح قد أوصى تلاميذه ومن خلالهم جميع المسيحيين
    أن ينشروا الديانة إلى كافة أصقاع الأرض، وهي كانت من كلمات المسيح الأخيرة "ما يجعلها
    تكتسب أهمية كبيرة". الكنيسة تعتبر التبشير "حق إلهي" وتصرّح: "من واجبها ومن حقها
    البديهي أن تبشر العالم أجمع بالإنجيل، باستقلالية تامة عن أي سلطة ونفوذ بشري، مهما
    كان، وأن تستخدم لذلك الأسلوب المناسب لكل مجتمع".[2] التعليم المسيحي للكنيسة الكاثوليكية
    ينصّ: "ما من أحد أعطى نفسه الإيمان كما لم يعط أحد نفسه الحياة. فقد تقبل المؤمن
    الإيمان من غيره، وهو من واجبه أن ينقله لغيره".[3] أيًا كان فإن الدعوة المسيحية
    لا تتم إلا بناءً على دعوة إلهية مسبقة: "أما الذين قبلوه، أي الذين آمنوا باسمه،
    فقد منحهم الحق في أن يصيروا أولاد الله. وهم الذين ولدوا لا من دم، ولا من رغبة
    جسد، ولا من رغبة بشر، بل من الله".[4]'
  - دينو زوف  حارس مرمى منتخب إيطاليا لكرة القدم سابقا (من مواليد 28 فبراير, 1942)
    أحد أبرز حراس المرمى في تاريخ كرة القدم، حطم العديد من الأرقام القياسية التي تكن
    مسجلة لأي حارس مرمى قبله يأتي في أبرزها محافظته على مرمى المنتخب الإيطالي نظيفاً
    لمدة 1142دقيقة، في فترة مابين سبتمبر 1972 إلى يونيو 1974م. شارك في الدوري المحلي
    الإيطالي مع فرق عديدة أبرزها نابولي واليوفنتوس الشهيران، ومثل المنتخب 112 مباراة
    دولية . وفاز عام 1982 بكأس العالم وكان أكبر لاعب في التاريخ يفوز بالبطولة كقائد
    للمنتخب وهو في قمة عطائه الكروي ..[1][2]
  - فراوكه بيتري ، ولدت في درسدن في ، هي كيميائية ألمانية ورائدة أعمال سابقة، في شهر
    أبريل عام 2013 عُرفت بشكل رسمي كسياسية تنتمي إلى حزب البديل من أجل ألمانيا ولكنها
    في شهر سبتمبر عام 2017 انتقلت إلى حزب الزرق الألماني. وُلدت فراوكه بيتري باسم
    فراوكه ماركفاردت في الأول من شهر يونيو عام 1975 في مدينة درسدن الألمانية.
- source_sentence: ما هي القرنية؟
  sentences:
  - وصل أول قطار إلى محطة المدينة المنورة قادماً من دمشق في 22 رجب 1326 هـ الموافق
    23 أغسطس 1908م، بعد أن قطع المسافة خلال خمسة أيام فقط.[17][20] لكن افتتاح خط حديد
    الحجاز الرسمي تأجل أسبوعاً ليصادف الذكرى الثانية والثلاثين لجلوس السلطان عبد الحميد
    الثاني على عرش الدولة العثمانية وكان ذلك في 1 سبتمبر 1908م، وقد تم الافتتاح وسط
    مراسم احتفالية كبيرة بتلك المناسبة في محطة المدينة التي تعرف أيضاً باسم  وهي كلمة
    تركية تأتي بمعنى «المحطة»، وتقع في العنبرية حيث تبعد مسافة تقدر بحوالي 1 كيلومتر
    عن المسجد النبوي.[27][28] كما أن "لجنة خط حديد الحجاز" كانت قد قامت في وقت سابق
    بافتتاح المحطات الأخرى الموزعة على الخط نيابة عن السلطان، وقد أقيمت لها كذلك احتفالات
    رسمية لافتتاحها.[14]
  - بريتني جين سبيرز  (ولدت في 2 ديسمبر 1981 هي مغنية أمريكية وكاتبة كلمات وممثلة
    من أصول بريطانية. ولدت في ميسيسبي, وترعرعت في لويزيانا, بريتني بدأت الغناء منذ
    أن كانت طفلة، ممثلة رئيسية في المسرحيات المدرسية وفي التلفاز قبل أن وقعت عقدا
    مع جافا في 1997. أول ألبومين لها "بيبي ون مور تايم" و "أوبس!...آي ديد إت أقين"
    أخذا نجاحاً هائلاً في أنحاء العالم وجعلا سبيرز أعلى مغنية في سن المراهقة مبيعا
    في التاريخ. مع لقبها الخاص "أميرة البوب"، وصفت سبيرز بأنها واحدة من اللذين أنعشوا
    وأعادوا موسيقى بوب المراهقين إلى الواجهة، في أواخر التسعينات وبداية الألفية الثالثة.
  - 'أما فيما يرجع لحقيقة سكان أفريقيا الشمالية الأولين فقد اجمع المؤرخون على بكرة
    أبيهم ان العنصر الاول الذي سكن هذه البلاد يتألف من البربر، وفي أصل هذه الكلمة
    يقول عبد الرحمان بن خلدون: (( ان العرب لما وفدوا على هذه البلاد وسمعوا لهجة أهلها
    الغريبة صاحوا قائلين ماهذه البربرة، فسموا بالبربر)) ويعتقد الم البارتيني انها
    مأخوذة من كلمة ((بارباري)) اللاتينية التي كان الرومان يطلقونها على كافة الشعوب
    القديمة باستثناء اليونان والرومان.'
pipeline_tag: sentence-similarity
library_name: sentence-transformers
---

# SentenceTransformer based on NAMAA-Space/AraModernBert-Base-STS

This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [NAMAA-Space/AraModernBert-Base-STS](https://huggingface.co/NAMAA-Space/AraModernBert-Base-STS). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

## Model Details

### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [NAMAA-Space/AraModernBert-Base-STS](https://huggingface.co/NAMAA-Space/AraModernBert-Base-STS) <!-- at revision cc3cb850a251f28b99b69bfe4c5332d21dc82c08 -->
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->

### Model Sources

- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)

### Full Model Architecture

```
SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: ModernBertModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```

## Usage

### Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

```bash
pip install -U sentence-transformers
```

Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("yoriis/NAMAA-retriever-cosine-1")
# Run inference
sentences = [
    'ما هي القرنية؟',
    'أما فيما يرجع لحقيقة سكان أفريقيا الشمالية الأولين فقد اجمع المؤرخون على بكرة أبيهم ان العنصر الاول الذي سكن هذه البلاد يتألف من البربر، وفي أصل هذه الكلمة يقول عبد الرحمان بن خلدون: (( ان العرب لما وفدوا على هذه البلاد وسمعوا لهجة أهلها الغريبة صاحوا قائلين ماهذه البربرة، فسموا بالبربر)) ويعتقد الم البارتيني انها مأخوذة من كلمة ((بارباري)) اللاتينية التي كان الرومان يطلقونها على كافة الشعوب القديمة باستثناء اليونان والرومان.',
    'بريتني جين سبيرز  (ولدت في 2 ديسمبر 1981)، هي مغنية أمريكية وكاتبة كلمات وممثلة من أصول بريطانية. ولدت في ميسيسبي, وترعرعت في لويزيانا, بريتني بدأت الغناء منذ أن كانت طفلة، ممثلة رئيسية في المسرحيات المدرسية وفي التلفاز قبل أن وقعت عقدا مع جافا في 1997. أول ألبومين لها "بيبي ون مور تايم" و "أوبس!...آي ديد إت أقين" أخذا نجاحاً هائلاً في أنحاء العالم وجعلا سبيرز أعلى مغنية في سن المراهقة مبيعا في التاريخ. مع لقبها الخاص "أميرة البوب"، وصفت سبيرز بأنها واحدة من اللذين أنعشوا وأعادوا موسيقى بوب المراهقين إلى الواجهة، في أواخر التسعينات وبداية الألفية الثالثة.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```

<!--
### Direct Usage (Transformers)

<details><summary>Click to see the direct usage in Transformers</summary>

</details>
-->

<!--
### Downstream Usage (Sentence Transformers)

You can finetune this model on your own dataset.

<details><summary>Click to expand</summary>

</details>
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Dataset

#### Unnamed Dataset

* Size: 47,178 training samples
* Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
  |         | sentence_0                                                                       | sentence_1                                                                           | label                                                          |
  |:--------|:---------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:---------------------------------------------------------------|
  | type    | string                                                                           | string                                                                               | float                                                          |
  | details | <ul><li>min: 6 tokens</li><li>mean: 9.82 tokens</li><li>max: 27 tokens</li></ul> | <ul><li>min: 15 tokens</li><li>mean: 127.42 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.34</li><li>max: 1.0</li></ul> |
* Samples:
  | sentence_0                                     | sentence_1                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                               | label            |
  |:-----------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
  | <code>ما هي العاطفة في التعريف العام؟</code>   | <code>يقع خليج العقبة إلى الشرق من شبه جزيرة سيناء وإلى الغرب من شبه الجزيرة العربية على إمتداد تلاقي الصفيحتين التكتونيتين العربية والافريقية لينتهي شمالا إلى وادي عربة؛ الحد الشرقي لصحراء النقب في فلسطين، ويعتبر مضيق تيران الحد الجنوبي للخليج. يبلغ طول خليج العقبة من مضيق تيران جنوبا إلى وادي عربه شمالا (160) كم أما عرضه فيصل إلى 24كم. واعمق نقطة في الخليج (1,850) متر تحت سطح البحر.</code>                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                               | <code>0.0</code> |
  | <code>متى  وقعت الثورة الفرنسية ؟</code>       | <code>في مارس من عام 2010، صنفته مجلة فرانس فوتبول على قمة قائمة أغنى لاعبي كرة القدم في العالم، بتسعة وعشرون مليون جنيه إسترليني في الجمع بين الإيرادات الآتية من الرواتب، المكافآت والأرباح خارج الملعب،[327] في سبتمبر من عام 2014 أعلن موقع سبوكس الألماني بأن ثروة ميسي تقدر بنحو 130 مليون يورو،[328] وفي تقرير مالي حديث ذكرت مجلة فرانس فوتبول التي تصدر في فرنسا أن ميسي هو أعلى لاعبي كرة القدم دخلاً خلال سنة 2015، إذ بلغ مجموع دخل اللاعب خلال تلك السنة 74 مليون يورو، وهذا الدخل عبارة عن مجموع راتب اللاعب مع نادي برشلونة والمكافئات وعقود الدعاية قبل خصم الضرائب والإلتزمات الاجتماعية.[329]</code>                                                                                                                                                                                                                                                                                                                                                                                                                                   | <code>0.0</code> |
  | <code>ما هي العملة الرسمية في أوكرانية؟</code> | <code>التبشير بالإنجيل (باللاتينية الكنسية: evangelium، من اليونانية العامية: εὐαγγελιστής، المكونة من εὐ التي تعني "خير" وαγγελιστής التي تعني "رسالة") هو مصطلح مسيحي يقصد به نشر الإنجيل وتعاليم يسوع بين مجموعة من البشر لدعوتهم إلى التحول إلى المسيحيةوتعرف الكنيسة الكاثوليكية التبشير بأنه: "عمل رعوي موجه إلى الذين لا يعرفون رسالة المسيح".[1] طبقًا لوصايا العهد الجديد فإن المسيح قد أوصى تلاميذه ومن خلالهم جميع المسيحيين أن ينشروا الديانة إلى كافة أصقاع الأرض، وهي كانت من كلمات المسيح الأخيرة "ما يجعلها تكتسب أهمية كبيرة". الكنيسة تعتبر التبشير "حق إلهي" وتصرّح: "من واجبها ومن حقها البديهي أن تبشر العالم أجمع بالإنجيل، باستقلالية تامة عن أي سلطة ونفوذ بشري، مهما كان، وأن تستخدم لذلك الأسلوب المناسب لكل مجتمع".[2] التعليم المسيحي للكنيسة الكاثوليكية ينصّ: "ما من أحد أعطى نفسه الإيمان كما لم يعط أحد نفسه الحياة. فقد تقبل المؤمن الإيمان من غيره، وهو من واجبه أن ينقله لغيره".[3] أيًا كان فإن الدعوة المسيحية لا تتم إلا بناءً على دعوة إلهية مسبقة: "أما الذين قبلوه، أي الذين آمنوا باسمه، فقد منحهم ا...</code> | <code>0.0</code> |
* Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
  ```json
  {
      "loss_fct": "torch.nn.modules.loss.MSELoss"
  }
  ```

### Training Hyperparameters
#### Non-Default Hyperparameters

- `per_device_train_batch_size`: 4
- `per_device_eval_batch_size`: 4
- `fp16`: True
- `multi_dataset_batch_sampler`: round_robin

#### All Hyperparameters
<details><summary>Click to expand</summary>

- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: no
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 4
- `per_device_eval_batch_size`: 4
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1
- `num_train_epochs`: 3
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `hub_revision`: None
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`: 
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `liger_kernel_config`: None
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: round_robin

</details>

### Training Logs
| Epoch  | Step  | Training Loss |
|:------:|:-----:|:-------------:|
| 0.0424 | 500   | 0.0411        |
| 0.0848 | 1000  | 0.0347        |
| 0.1272 | 1500  | 0.04          |
| 0.1696 | 2000  | 0.0323        |
| 0.2120 | 2500  | 0.0332        |
| 0.2543 | 3000  | 0.0323        |
| 0.2967 | 3500  | 0.0295        |
| 0.3391 | 4000  | 0.0332        |
| 0.3815 | 4500  | 0.0292        |
| 0.4239 | 5000  | 0.0297        |
| 0.4663 | 5500  | 0.0271        |
| 0.5087 | 6000  | 0.0283        |
| 0.5511 | 6500  | 0.0258        |
| 0.5935 | 7000  | 0.0293        |
| 0.6359 | 7500  | 0.0239        |
| 0.6783 | 8000  | 0.0239        |
| 0.7206 | 8500  | 0.0299        |
| 0.7630 | 9000  | 0.0252        |
| 0.8054 | 9500  | 0.029         |
| 0.8478 | 10000 | 0.0253        |
| 0.8902 | 10500 | 0.0304        |
| 0.9326 | 11000 | 0.0254        |
| 0.9750 | 11500 | 0.0235        |
| 1.0174 | 12000 | 0.0194        |
| 1.0598 | 12500 | 0.0095        |
| 1.1022 | 13000 | 0.0079        |
| 1.1446 | 13500 | 0.0099        |
| 1.1869 | 14000 | 0.0096        |
| 1.2293 | 14500 | 0.0099        |
| 1.2717 | 15000 | 0.0101        |
| 1.3141 | 15500 | 0.0096        |
| 1.3565 | 16000 | 0.0088        |
| 1.3989 | 16500 | 0.0106        |
| 1.4413 | 17000 | 0.0098        |
| 1.4837 | 17500 | 0.0126        |
| 1.5261 | 18000 | 0.0105        |
| 1.5685 | 18500 | 0.0109        |
| 1.6109 | 19000 | 0.0118        |
| 1.6532 | 19500 | 0.0096        |
| 1.6956 | 20000 | 0.0082        |
| 1.7380 | 20500 | 0.0106        |
| 1.7804 | 21000 | 0.0107        |
| 1.8228 | 21500 | 0.009         |
| 1.8652 | 22000 | 0.0104        |
| 1.9076 | 22500 | 0.0104        |
| 1.9500 | 23000 | 0.0114        |
| 1.9924 | 23500 | 0.0088        |
| 2.0348 | 24000 | 0.0037        |
| 2.0772 | 24500 | 0.0035        |
| 2.1195 | 25000 | 0.0031        |
| 2.1619 | 25500 | 0.0037        |
| 2.2043 | 26000 | 0.0037        |
| 2.2467 | 26500 | 0.0033        |
| 2.2891 | 27000 | 0.0034        |
| 2.3315 | 27500 | 0.0045        |
| 2.3739 | 28000 | 0.0034        |
| 2.4163 | 28500 | 0.0032        |
| 2.4587 | 29000 | 0.0033        |
| 2.5011 | 29500 | 0.0041        |
| 2.5435 | 30000 | 0.0036        |
| 2.5858 | 30500 | 0.0036        |
| 2.6282 | 31000 | 0.0034        |
| 2.6706 | 31500 | 0.0038        |
| 2.7130 | 32000 | 0.0029        |
| 2.7554 | 32500 | 0.0036        |
| 2.7978 | 33000 | 0.0029        |
| 2.8402 | 33500 | 0.0036        |
| 2.8826 | 34000 | 0.0034        |
| 2.9250 | 34500 | 0.0032        |
| 2.9674 | 35000 | 0.0031        |


### Framework Versions
- Python: 3.11.13
- Sentence Transformers: 4.1.0
- Transformers: 4.54.0
- PyTorch: 2.6.0+cu124
- Accelerate: 1.9.0
- Datasets: 4.0.0
- Tokenizers: 0.21.2

## Citation

### BibTeX

#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->