File size: 37,286 Bytes
dd82a8a |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 |
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:47178
- loss:CosineSimilarityLoss
base_model: NAMAA-Space/AraModernBert-Base-STS
widget:
- source_sentence: من هو قانصوه الغوري؟
sentences:
- الأشرف أبو النصر قانصوه من بيبردى الغورى الجركسي الجنس هو من سلاطين المماليك البرجية.[1][2][3]
ولد سنة (850 هـ- 1446 م). ثم امتلكه الأشرف قايتباى وأعتقه وجعله من جملة مماليكه
الجمدارية ثم أصبح في حرسه الخاص وارتقى في عدة مناصب حتى ولي حجابة الحجاب بحلب.[4]
وفي دولة الأشرف جنبلاط عين وزيرا. بويع بالسلطنة سنة 906 هـ- 1500 م وظل في ملك
مصر والشام إلى أن قتل في معركة مرج دابق شمال حلب سنة 1516.
- 'الوسابي (الاسم العلمي:Eutrema japonicum مرادف: Wasabia japonica) نبات من الفصيلة
الصليبية، والتي تشمل كذلك الكرنب، والفجل والخردل. يعرف الواسابي باسم "الفجل الياباني"،
وتستخدم جذوره في عمل البهارات حيث أن لها نكهة قوية للغاية. تقترب حدة طعمه إلى
الخردل الحار منه إلى الكابساسين في الفلفل الحار، فهو ينتج أبخرة تحفز الممرات الأنفية
أكثر من اللسان. ينمو الواسابي بشكل طبيعي - دون تدخل الإنسان - على طول مجرى الأنهار
في الوديان الجبلية في اليابان.'
- يغذي النهر الذي يبلغ طوله حوالي 4700 كيلومتر شبكة كبيرة من الروافد، تصله من الجهات
الشمالية والغربية. أكبر تلك الروافد نهر أونجي الذي يعد أهم الروافد الشمالية لنهر
الكونغو، الذي يغذيه بدوره نهران أحدهما هو (يومو) الذي ينبع من خط تقسيم المياه
بين النيل والكونغو، والآخر نهر (أويلي) الذي ينبع من أخدود يقع عند التقاء الحدود
السودانية الأوغندية والزائيرية. تصب مياه بحيرة تنجانيقا في نهر الكونغو وفي نهاية
المطاف إلى المحيط الأطلسي.
- source_sentence: في أي عام تأسس نادي تبوك الأدبي؟
sentences:
- يرجع الفضل في اكتشاف هذا العنصر إلى الكيميائي الألماني مارتن هاينريش كلابروث بينما
كان يعمل في مختبره التجريبي في برلين في عام 1789. كان كلابروث قادرًا على تخليق
مركب أصفر من المحتمل أن يكون ثنائي يورانات الصوديوم عن طريق إذابة اليورانينيت
في حمض النيتريك وتحييد المحلول مع هيدروكسيد الصوديوم.[8] افترض كلابروث أن المادة
الصفراء كانت عبارة عن أكسيد لعنصر لم يتم اكتشافه بعد، وقام بتسخينه بفحم للحصول
على مسحوق أسود، والذي كان يعتقد أنه المعدن المكتشف حديثًا بحد ذاته. كان المسحوق
في الواقع عبارة عن أكسيد لليورانيوم.[9] سُمى العنصر المكتشف حديثًا على اسم كوكب
أورانوس الذي سُمي على اسم إله السماء اليوناني أورانوس، والذي تم اكتشافه قبل ثماني
سنوات على يد ويليام هيرشل.[10]
- تتألف سوريا من أربع عشرة محافظة، والمحافظات مقسمة بدورها لوحدات إداريّة أصغر هي
المنطقة ومركزها يكون مدينة، والمنطقة بدورها أيضاً مقسمة لوحدات إدارية أصغر هي
النواحي، والنواحي إلى قرى وبلدات ومزارع أو أحياء.
- المتكور الدوار (التروبوسفير) وهي الطبقة التي تبدأ من سطح الأرض وتمتد إلى ارتفاع
حوالي 10كم وتحدث فيها معظم التغيرات الجوية التي نلمسها يوميا. وهي الطبقة التي
تحتوي على معظم بخار الماء والأكسجين (O2) وثاني أكسيد الكربون (CO2) وتتركز فيها
أنشطة الإنسان. أغلب السحب تكون في المتكور الدوّار (التروبوسفير)، لأن حوالي 99%
من الماء المتواجد في الغلاف الجوي يكون في هذه الطبقة. تقل فيها درجات الحرارة مع
زيادة الارتفاع.
- source_sentence: من هو مخترع العجلات المطاطية التي تسير عليها السيارات؟
sentences:
- تعود براءة اختراع الأطر المطاطية لـ جون بويد دنلوب والذي أنشأ سنة 1889 مصنعا لها.
- عام 1929 عرض الطيّار المتدرج فرانك ويتل أفكاره عن التوربين النفاث بشكل رسمي إلى
رؤسائه، [14][15] وحصل على براءة الاختراع بعد ذلك بسنة في إنجلترا واعتمدت عام 1932.[16][17]
أخرج هذا الاختراع للعالم ضاغط دفع محوري ذو مرحلتين يغذي ضاغط الطرد المركزي أحادي
الطرف، وكان يركز على أبسط ضاغط بالطرد المركزي فقط. كان من نتيجة هذا الاختراع أن
ظهر أول محرك يعمل على الوقود السائل ويحتوي على مضخة خاصة به عام 1937، وأثناء تجربة
المحرك، صعق فريق ويتل عندما استمر المحرك بالعمل على الرغم من منع الوقود عنه، فتبين
أن الوقود يتسرب داخل المحرك الذي لم يتوقف عن العمل حتى احترق جميع الوقود بداخله،
لذلك لم يستطع ويتل أن يقنع الحكومة بجدوى اختراعه وهكذا استمر تطوير المحرك النفاث
بوتيرة بطيئة.[18] في عام 1935 بدأ هانز فون أوهين العمل على تصميم مشابه بألمانيا،[19]
غير عالم بمحاولة ويتل السابقة على ما يظهر. كان المحرك التجريبي الأول لأوهين أكثر
تكاملاً وعمل على الطاقة خارجية، إلا أنه لم يستطع اثبات المفهوم الأساسي للمحرك.
وبعد هذه المحاولة قابل أوهين إرنست هيكل أحد كبار مصنعي الطائرات في ذاك الوقت وعرض
عليه تصميم للمحرك الموعود. وكان هينكل قد اشترى لتوه مصنع هيرث للمحركات فخصص قسمًا
خاصًا لأوهين ومسؤول الميكانيك ماكس هان اللذان شرعا بإنتاج وتشغيل الطراز الأول
لمحركات HeS 1 في سبتمبر من سنة 1937، باستخدام الهيدروجين كوقود يضخ تحت ضغط خارجي.
استخدمت التصاميم اللاحقة من شاكلة HeS 3 (بقدرة 5 كيلونيوتن) البنزين كوقود، وجهزت
إحدى تلك الطائرات، والتي حملت اسم He 178، ليُصار إلى الطيران بها، فحصل ذلك على
يد الطيار إيريك وارسيز في صباح 27 أغسطس سنة 1939، وكانت تلك أول طائرة تطير باستخدام
محرك نفاث.[20]
- هجمات الحرمان من الخدمات أو هجوم حجب الخدمة هي هجمات تتم عن طريق إغراق المواقع
بسيل من البيانات غير اللازمة يتم إرسالها عن طريق أجهزة مصابة ببرامج(في هذه الحالة
تسمى DDOS Attacks) تعمل نشر هذه الهجمات بحيث يتحكم فيها القراصنة والعابثين الإلكترونيين
لمهاجمة الشبكة (الإنترنت)عن بعد بإرسال تلك البيانات إلى المواقع بشكل كثيف مما
يسبب بطء الخدمات أو زحاماً مرورياً بهذه المواقع ويسبب صعوبة وصول المستخدمين لها
نظراً لهذا الاكتظاظ, خصوصاً وأنه يبدو، وباعتراف الكثير من خبراء الأمن على الشبكة،
وكأنه لا يوجد علاج في الوقت الحالي لهذا الأسلوب في الهجوم على مواقع الشبكة (الإنترنت)،
وعلى هذا الأساس فإن هذا النوع من الهجمات يُدعى في بعض الأوساط "بإيدز الإنترنت".ويتم
هذا الهجوم بدون كسر ملفات كلمات السر أو سرقة البيانات السرية، هجمات حجب الخدمة
تتم ببساطه بان يقوم المهاجم بإطلاق أحد البرامج التي تزحم المرور للموقع الخاص بك
وبالتالي تمنع أي مستخدم آخر من الوصول إليه.
- source_sentence: من هو مؤلف كتاب ملائكة وشياطين ؟
sentences:
- 'التبشير بالإنجيل (باللاتينية الكنسية: evangelium، من اليونانية العامية: εὐαγγελιστής،
المكونة من εὐ التي تعني "خير" وαγγελιστής التي تعني "رسالة") هو مصطلح مسيحي يقصد
به نشر الإنجيل وتعاليم يسوع بين مجموعة من البشر لدعوتهم إلى التحول إلى المسيحيةوتعرف
الكنيسة الكاثوليكية التبشير بأنه: "عمل رعوي موجه إلى الذين لا يعرفون رسالة المسيح".[1]
طبقًا لوصايا العهد الجديد فإن المسيح قد أوصى تلاميذه ومن خلالهم جميع المسيحيين
أن ينشروا الديانة إلى كافة أصقاع الأرض، وهي كانت من كلمات المسيح الأخيرة "ما يجعلها
تكتسب أهمية كبيرة". الكنيسة تعتبر التبشير "حق إلهي" وتصرّح: "من واجبها ومن حقها
البديهي أن تبشر العالم أجمع بالإنجيل، باستقلالية تامة عن أي سلطة ونفوذ بشري، مهما
كان، وأن تستخدم لذلك الأسلوب المناسب لكل مجتمع".[2] التعليم المسيحي للكنيسة الكاثوليكية
ينصّ: "ما من أحد أعطى نفسه الإيمان كما لم يعط أحد نفسه الحياة. فقد تقبل المؤمن
الإيمان من غيره، وهو من واجبه أن ينقله لغيره".[3] أيًا كان فإن الدعوة المسيحية
لا تتم إلا بناءً على دعوة إلهية مسبقة: "أما الذين قبلوه، أي الذين آمنوا باسمه،
فقد منحهم الحق في أن يصيروا أولاد الله. وهم الذين ولدوا لا من دم، ولا من رغبة
جسد، ولا من رغبة بشر، بل من الله".[4]'
- دينو زوف حارس مرمى منتخب إيطاليا لكرة القدم سابقا (من مواليد 28 فبراير, 1942)
أحد أبرز حراس المرمى في تاريخ كرة القدم، حطم العديد من الأرقام القياسية التي تكن
مسجلة لأي حارس مرمى قبله يأتي في أبرزها محافظته على مرمى المنتخب الإيطالي نظيفاً
لمدة 1142دقيقة، في فترة مابين سبتمبر 1972 إلى يونيو 1974م. شارك في الدوري المحلي
الإيطالي مع فرق عديدة أبرزها نابولي واليوفنتوس الشهيران، ومثل المنتخب 112 مباراة
دولية . وفاز عام 1982 بكأس العالم وكان أكبر لاعب في التاريخ يفوز بالبطولة كقائد
للمنتخب وهو في قمة عطائه الكروي ..[1][2]
- فراوكه بيتري ، ولدت في درسدن في ، هي كيميائية ألمانية ورائدة أعمال سابقة، في شهر
أبريل عام 2013 عُرفت بشكل رسمي كسياسية تنتمي إلى حزب البديل من أجل ألمانيا ولكنها
في شهر سبتمبر عام 2017 انتقلت إلى حزب الزرق الألماني. وُلدت فراوكه بيتري باسم
فراوكه ماركفاردت في الأول من شهر يونيو عام 1975 في مدينة درسدن الألمانية.
- source_sentence: ما هي القرنية؟
sentences:
- وصل أول قطار إلى محطة المدينة المنورة قادماً من دمشق في 22 رجب 1326 هـ الموافق
23 أغسطس 1908م، بعد أن قطع المسافة خلال خمسة أيام فقط.[17][20] لكن افتتاح خط حديد
الحجاز الرسمي تأجل أسبوعاً ليصادف الذكرى الثانية والثلاثين لجلوس السلطان عبد الحميد
الثاني على عرش الدولة العثمانية وكان ذلك في 1 سبتمبر 1908م، وقد تم الافتتاح وسط
مراسم احتفالية كبيرة بتلك المناسبة في محطة المدينة التي تعرف أيضاً باسم وهي كلمة
تركية تأتي بمعنى «المحطة»، وتقع في العنبرية حيث تبعد مسافة تقدر بحوالي 1 كيلومتر
عن المسجد النبوي.[27][28] كما أن "لجنة خط حديد الحجاز" كانت قد قامت في وقت سابق
بافتتاح المحطات الأخرى الموزعة على الخط نيابة عن السلطان، وقد أقيمت لها كذلك احتفالات
رسمية لافتتاحها.[14]
- بريتني جين سبيرز (ولدت في 2 ديسمبر 1981)، هي مغنية أمريكية وكاتبة كلمات وممثلة
من أصول بريطانية. ولدت في ميسيسبي, وترعرعت في لويزيانا, بريتني بدأت الغناء منذ
أن كانت طفلة، ممثلة رئيسية في المسرحيات المدرسية وفي التلفاز قبل أن وقعت عقدا
مع جافا في 1997. أول ألبومين لها "بيبي ون مور تايم" و "أوبس!...آي ديد إت أقين"
أخذا نجاحاً هائلاً في أنحاء العالم وجعلا سبيرز أعلى مغنية في سن المراهقة مبيعا
في التاريخ. مع لقبها الخاص "أميرة البوب"، وصفت سبيرز بأنها واحدة من اللذين أنعشوا
وأعادوا موسيقى بوب المراهقين إلى الواجهة، في أواخر التسعينات وبداية الألفية الثالثة.
- 'أما فيما يرجع لحقيقة سكان أفريقيا الشمالية الأولين فقد اجمع المؤرخون على بكرة
أبيهم ان العنصر الاول الذي سكن هذه البلاد يتألف من البربر، وفي أصل هذه الكلمة
يقول عبد الرحمان بن خلدون: (( ان العرب لما وفدوا على هذه البلاد وسمعوا لهجة أهلها
الغريبة صاحوا قائلين ماهذه البربرة، فسموا بالبربر)) ويعتقد الم البارتيني انها
مأخوذة من كلمة ((بارباري)) اللاتينية التي كان الرومان يطلقونها على كافة الشعوب
القديمة باستثناء اليونان والرومان.'
pipeline_tag: sentence-similarity
library_name: sentence-transformers
---
# SentenceTransformer based on NAMAA-Space/AraModernBert-Base-STS
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [NAMAA-Space/AraModernBert-Base-STS](https://huggingface.co/NAMAA-Space/AraModernBert-Base-STS). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [NAMAA-Space/AraModernBert-Base-STS](https://huggingface.co/NAMAA-Space/AraModernBert-Base-STS) <!-- at revision cc3cb850a251f28b99b69bfe4c5332d21dc82c08 -->
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: ModernBertModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("yoriis/NAMAA-retriever-cosine-1")
# Run inference
sentences = [
'ما هي القرنية؟',
'أما فيما يرجع لحقيقة سكان أفريقيا الشمالية الأولين فقد اجمع المؤرخون على بكرة أبيهم ان العنصر الاول الذي سكن هذه البلاد يتألف من البربر، وفي أصل هذه الكلمة يقول عبد الرحمان بن خلدون: (( ان العرب لما وفدوا على هذه البلاد وسمعوا لهجة أهلها الغريبة صاحوا قائلين ماهذه البربرة، فسموا بالبربر)) ويعتقد الم البارتيني انها مأخوذة من كلمة ((بارباري)) اللاتينية التي كان الرومان يطلقونها على كافة الشعوب القديمة باستثناء اليونان والرومان.',
'بريتني جين سبيرز (ولدت في 2 ديسمبر 1981)، هي مغنية أمريكية وكاتبة كلمات وممثلة من أصول بريطانية. ولدت في ميسيسبي, وترعرعت في لويزيانا, بريتني بدأت الغناء منذ أن كانت طفلة، ممثلة رئيسية في المسرحيات المدرسية وفي التلفاز قبل أن وقعت عقدا مع جافا في 1997. أول ألبومين لها "بيبي ون مور تايم" و "أوبس!...آي ديد إت أقين" أخذا نجاحاً هائلاً في أنحاء العالم وجعلا سبيرز أعلى مغنية في سن المراهقة مبيعا في التاريخ. مع لقبها الخاص "أميرة البوب"، وصفت سبيرز بأنها واحدة من اللذين أنعشوا وأعادوا موسيقى بوب المراهقين إلى الواجهة، في أواخر التسعينات وبداية الألفية الثالثة.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 47,178 training samples
* Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 | label |
|:--------|:---------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:---------------------------------------------------------------|
| type | string | string | float |
| details | <ul><li>min: 6 tokens</li><li>mean: 9.82 tokens</li><li>max: 27 tokens</li></ul> | <ul><li>min: 15 tokens</li><li>mean: 127.42 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.34</li><li>max: 1.0</li></ul> |
* Samples:
| sentence_0 | sentence_1 | label |
|:-----------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
| <code>ما هي العاطفة في التعريف العام؟</code> | <code>يقع خليج العقبة إلى الشرق من شبه جزيرة سيناء وإلى الغرب من شبه الجزيرة العربية على إمتداد تلاقي الصفيحتين التكتونيتين العربية والافريقية لينتهي شمالا إلى وادي عربة؛ الحد الشرقي لصحراء النقب في فلسطين، ويعتبر مضيق تيران الحد الجنوبي للخليج. يبلغ طول خليج العقبة من مضيق تيران جنوبا إلى وادي عربه شمالا (160) كم أما عرضه فيصل إلى 24كم. واعمق نقطة في الخليج (1,850) متر تحت سطح البحر.</code> | <code>0.0</code> |
| <code>متى وقعت الثورة الفرنسية ؟</code> | <code>في مارس من عام 2010، صنفته مجلة فرانس فوتبول على قمة قائمة أغنى لاعبي كرة القدم في العالم، بتسعة وعشرون مليون جنيه إسترليني في الجمع بين الإيرادات الآتية من الرواتب، المكافآت والأرباح خارج الملعب،[327] في سبتمبر من عام 2014 أعلن موقع سبوكس الألماني بأن ثروة ميسي تقدر بنحو 130 مليون يورو،[328] وفي تقرير مالي حديث ذكرت مجلة فرانس فوتبول التي تصدر في فرنسا أن ميسي هو أعلى لاعبي كرة القدم دخلاً خلال سنة 2015، إذ بلغ مجموع دخل اللاعب خلال تلك السنة 74 مليون يورو، وهذا الدخل عبارة عن مجموع راتب اللاعب مع نادي برشلونة والمكافئات وعقود الدعاية قبل خصم الضرائب والإلتزمات الاجتماعية.[329]</code> | <code>0.0</code> |
| <code>ما هي العملة الرسمية في أوكرانية؟</code> | <code>التبشير بالإنجيل (باللاتينية الكنسية: evangelium، من اليونانية العامية: εὐαγγελιστής، المكونة من εὐ التي تعني "خير" وαγγελιστής التي تعني "رسالة") هو مصطلح مسيحي يقصد به نشر الإنجيل وتعاليم يسوع بين مجموعة من البشر لدعوتهم إلى التحول إلى المسيحيةوتعرف الكنيسة الكاثوليكية التبشير بأنه: "عمل رعوي موجه إلى الذين لا يعرفون رسالة المسيح".[1] طبقًا لوصايا العهد الجديد فإن المسيح قد أوصى تلاميذه ومن خلالهم جميع المسيحيين أن ينشروا الديانة إلى كافة أصقاع الأرض، وهي كانت من كلمات المسيح الأخيرة "ما يجعلها تكتسب أهمية كبيرة". الكنيسة تعتبر التبشير "حق إلهي" وتصرّح: "من واجبها ومن حقها البديهي أن تبشر العالم أجمع بالإنجيل، باستقلالية تامة عن أي سلطة ونفوذ بشري، مهما كان، وأن تستخدم لذلك الأسلوب المناسب لكل مجتمع".[2] التعليم المسيحي للكنيسة الكاثوليكية ينصّ: "ما من أحد أعطى نفسه الإيمان كما لم يعط أحد نفسه الحياة. فقد تقبل المؤمن الإيمان من غيره، وهو من واجبه أن ينقله لغيره".[3] أيًا كان فإن الدعوة المسيحية لا تتم إلا بناءً على دعوة إلهية مسبقة: "أما الذين قبلوه، أي الذين آمنوا باسمه، فقد منحهم ا...</code> | <code>0.0</code> |
* Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
```json
{
"loss_fct": "torch.nn.modules.loss.MSELoss"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 4
- `per_device_eval_batch_size`: 4
- `fp16`: True
- `multi_dataset_batch_sampler`: round_robin
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: no
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 4
- `per_device_eval_batch_size`: 4
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1
- `num_train_epochs`: 3
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `hub_revision`: None
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `liger_kernel_config`: None
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: round_robin
</details>
### Training Logs
| Epoch | Step | Training Loss |
|:------:|:-----:|:-------------:|
| 0.0424 | 500 | 0.0411 |
| 0.0848 | 1000 | 0.0347 |
| 0.1272 | 1500 | 0.04 |
| 0.1696 | 2000 | 0.0323 |
| 0.2120 | 2500 | 0.0332 |
| 0.2543 | 3000 | 0.0323 |
| 0.2967 | 3500 | 0.0295 |
| 0.3391 | 4000 | 0.0332 |
| 0.3815 | 4500 | 0.0292 |
| 0.4239 | 5000 | 0.0297 |
| 0.4663 | 5500 | 0.0271 |
| 0.5087 | 6000 | 0.0283 |
| 0.5511 | 6500 | 0.0258 |
| 0.5935 | 7000 | 0.0293 |
| 0.6359 | 7500 | 0.0239 |
| 0.6783 | 8000 | 0.0239 |
| 0.7206 | 8500 | 0.0299 |
| 0.7630 | 9000 | 0.0252 |
| 0.8054 | 9500 | 0.029 |
| 0.8478 | 10000 | 0.0253 |
| 0.8902 | 10500 | 0.0304 |
| 0.9326 | 11000 | 0.0254 |
| 0.9750 | 11500 | 0.0235 |
| 1.0174 | 12000 | 0.0194 |
| 1.0598 | 12500 | 0.0095 |
| 1.1022 | 13000 | 0.0079 |
| 1.1446 | 13500 | 0.0099 |
| 1.1869 | 14000 | 0.0096 |
| 1.2293 | 14500 | 0.0099 |
| 1.2717 | 15000 | 0.0101 |
| 1.3141 | 15500 | 0.0096 |
| 1.3565 | 16000 | 0.0088 |
| 1.3989 | 16500 | 0.0106 |
| 1.4413 | 17000 | 0.0098 |
| 1.4837 | 17500 | 0.0126 |
| 1.5261 | 18000 | 0.0105 |
| 1.5685 | 18500 | 0.0109 |
| 1.6109 | 19000 | 0.0118 |
| 1.6532 | 19500 | 0.0096 |
| 1.6956 | 20000 | 0.0082 |
| 1.7380 | 20500 | 0.0106 |
| 1.7804 | 21000 | 0.0107 |
| 1.8228 | 21500 | 0.009 |
| 1.8652 | 22000 | 0.0104 |
| 1.9076 | 22500 | 0.0104 |
| 1.9500 | 23000 | 0.0114 |
| 1.9924 | 23500 | 0.0088 |
| 2.0348 | 24000 | 0.0037 |
| 2.0772 | 24500 | 0.0035 |
| 2.1195 | 25000 | 0.0031 |
| 2.1619 | 25500 | 0.0037 |
| 2.2043 | 26000 | 0.0037 |
| 2.2467 | 26500 | 0.0033 |
| 2.2891 | 27000 | 0.0034 |
| 2.3315 | 27500 | 0.0045 |
| 2.3739 | 28000 | 0.0034 |
| 2.4163 | 28500 | 0.0032 |
| 2.4587 | 29000 | 0.0033 |
| 2.5011 | 29500 | 0.0041 |
| 2.5435 | 30000 | 0.0036 |
| 2.5858 | 30500 | 0.0036 |
| 2.6282 | 31000 | 0.0034 |
| 2.6706 | 31500 | 0.0038 |
| 2.7130 | 32000 | 0.0029 |
| 2.7554 | 32500 | 0.0036 |
| 2.7978 | 33000 | 0.0029 |
| 2.8402 | 33500 | 0.0036 |
| 2.8826 | 34000 | 0.0034 |
| 2.9250 | 34500 | 0.0032 |
| 2.9674 | 35000 | 0.0031 |
### Framework Versions
- Python: 3.11.13
- Sentence Transformers: 4.1.0
- Transformers: 4.54.0
- PyTorch: 2.6.0+cu124
- Accelerate: 1.9.0
- Datasets: 4.0.0
- Tokenizers: 0.21.2
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
--> |