insuperabile commited on
Commit
5dc6fa0
·
verified ·
1 Parent(s): 25c92a0

Upload fine-tuned model (rumodernbert_solyanka) to insuperabile/rumodernbert-solyanka

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,547 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:1900000
8
+ - loss:TripletLoss
9
+ base_model: deepvk/RuModernBERT-base
10
+ widget:
11
+ - source_sentence: Знаете ли Вы отчего зависит есть ли у человека зубы мудрости? У
12
+ меня например начали резаться с 15 лет, а у некоторых знакомых которым по 30 лет
13
+ их нет...
14
+ sentences:
15
+ - 'Я точно знаю, от чего зависит то, что у меня их нет. Вернее, не от чего, а от
16
+ кого: от стоматолога - он их удалил! )))))))))))))
17
+
18
+ А если серьезно.. . То, посмотрите, какие люди разные - высокие и маленькие, полные
19
+ и худые, блондины и брюнеты.. . Так и с зубами. У одного с 15 лет выросли, а у
20
+ другого дольше сидят. У некоторых вообще не вырастают потому, что им места нет
21
+ или еще какие-то там нарушения. И мудрость здесь ни при чем. Просто эти зубы начинают
22
+ расти не в нежном детском возрасте, а тогда, когда человек уже взрослый и мудрый.
23
+ Это переносный смысл. '
24
+ - Любовь - кольцо, это тот же треугольник, только со стерными углами))) ) гыы
25
+ - Была во всех трёх странах. В Индии грязнее всего, в Гоа с детьми делать нечего.
26
+ В Таиланде не так чтобы очень, но тоже далеко не идеально. Во Вьетнаме чище и
27
+ ухоженнее всего.
28
+ - source_sentence: Торговые риски и развитие мясоперерабатывающей отрасли в России
29
+ sentences:
30
+ - Введение. В данной статье проанализирована актуальная проблема торговых рисков
31
+ и развитие мясоперерабатывающей отрасли. А целью данного исследования является
32
+ выявление ключевых аспектов продовольственной самообеспеченности через призму
33
+ существующих угроз и состояния развития рынка мясных продуктов Российской Федерации.
34
+ Материалы и методы. Данное исследование основывается на научных исследованиях
35
+ российских и зарубежных ученых, которые изучают развитие мясоперерабатывающей
36
+ отрасли в России. На основании этих исследований была определена оценка торговых
37
+ рисков для потребителей и производителей мяса в стране, что показало неоднородность
38
+ объемов производства мясных продуктов и цен производителей на мясные изделия между
39
+ федеральными округами Российской Федерации. Также был проведен двухвыборочный
40
+ t -критерий Стьюдента и двухфакторный дисперсионный анализ ANOVA по годам, который
41
+ окончательно закрепил предположение о том, что Россию можно считать страной со
42
+ значительными региональными различиями с точки зрения мясоперерабатывающей отрасли.
43
+ Результаты. Основные выводы свидетельствуют о том, что во всех федеральных округах
44
+ России наблюдался значительный рост прибыли; однако темпы роста, по-видимому,
45
+ различаются по регионам. Как это ни парадоксально, торговые риски (западные санкции,
46
+ ограничительные меры COVID-19, налоговая политика государства) помогли российской
47
+ мясоперерабатывающей промышленности укрепить свои позиции. Обсуждение. На сегодняшний
48
+ день торговые риски в мясоперерабатывающей отрасли имеют стратегическое з��ачение
49
+ как для продовольственной безопасности отдельного региона, так и для всей национальной
50
+ безопасности всей страны. Заключение. Выявлены тенденции последних лет в рамках
51
+ функционирования рынка мяса и мясных продуктов Российской Федерации. Проанализировано
52
+ влияние пандемических, карантинных и санкционных мер на развитие мясоперерабатывающей
53
+ отрасли. Определены особенности развития этого рынка на современном этапе и дана
54
+ оценка развития этого рынка в среднесрочной перспективе.
55
+ - "Езжайте в другое место, поприличнее. В Китае полно красивых мест. \nА ЖаоХе,\
56
+ \ примерно как Сунька.\nНе езжайте - разочаруетесь в Китае и русских людях.\n\
57
+ Выберите место получше. "
58
+ - В настоящее время профилактика семейно-бытовых правонарушений является одним из
59
+ приоритетных направлений деятельности Министерства внутренних дел Российской Федерации.
60
+ Некачественное и несвоевременное принятие мер реагирования сотрудников полиции
61
+ на данный вид правонарушений, а также освещаемые в средствах массовой информации
62
+ резонансные преступления, которым предшествовали семейные конфликты, формируют
63
+ негативное общественное мнение о деятельности полиции и государства в целом. Исследование
64
+ посвящено повышению эффективности работы, проводимой органами внутренних дел,
65
+ по профилактике и пресечению фактов семейно-бытовых конфликтов, в том числе сопровождаемых
66
+ применением насилия к детям и женщинам. Особое внимание уделено понятию семейно-бытовых
67
+ правонарушений, анализу причин и условий возникновения семейно-бытовых конфликтов,
68
+ правовым основам регулирования ответственности в сфере семейно-бытовых конфликтов
69
+ в соответствии с законами субъектов Российской Федерации. Проанализированы основные
70
+ направления профилактики преступлений и административных правонарушений на бытовой
71
+ почве участковыми уполномоченными полиции. Определены тактические особенности
72
+ проведения работы с лицами, состоящими на профилактическом учете в органах внутренних
73
+ дел, при осуществлении профилактического обхода административного участка. Предложен
74
+ механизм привлечения общественности и отдельных категорий граждан к содействию
75
+ правоохранительным органам в целях своевременного выявления и пресечения бытовых
76
+ правонарушений. На основе проведенного анализа сделан вывод, что залогом эффективной
77
+ работы по искоренению рассматриваемого негативного социального явления является
78
+ проведение профилактического обхода административного участка, профилактических
79
+ бесед, основанных на изучении индивидуально-психологических особенностей лиц,
80
+ их прошлого, основных характеристик личности, а также на информированности об
81
+ их ближайшем окружении, связях, имеющих как позитивную, так и негативную окраску.
82
+ Показан��, что вопросы защиты жизни и здоровья членов семьи от противоправных посягательств
83
+ должны решаться комплексно, во взаимодействии с другими ведомствами и институтами
84
+ гражданского общества.
85
+ - source_sentence: 'Зачем на СВД нужен автоспуск, ведь она очередями все-равно не
86
+ стреляет, или я ошибаюсь? '
87
+ sentences:
88
+ - "Есть массив с обьектами \"товаров\" например.\n[code]\n someArr = [{name:***,\
89
+ \ prodid:***, prodinfo:***},{name:***, prodid:***, prodinfo:***}]\n[/code]\nИ\
90
+ \ больше в нем инфы разной. Есть еще один массив\n[code]\n someOtherArr = [{prodid:***},{prodid:***},{prodid:***}]\n\
91
+ [/code]\nв нем только объекты с айди. как сравнить эти массивы и выбрать с someArr\
92
+ \ только те обьекты где есть айди с someOtherArr"
93
+ - "Автоспуск - это деталь спускового механизма стрелкового оружия, автоматически\
94
+ \ освобождающая боевой взвод курка или ударника при запертом канале ствола. СВД\
95
+ \ винтовка самозарядная, а автоспуск в самозарядном (не автоматическом) оружии\
96
+ \ предназначен только для того, чтобы исключить возможность выстрела при недозакрытом\
97
+ \ затворе, а не для обеспечения стрельбы очередями. \n \nP.S. К автоспуску фотоаппарата\
98
+ \ никакого отношения не имеет"
99
+ - 'Да это в принципе разные вещи. Стоимость акций, в общем-то, мало зависит от реальной
100
+ стоимости предприятия. '
101
+ - source_sentence: 'SDN с платформой Red Hat OpenStack: интеграция с OpenDaylight'
102
+ sentences:
103
+ - Представляю вашему вниманию подбору фреймворков, темплейтов, jquery-плагинов и
104
+ иконок для создания интерфейсов в стиле Windows 8.
105
+ - 'Запущен сервер джанго. Пользователь через фронтенд создаёт и запускает некоторые
106
+ задачи, которые крутятся на сервере в отдельном процессе. Также задачи добавляются
107
+ в бд, в частности имеют статус активна/не активна. Собственно вопрос: можно ли
108
+ при отключении (ctrl+c) сервера или его падении вызвать событие, которое перешлёт
109
+ на обработчик, где можно уже реализовать нужные задачи, в моём случае изменить
110
+ статус задач на неактивные и убить все процессы. Спасибо.'
111
+ - OpenDaylight — проект с открытым исходным кодом под эгидой Linux Foundation, направленный
112
+ на содействие внедрению и развитию программно-определяемых сетей (SDN) путем создания
113
+ общей отраслевой платформы. Red Hat — платиновый член-учредитель сообщества OpenDaylight,
114
+ в деятельности которого участвуют как отдельные специалисты, так и крупные сетевые
115
+ компании. OpenDaylight стимулирует инновации и разработку самых разных вариантов
116
+ использования.
117
+ - source_sentence: "Проверьте пожалуйста текст на расставление запятых и раскрытие\
118
+ \ скобок, тире:) Материал музыки – это звуки. Материал, из которого писатель слагает\
119
+ \ произведения, - слово. Материал, которым пользуется художник, - это краски.\
120
+ \ \n Как и звуки краски могут быть и радостными, и печальными. Художник выдавливает\
121
+ \ их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные\
122
+ \ тона весенней листвы, и нежно – розовый тон заката и глубокие краски вечерних\
123
+ \ сумерек, краски огненные, как само солнце, и спокойные иссиня - чёрные, как\
124
+ \ ночное море. \n Но художник не бросает краски на холст беспорядочными пятнами.\
125
+ \ Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы\
126
+ \ обстановки… Мы смотрим на картину что придаёт перед нашим взором и не видим\
127
+ \ ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение,\
128
+ \ которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно,\
129
+ \ где разворачиваются события и переживаем их. В этом искусство живописца сродни\
130
+ \ работы писателя. \n В одном только живопись не похожа ни на музыку, ни на книгу.\
131
+ \ Мелодия течет и изменяется непрерывно события, за которыми мы следим, читая\
132
+ \ книгу, следует одно за другим. А картина изображает только одно мгновение. Как\
133
+ \ будто долго и настойчиво выбирал художник самый замечательный момент жизни,\
134
+ \ который достоин увековечения. И художник словно приказал времени «Остановить\
135
+ \ мгновение!» И красками на холсте запечатлел всё, что увидел в этом неповторимом\
136
+ \ мгновении.\n"
137
+ sentences:
138
+ - 'По моему Папанов под словами "ЭМ" и "ЖО" подразумевал совсем не футболиста...))) '
139
+ - 'Фильтр салона находится в моторном отсеке. Надо вскрыть заднюю полость моторного
140
+ отсека у правой стороны лобового стекла. '
141
+ - "Материал музыки – это звуки. Материал, из которого писатель слагает произведения,\
142
+ \ - слово. Материал, которым пользуется художник - это краски. \nКак и звуки,\
143
+ \ краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков\
144
+ \ на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней\
145
+ \ листвы, и нежно – розовый тон заката, и глубокие краски вечерних сумерек (краски\
146
+ \ огненные, как само солнце) , и спокойные иссиня - чёрные, как ночное море. \n\
147
+ Но художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков\
148
+ \ мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим\
149
+ \ на картину, что предстает перед нашим взором и не видим ни холста, ни красок.\
150
+ \ Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою\
151
+ \ работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются\
152
+ \ события и переживаем их. В этом искусство живописца сродни работы писателя.\
153
+ \ \nВ одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет\
154
+ \ и изменяется непрерывно, события, за которыми мы следим читая книгу, следуют\
155
+ \ одно за другим. А картина изображает только одно мгновение. Как будто долго\
156
+ \ и настойчиво выбирал художник самый замечательный момент жизни, который достоин\
157
+ \ увековечения. И художник словно приказал времени «Остановить мгновение! » И\
158
+ \ красками, на холсте запечатлел всё, что увидел в этом неповторимом мгновении.\
159
+ \ \n \n...на картину, что ПРИДАЕТ? (может ПРЕДСТАЕТ? ) перед нашим взором ...\n\
160
+ ...события, за которыми мы следим читая книгу, СЛЕДУЕТ (нужно писать СЛЕДУЮТ)\
161
+ \ одно за другим... "
162
+ datasets:
163
+ - insuperabile/solyanka-triplets
164
+ pipeline_tag: sentence-similarity
165
+ library_name: sentence-transformers
166
+ metrics:
167
+ - cosine_accuracy
168
+ model-index:
169
+ - name: SentenceTransformer based on deepvk/RuModernBERT-base
170
+ results:
171
+ - task:
172
+ type: triplet
173
+ name: Triplet
174
+ dataset:
175
+ name: triplet eval
176
+ type: triplet_eval
177
+ metrics:
178
+ - type: cosine_accuracy
179
+ value: 0.9990800023078918
180
+ name: Cosine Accuracy
181
+ ---
182
+
183
+ # SentenceTransformer based on deepvk/RuModernBERT-base
184
+
185
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [deepvk/RuModernBERT-base](https://huggingface.co/deepvk/RuModernBERT-base) on the [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
186
+
187
+ ## Model Details
188
+
189
+ ### Model Description
190
+ - **Model Type:** Sentence Transformer
191
+ - **Base model:** [deepvk/RuModernBERT-base](https://huggingface.co/deepvk/RuModernBERT-base) <!-- at revision 3d745996527ed96de79c7b79adcd0667af740652 -->
192
+ - **Maximum Sequence Length:** 512 tokens
193
+ - **Output Dimensionality:** 768 dimensions
194
+ - **Similarity Function:** Cosine Similarity
195
+ - **Training Dataset:**
196
+ - [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets)
197
+ <!-- - **Language:** Unknown -->
198
+ <!-- - **License:** Unknown -->
199
+
200
+ ### Model Sources
201
+
202
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
203
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
204
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
205
+
206
+ ### Full Model Architecture
207
+
208
+ ```
209
+ SentenceTransformer(
210
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: ModernBertModel
211
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
212
+ )
213
+ ```
214
+
215
+ ## Usage
216
+
217
+ ### Direct Usage (Sentence Transformers)
218
+
219
+ First install the Sentence Transformers library:
220
+
221
+ ```bash
222
+ pip install -U sentence-transformers
223
+ ```
224
+
225
+ Then you can load this model and run inference.
226
+ ```python
227
+ from sentence_transformers import SentenceTransformer
228
+
229
+ # Download from the 🤗 Hub
230
+ model = SentenceTransformer("sentence_transformers_model_id")
231
+ # Run inference
232
+ sentences = [
233
+ 'Проверьте пожалуйста текст на расставление запятых и раскрытие скобок, тире:) Материал музыки – это звуки. Материал, из которого писатель слагает произведения, - слово. Материал, которым пользуется художник, - это краски. \n Как и звуки краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней листвы, и нежно – розовый тон заката и глубокие краски вечерних сумерек, краски огненные, как само солнце, и спокойные иссиня - чёрные, как ночное море. \n Но художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим на картину что придаёт перед нашим взором и не видим ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются события и переживаем их. В этом искусство живописца сродни работы писателя. \n В одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет и изменяется непрерывно события, за которыми мы следим, читая книгу, следует одно за другим. А картина изображает только одно мгновение. Как будто долго и настойчиво выбирал художник самый замечательный момент жизни, который достоин увековечения. И художник словно приказал времени «Остановить мгновение!» И красками на холсте запечатлел всё, что увидел в этом неповторимом мгновении.\n',
234
+ 'Материал музыки – это звуки. Материал, из которого писатель слагает произведения, - слово. Материал, которым пользуется художник - это краски. \nКак и звуки, краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней листвы, и нежно – розовый тон заката, и глубокие краски вечерних сумерек (краски огненные, как само солнце) , и спокойные иссиня - чёрные, как ночное море. \nНо художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим на картину, что предстает перед нашим взором и не видим ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются события и переживаем их. В этом искусство живописца сродни работы писателя. \nВ одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет и изменяется непрерывно, события, за которыми мы следим читая книгу, следуют одно за другим. А картина изображает только одно мгновение. Как будто долго и настойчиво выбирал художник самый замечательный момент жизни, который достоин увековечения. И художник словно приказал времени «Остановить мгновение! » И красками, на холсте запечатлел всё, что увидел в этом неповторимом мгновении. \n \n...на картину, что ПРИДАЕТ? (может ПРЕДСТАЕТ? ) перед нашим взором ...\n...события, за которыми мы следим читая книгу, СЛЕДУЕТ (нужно писать СЛЕДУЮТ) одно за другим... ',
235
+ 'Фильтр салона находится в моторном отсеке. Надо вскрыть заднюю полость моторного отсека у правой стороны лобового стекла. ',
236
+ ]
237
+ embeddings = model.encode(sentences)
238
+ print(embeddings.shape)
239
+ # [3, 768]
240
+
241
+ # Get the similarity scores for the embeddings
242
+ similarities = model.similarity(embeddings, embeddings)
243
+ print(similarities.shape)
244
+ # [3, 3]
245
+ ```
246
+
247
+ <!--
248
+ ### Direct Usage (Transformers)
249
+
250
+ <details><summary>Click to see the direct usage in Transformers</summary>
251
+
252
+ </details>
253
+ -->
254
+
255
+ <!--
256
+ ### Downstream Usage (Sentence Transformers)
257
+
258
+ You can finetune this model on your own dataset.
259
+
260
+ <details><summary>Click to expand</summary>
261
+
262
+ </details>
263
+ -->
264
+
265
+ <!--
266
+ ### Out-of-Scope Use
267
+
268
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
269
+ -->
270
+
271
+ ## Evaluation
272
+
273
+ ### Metrics
274
+
275
+ #### Triplet
276
+
277
+ * Dataset: `triplet_eval`
278
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
279
+
280
+ | Metric | Value |
281
+ |:--------------------|:-----------|
282
+ | **cosine_accuracy** | **0.9991** |
283
+
284
+ <!--
285
+ ## Bias, Risks and Limitations
286
+
287
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
288
+ -->
289
+
290
+ <!--
291
+ ### Recommendations
292
+
293
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
294
+ -->
295
+
296
+ ## Training Details
297
+
298
+ ### Training Dataset
299
+
300
+ #### solyanka-triplets
301
+
302
+ * Dataset: [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) at [bcb121a](https://huggingface.co/datasets/insuperabile/solyanka-triplets/tree/bcb121a58fa5068196fe9d2652ac56dedc8f7f75)
303
+ * Size: 1,900,000 training samples
304
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
305
+ * Approximate statistics based on the first 1000 samples:
306
+ | | anchor | positive | negative |
307
+ |:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
308
+ | type | string | string | string |
309
+ | details | <ul><li>min: 4 tokens</li><li>mean: 29.29 tokens</li><li>max: 499 tokens</li></ul> | <ul><li>min: 11 tokens</li><li>mean: 162.74 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 10 tokens</li><li>mean: 163.2 tokens</li><li>max: 512 tokens</li></ul> |
310
+ * Samples:
311
+ | anchor | positive | negative |
312
+ |:--------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
313
+ | <code>Здание Центра исследований и разработок Huawei в Нанкине</code> | <code>Центр был открыт в 2018 году. Здание разделено на три острова связанных между собой коридором.Общая площадь 150 000 кв.м. В здание по мимо рабочих помещений, есть: спортивный зал, библиотека, сад, столовая.<br>Photographs: Xuetao Zhang<br>https://www.archdaily.com/932248/huawei-nanjing-research-and...</code> | <code>Как выглядит дикий банан в живой природе.<br>Банан — одна из ярких фигур в истории человеческой цивилизации. Страшно представить, о чем бы мы шутили, снимали кинокомедии и сочиняли мемы, если бы не он. (Один тут художник недавно дивно нагрел руки на самом простом банане.)<br>Первые письменные упоминания об этих плодах встречаются в индийских текстах XVII века до нашей эры. Прежде чем стать таким, каким мы его знаем по магазинным полкам, банан прошел долгий путь эволюции.<br>Однако в Юго-Восточной Азии в первозданном виде сумел сберечь себя дикий банан.<br>Вид изнутри<br>Сравнительный анализ)<br>Дичок.<br>Размером дичок, как видишь, куда меньше привычного нам родственника. Плод набит крупными семенами (в каждом около 60 штук), мякоть совершенно несъедобна. Хотя вот на Филиппинах из них героически удаляют семечки и выжимают что-то типа сока.<br>Кстати, банан — одно из древнейших культивируемых растений и экспортная культура с самой большой прибылью в мире: оборот — 12 миллиардов долларов, в отрасли занято около...</code> |
314
+ | <code>anila name meaning</code> | <code>[3 сл. a-ni-la, an-ila] Имя девочки Анила произносится как aa-N IY-Laa- ࢠ€ÂÂ. Анила возникла на санскрите и в основном используется в Индии. Имя Анила означает «бог ветра». Anila - женская версия китайского и вьетнамского An, английского и индийского Anil. Формы Anila включают имена Anilah, Anilla, Anyla, Anylah, Anylla и Anyllah. Анила не часто используется в качестве имени девочки, ее нет в топ-1000 имен. Нила - женская версия китайского и вьетнамского An, а также английского и индийского Anil. Формы Анила включают имена Анилах, Анилла, Анила, Анила, Анилла и Аниллах. Анила не часто используется в качестве имени девочки.</code> | <code>Охратоксины - это микотоксины, продуцируемые несколькими видами Aspergillus и Penicillium. Охратоксин А - наиболее экономически важная форма охратоксина; охратоксины B и C менее токсичны и встречаются реже. Охратоксины могут передаваться через молоко, кровь и мясо. Отравление охратоксинами считается причиной хронического заболевания почек у людей, известного как балканская эндемическая нефропатия. злаки, виноград, кофе, орехи и инжир. Penicillium verrucosum - основная причина загрязнения зерновых культур охратоксинами в умеренном климате.</code> |
315
+ | <code>для чего созданы таможни на Украину? .Как защитить российских автомобилистов от украинских безбожных поборов ГАИ? </code> | <code>Таможни созданы для контроля за перемещением товаров через границу между странами. А насчёт поборов - не нарушай. </code> | <code>только не тугоушие, а тугоухость<br>стойкое понижение слуха при заболеваниях среднего или внутреннего уха, длительном воздействии шума, возрастных изменениях.<br>[ссылка заблокирована по решению администрации проекта]<br>http://menier.narod.ru/lechmenier.html<br>http://www.peterkaliniak.com/page/944<br>http://vse-lechim.ru/termins/item1141.html<br>[ссылка заблокирована по решению администрации проекта]<br>[ссылка заблокирована по решению администрации проекта]<br><br>посмотрите здесь. конечно все зависит от степени болезни. удачи</code> |
316
+ * Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
317
+ ```json
318
+ {
319
+ "distance_metric": "TripletDistanceMetric.EUCLIDEAN",
320
+ "triplet_margin": 5
321
+ }
322
+ ```
323
+
324
+ ### Evaluation Dataset
325
+
326
+ #### solyanka-triplets
327
+
328
+ * Dataset: [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) at [bcb121a](https://huggingface.co/datasets/insuperabile/solyanka-triplets/tree/bcb121a58fa5068196fe9d2652ac56dedc8f7f75)
329
+ * Size: 100,000 evaluation samples
330
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
331
+ * Approximate statistics based on the first 1000 samples:
332
+ | | anchor | positive | negative |
333
+ |:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
334
+ | type | string | string | string |
335
+ | details | <ul><li>min: 4 tokens</li><li>mean: 31.28 tokens</li><li>max: 492 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 166.05 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 12 tokens</li><li>mean: 161.41 tokens</li><li>max: 512 tokens</li></ul> |
336
+ * Samples:
337
+ | anchor | positive | negative |
338
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
339
+ | <code>Какую мощность имеет сигнал WNSC?</code> | <code>WNSC-FM own. WNSC is one of only a few stations on the South Carolina side of the market (the other being WOSF, which is licensed to Gaffney) that penetrates Charlotte to any significant extent. Its 97,900-watt signal easily covers Charlotte itself, as well as Gaston and Union counties. However, it only provides fringe coverage to the northern part of the market (Concord, Lincolnton, Mooresville, etc.), largely because it must conform its signal to protect fellow NPR station WDAV, at nearby 89.9. Until the spring of 2011, it identified as "Rock Hill/Charlotte," making it the only ETV station to include a second</code> | <code>Nobuhiko Takada story and controversy between them, as Tamura had challenged Takada and walked out of his old professional wrestling promotion in 1995 to work for a rival company. Tamura was also reluctant to fight at the event due to sharing card with Kenichi Yamamoto, another Takada understudy he had a personal enmity with. However, the match took place without more troubles. Master and apprentice exchanged kicks and punches at the start of the fight. Tamura dropped Takada with a leg kick, but action had to be stopped when he landed an accidental heavy low blow. After recovering, Takada took Tamura down</code> |
340
+ | <code>Fitch понизило рейтинг банка «Уралсиб»</code> | <code>Fitch понизило рейтинг банка «Уралсиб»Ведомости 18:58<br>Фото: РИА Новости<br>Международное рейтинговое агентство Fitch понизило долгосрочный рейтинг дефолта эмитента (РДЭ) российского банка «Уралсиб» и его дочерней структуры «Уралсиб-лизинг» с В+ до В. Прогноз по рейтингу банка — «стабильный», по «дочке» — «негативный». Об этом говорится в пресс-релизе агентства. Таким образом, финансовой компании остался один шаг до преддефолтного уровня<br>Краткосрочный рейтинг банка подтвержден на уровне В. Рейтинг устойчивости снижен до b с b+.<br>Рейтинговое действие отражает сохраняющееся давление на капитализацию банка и слабые перспективы улучшения ликвидности, учитывая более сложную операционную среду, говорится в сообщении Fitch. Международное рейтинговое агентство отмечает возросшую стоимость капитала и затраты на переоценку в соответствии с рыночными трендами, что может еще больше подорвать уже и без того слабую рентабельность банка.</code> | <code>Ограничение на любительскую и спортивную охоту было введено сегодня в Татарстане, передает пресс-центр Управления по охране и использованию объектов животного мира РТ. Согласно сообщению охотиться запрещено на зайца-беляка, глухаря, рябчика и куропатку до 2017 года. Это связано с сохранением охотничьих ресурсов и их рациональным использованием.<br>Запрет на охоту будет действовать во всех угодьях кроме следующих: «Аксубаевское», «Беркут», «Бутино-Шешминское», «Арское», «Урнякское», «Атнинское», «Юкя», «Буинское», «Глухарь», «Фазан», «Елабужское», «Караишевское», «Зеленодольское», «Краснооктябрьское», «Волжско-Камское», «Камское раздолье», «Рысь», «Новомензелинское», «Сухаревское», «Шешминское», «Красновидово», «Тюрнясевское», «Тетюшское», «Урахчинское», «Мизиновское» и общедоступных охотничьих угодий Алькеевского, Альметьевского, Дрожжановского, Лениногорского, Рыбно-Слободского муниципальных районов.<br>Напомним, что 15 августа текущего года врио президента РТ Рустам Минниханов подписал ука...</code> |
341
+ | <code>Как составить исковое заявление по потере оригинала диплома на работе - на директора супермаркета, работника отдела кадров или хозяина предприятия?. На работе потеряли оригинал моего диплома. Как правильно составить исковое заявление и на кого? На директора супермаркета, на работникаотдела кадров или на хозяина предприятия?</code> | <code>Вам нужно получить дубликат диплома в учебном заведении, которое Вам его выдало. А от того, что Вы напишите исковое заявление, диплом все равно не найдется.</code> | <code>Здравствуйте, Павел,главное, чтобы нынешний собственник нашел понимание с ТСЖ относительно площади квартиры.Что же касается ошибочных начислений, то действительно, предыдущий собственник может взыскать неосновательно перечисленную плату, однако есть несколько нюансов, которые требуют более детального знакомства с ситуацией.С уважением, Иван Ерпылёв</code> |
342
+ * Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
343
+ ```json
344
+ {
345
+ "distance_metric": "TripletDistanceMetric.EUCLIDEAN",
346
+ "triplet_margin": 5
347
+ }
348
+ ```
349
+
350
+ ### Training Hyperparameters
351
+ #### Non-Default Hyperparameters
352
+
353
+ - `eval_strategy`: epoch
354
+ - `per_device_train_batch_size`: 64
355
+ - `per_device_eval_batch_size`: 32
356
+ - `learning_rate`: 1e-06
357
+ - `num_train_epochs`: 1
358
+ - `bf16`: True
359
+ - `load_best_model_at_end`: True
360
+
361
+ #### All Hyperparameters
362
+ <details><summary>Click to expand</summary>
363
+
364
+ - `overwrite_output_dir`: False
365
+ - `do_predict`: False
366
+ - `eval_strategy`: epoch
367
+ - `prediction_loss_only`: True
368
+ - `per_device_train_batch_size`: 64
369
+ - `per_device_eval_batch_size`: 32
370
+ - `per_gpu_train_batch_size`: None
371
+ - `per_gpu_eval_batch_size`: None
372
+ - `gradient_accumulation_steps`: 1
373
+ - `eval_accumulation_steps`: None
374
+ - `torch_empty_cache_steps`: None
375
+ - `learning_rate`: 1e-06
376
+ - `weight_decay`: 0.0
377
+ - `adam_beta1`: 0.9
378
+ - `adam_beta2`: 0.999
379
+ - `adam_epsilon`: 1e-08
380
+ - `max_grad_norm`: 1.0
381
+ - `num_train_epochs`: 1
382
+ - `max_steps`: -1
383
+ - `lr_scheduler_type`: linear
384
+ - `lr_scheduler_kwargs`: {}
385
+ - `warmup_ratio`: 0.0
386
+ - `warmup_steps`: 0
387
+ - `log_level`: passive
388
+ - `log_level_replica`: warning
389
+ - `log_on_each_node`: True
390
+ - `logging_nan_inf_filter`: True
391
+ - `save_safetensors`: True
392
+ - `save_on_each_node`: False
393
+ - `save_only_model`: False
394
+ - `restore_callback_states_from_checkpoint`: False
395
+ - `no_cuda`: False
396
+ - `use_cpu`: False
397
+ - `use_mps_device`: False
398
+ - `seed`: 42
399
+ - `data_seed`: None
400
+ - `jit_mode_eval`: False
401
+ - `use_ipex`: False
402
+ - `bf16`: True
403
+ - `fp16`: False
404
+ - `fp16_opt_level`: O1
405
+ - `half_precision_backend`: auto
406
+ - `bf16_full_eval`: False
407
+ - `fp16_full_eval`: False
408
+ - `tf32`: None
409
+ - `local_rank`: 0
410
+ - `ddp_backend`: None
411
+ - `tpu_num_cores`: None
412
+ - `tpu_metrics_debug`: False
413
+ - `debug`: []
414
+ - `dataloader_drop_last`: False
415
+ - `dataloader_num_workers`: 0
416
+ - `dataloader_prefetch_factor`: None
417
+ - `past_index`: -1
418
+ - `disable_tqdm`: False
419
+ - `remove_unused_columns`: True
420
+ - `label_names`: None
421
+ - `load_best_model_at_end`: True
422
+ - `ignore_data_skip`: False
423
+ - `fsdp`: []
424
+ - `fsdp_min_num_params`: 0
425
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
426
+ - `fsdp_transformer_layer_cls_to_wrap`: None
427
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
428
+ - `deepspeed`: None
429
+ - `label_smoothing_factor`: 0.0
430
+ - `optim`: adamw_torch
431
+ - `optim_args`: None
432
+ - `adafactor`: False
433
+ - `group_by_length`: False
434
+ - `length_column_name`: length
435
+ - `ddp_find_unused_parameters`: None
436
+ - `ddp_bucket_cap_mb`: None
437
+ - `ddp_broadcast_buffers`: False
438
+ - `dataloader_pin_memory`: True
439
+ - `dataloader_persistent_workers`: False
440
+ - `skip_memory_metrics`: True
441
+ - `use_legacy_prediction_loop`: False
442
+ - `push_to_hub`: False
443
+ - `resume_from_checkpoint`: None
444
+ - `hub_model_id`: None
445
+ - `hub_strategy`: every_save
446
+ - `hub_private_repo`: None
447
+ - `hub_always_push`: False
448
+ - `gradient_checkpointing`: False
449
+ - `gradient_checkpointing_kwargs`: None
450
+ - `include_inputs_for_metrics`: False
451
+ - `include_for_metrics`: []
452
+ - `eval_do_concat_batches`: True
453
+ - `fp16_backend`: auto
454
+ - `push_to_hub_model_id`: None
455
+ - `push_to_hub_organization`: None
456
+ - `mp_parameters`:
457
+ - `auto_find_batch_size`: False
458
+ - `full_determinism`: False
459
+ - `torchdynamo`: None
460
+ - `ray_scope`: last
461
+ - `ddp_timeout`: 1800
462
+ - `torch_compile`: False
463
+ - `torch_compile_backend`: None
464
+ - `torch_compile_mode`: None
465
+ - `include_tokens_per_second`: False
466
+ - `include_num_input_tokens_seen`: False
467
+ - `neftune_noise_alpha`: None
468
+ - `optim_target_modules`: None
469
+ - `batch_eval_metrics`: False
470
+ - `eval_on_start`: False
471
+ - `use_liger_kernel`: False
472
+ - `eval_use_gather_object`: False
473
+ - `average_tokens_across_devices`: False
474
+ - `prompts`: None
475
+ - `batch_sampler`: batch_sampler
476
+ - `multi_dataset_batch_sampler`: proportional
477
+
478
+ </details>
479
+
480
+ ### Training Logs
481
+ | Epoch | Step | Training Loss | Validation Loss | triplet_eval_cosine_accuracy |
482
+ |:-------:|:--------:|:-------------:|:---------------:|:----------------------------:|
483
+ | 0.1598 | 593 | 0.4866 | - | - |
484
+ | 0.3196 | 1186 | 0.0792 | - | - |
485
+ | 0.4794 | 1779 | 0.0436 | - | - |
486
+ | 0.6392 | 2372 | 0.0355 | - | - |
487
+ | 0.7990 | 2965 | 0.0324 | - | - |
488
+ | 0.9588 | 3558 | 0.0304 | - | - |
489
+ | **1.0** | **3711** | **-** | **0.0309** | **0.9991** |
490
+
491
+ * The bold row denotes the saved checkpoint.
492
+
493
+ ### Framework Versions
494
+ - Python: 3.11.10
495
+ - Sentence Transformers: 4.1.0
496
+ - Transformers: 4.52.4
497
+ - PyTorch: 2.6.0+cu124
498
+ - Accelerate: 1.7.0
499
+ - Datasets: 3.6.0
500
+ - Tokenizers: 0.21.1
501
+
502
+ ## Citation
503
+
504
+ ### BibTeX
505
+
506
+ #### Sentence Transformers
507
+ ```bibtex
508
+ @inproceedings{reimers-2019-sentence-bert,
509
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
510
+ author = "Reimers, Nils and Gurevych, Iryna",
511
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
512
+ month = "11",
513
+ year = "2019",
514
+ publisher = "Association for Computational Linguistics",
515
+ url = "https://arxiv.org/abs/1908.10084",
516
+ }
517
+ ```
518
+
519
+ #### TripletLoss
520
+ ```bibtex
521
+ @misc{hermans2017defense,
522
+ title={In Defense of the Triplet Loss for Person Re-Identification},
523
+ author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
524
+ year={2017},
525
+ eprint={1703.07737},
526
+ archivePrefix={arXiv},
527
+ primaryClass={cs.CV}
528
+ }
529
+ ```
530
+
531
+ <!--
532
+ ## Glossary
533
+
534
+ *Clearly define terms in order to be accessible across audiences.*
535
+ -->
536
+
537
+ <!--
538
+ ## Model Card Authors
539
+
540
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
541
+ -->
542
+
543
+ <!--
544
+ ## Model Card Contact
545
+
546
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
547
+ -->
checkpoint-3711/1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
checkpoint-3711/README.md ADDED
@@ -0,0 +1,546 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:1900000
8
+ - loss:TripletLoss
9
+ base_model: deepvk/RuModernBERT-base
10
+ widget:
11
+ - source_sentence: Знаете ли Вы отчего зависит есть ли у человека зубы мудрости? У
12
+ меня например начали резаться с 15 лет, а у некоторых знакомых которым по 30 лет
13
+ их нет...
14
+ sentences:
15
+ - 'Я точно знаю, от чего зависит то, что у меня их нет. Вернее, не от чего, а от
16
+ кого: от стоматолога - он их удалил! )))))))))))))
17
+
18
+ А если серьезно.. . То, посмотрите, какие люди разные - высокие и маленькие, полные
19
+ и худые, блондины и брюнеты.. . Так и с зубами. У одного с 15 лет выросли, а у
20
+ другого дольше сидят. У некоторых вообще не вырастают потому, что им места нет
21
+ или еще какие-то там нарушения. И мудрость здесь ни при чем. Просто эти зубы начинают
22
+ расти не в нежном детском возрасте, а тогда, когда человек уже взрослый и мудрый.
23
+ Это переносный смысл. '
24
+ - Любовь - кольцо, это тот же треугольник, только со стерными углами))) ) гыы
25
+ - Была во всех трёх странах. В Индии грязнее всего, в Гоа с детьми делать нечего.
26
+ В Таиланде не так чтобы очень, но тоже далеко не идеально. Во Вьетнаме чище и
27
+ ухоженнее всего.
28
+ - source_sentence: Торговые риски и развитие мясоперерабатывающей отрасли в России
29
+ sentences:
30
+ - Введение. В данной статье проанализирована актуальная проблема торговых рисков
31
+ и развитие мясоперерабатывающей отрасли. А целью данного исследования является
32
+ выявление ключевых аспектов продовольственной самообеспеченности через призму
33
+ существующих угроз и состояния развития рынка мясных продуктов Российской Федерации.
34
+ Материалы и методы. Данное исследование основывается на научных исследованиях
35
+ российских и зарубежных ученых, которые изучают развитие мясоперерабатывающей
36
+ отрасли в России. На основании этих исследований была определена оценка торговых
37
+ рисков для потребителей и производителей мяса в стране, что показало неоднородность
38
+ объемов производства мясных продуктов и цен производителей на мясные изделия между
39
+ федеральными округами Российской Федерации. Также был проведен двухвыборочный
40
+ t -критерий Стьюдента и двухфакторный дисперсионный анализ ANOVA по годам, который
41
+ окончательно закрепил предположение о том, что Россию можно считать страной со
42
+ значительными региональными различиями с точки зрения мясоперерабатывающей отрасли.
43
+ Результаты. Основные выводы свидетельствуют о том, что во всех федеральных округах
44
+ России наблюдался значительный рост прибыли; однако темпы роста, по-видимому,
45
+ различаются по регионам. Как это ни парадоксально, торговые риски (западные санкции,
46
+ ограничительные меры COVID-19, налоговая политика государства) помогли российской
47
+ мясоперерабатывающей промышленности укрепить свои позиции. Обсуждение. На сегодняшний
48
+ день торговые риски в мясоперерабатывающей отрасли имеют стратегическое з��ачение
49
+ как для продовольственной безопасности отдельного региона, так и для всей национальной
50
+ безопасности всей страны. Заключение. Выявлены тенденции последних лет в рамках
51
+ функционирования рынка мяса и мясных продуктов Российской Федерации. Проанализировано
52
+ влияние пандемических, карантинных и санкционных мер на развитие мясоперерабатывающей
53
+ отрасли. Определены особенности развития этого рынка на современном этапе и дана
54
+ оценка развития этого рынка в среднесрочной перспективе.
55
+ - "Езжайте в другое место, поприличнее. В Китае полно красивых мест. \nА ЖаоХе,\
56
+ \ примерно как Сунька.\nНе езжайте - разочаруетесь в Китае и русских людях.\n\
57
+ Выберите место получше. "
58
+ - В настоящее время профилактика семейно-бытовых правонарушений является одним из
59
+ приоритетных направлений деятельности Министерства внутренних дел Российской Федерации.
60
+ Некачественное и несвоевременное принятие мер реагирования сотрудников полиции
61
+ на данный вид правонарушений, а также освещаемые в средствах массовой информации
62
+ резонансные преступления, которым предшествовали семейные конфликты, формируют
63
+ негативное общественное мнение о деятельности полиции и государства в целом. Исследование
64
+ посвящено повышению эффективности работы, проводимой органами внутренних дел,
65
+ по профилактике и пресечению фактов семейно-бытовых конфликтов, в том числе сопровождаемых
66
+ применением насилия к детям и женщинам. Особое внимание уделено понятию семейно-бытовых
67
+ правонарушений, анализу причин и условий возникновения семейно-бытовых конфликтов,
68
+ правовым основам регулирования ответственности в сфере семейно-бытовых конфликтов
69
+ в соответствии с законами субъектов Российской Федерации. Проанализированы основные
70
+ направления профилактики преступлений и административных правонарушений на бытовой
71
+ почве участковыми уполномоченными полиции. Определены тактические особенности
72
+ проведения работы с лицами, состоящими на профилактическом учете в органах внутренних
73
+ дел, при осуществлении профилактического обхода административного участка. Предложен
74
+ механизм привлечения общественности и отдельных категорий граждан к содействию
75
+ правоохранительным органам в целях своевременного выявления и пресечения бытовых
76
+ правонарушений. На основе проведенного анализа сделан вывод, что залогом эффективной
77
+ работы по искоренению рассматриваемого негативного социального явления является
78
+ проведение профилактического обхода административного участка, профилактических
79
+ бесед, основанных на изучении индивидуально-психологических особенностей лиц,
80
+ их прошлого, основных характеристик личности, а также на информированности об
81
+ их ближайшем окружении, связях, имеющих как позитивную, так и негативную окраску.
82
+ Показан��, что вопросы защиты жизни и здоровья членов семьи от противоправных посягательств
83
+ должны решаться комплексно, во взаимодействии с другими ведомствами и институтами
84
+ гражданского общества.
85
+ - source_sentence: 'Зачем на СВД нужен автоспуск, ведь она очередями все-равно не
86
+ стреляет, или я ошибаюсь? '
87
+ sentences:
88
+ - "Есть массив с обьектами \"товаров\" например.\n[code]\n someArr = [{name:***,\
89
+ \ prodid:***, prodinfo:***},{name:***, prodid:***, prodinfo:***}]\n[/code]\nИ\
90
+ \ больше в нем инфы разной. Есть еще один массив\n[code]\n someOtherArr = [{prodid:***},{prodid:***},{prodid:***}]\n\
91
+ [/code]\nв нем только объекты с айди. как сравнить эти массивы и выбрать с someArr\
92
+ \ только те обьекты где есть айди с someOtherArr"
93
+ - "Автоспуск - это деталь спускового механизма стрелкового оружия, автоматически\
94
+ \ освобождающая боевой взвод курка или ударника при запертом канале ствола. СВД\
95
+ \ винтовка самозарядная, а автоспуск в самозарядном (не автоматическом) оружии\
96
+ \ предназначен только для того, чтобы исключить возможность выстрела при недозакрытом\
97
+ \ затворе, а не для обеспечения стрельбы очередями. \n \nP.S. К автоспуску фотоаппарата\
98
+ \ никакого отношения не имеет"
99
+ - 'Да это в принципе разные вещи. Стоимость акций, в общем-то, мало зависит от реальной
100
+ стоимости предприятия. '
101
+ - source_sentence: 'SDN с платформой Red Hat OpenStack: интеграция с OpenDaylight'
102
+ sentences:
103
+ - Представляю вашему вниманию подбору фреймворков, темплейтов, jquery-плагинов и
104
+ иконок для создания интерфейсов в стиле Windows 8.
105
+ - 'Запущен сервер джанго. Пользователь через фронтенд создаёт и запускает некоторые
106
+ задачи, которые крутятся на сервере в отдельном процессе. Также задачи добавляются
107
+ в бд, в частности имеют статус активна/не активна. Собственно вопрос: можно ли
108
+ при отключении (ctrl+c) сервера или его падении вызвать событие, которое перешлёт
109
+ на обработчик, где можно уже реализовать нужные задачи, в моём случае изменить
110
+ статус задач на неактивные и убить все процессы. Спасибо.'
111
+ - OpenDaylight — проект с открытым исходным кодом под эгидой Linux Foundation, направленный
112
+ на содействие внедрению и развитию программно-определяемых сетей (SDN) путем создания
113
+ общей отраслевой платформы. Red Hat — платиновый член-учредитель сообщества OpenDaylight,
114
+ в деятельности которого участвуют как отдельные специалисты, так и крупные сетевые
115
+ компании. OpenDaylight стимулирует инновации и разработку самых разных вариантов
116
+ использования.
117
+ - source_sentence: "Проверьте пожалуйста текст на расставление запятых и раскрытие\
118
+ \ скобок, тире:) Материал музыки – это звуки. Материал, из которого писатель слагает\
119
+ \ произведения, - слово. Материал, которым пользуется художник, - это краски.\
120
+ \ \n Как и звуки краски могут быть и радостными, и печальными. Художник выдавливает\
121
+ \ их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные\
122
+ \ тона весенней листвы, и нежно – розовый тон заката и глубокие краски вечерних\
123
+ \ сумерек, краски огненные, как само солнце, и спокойные иссиня - чёрные, как\
124
+ \ ночное море. \n Но художник не бросает краски на холст беспорядочными пятнами.\
125
+ \ Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы\
126
+ \ обстановки… Мы смотрим на картину что придаёт перед нашим взором и не видим\
127
+ \ ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение,\
128
+ \ которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно,\
129
+ \ где разворачиваются события и переживаем их. В этом искусство живописца сродни\
130
+ \ работы писателя. \n В одном только живопись не похожа ни на музыку, ни на книгу.\
131
+ \ Мелодия течет и изменяется непрерывно события, за которыми мы следим, читая\
132
+ \ книгу, следует одно за другим. А картина изображает только одно мгновение. Как\
133
+ \ будто долго и настойчиво выбирал художник самый замечательный момент жизни,\
134
+ \ который достоин увековечения. И художник словно приказал времени «Остановить\
135
+ \ мгновение!» И красками на холсте запечатлел всё, что увидел в этом неповторимом\
136
+ \ мгновении.\n"
137
+ sentences:
138
+ - 'По моему Папанов под словами "ЭМ" и "ЖО" подразумевал совсем не футболиста...))) '
139
+ - 'Фильтр салона находится в моторном отсеке. Надо вскрыть заднюю полость моторного
140
+ отсека у правой стороны лобового стекла. '
141
+ - "Материал музыки – это звуки. Материал, из которого писатель слагает произведения,\
142
+ \ - слово. Материал, которым пользуется художник - это краски. \nКак и звуки,\
143
+ \ краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков\
144
+ \ на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней\
145
+ \ листвы, и нежно – розовый тон заката, и глубокие краски вечерних сумерек (краски\
146
+ \ огненные, как само солнце) , и спокойные иссиня - чёрные, как ночное море. \n\
147
+ Но художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков\
148
+ \ мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим\
149
+ \ на картину, что предстает перед нашим взором и не видим ни холста, ни красок.\
150
+ \ Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою\
151
+ \ работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются\
152
+ \ события и переживаем их. В этом искусство живописца сродни работы писателя.\
153
+ \ \nВ одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет\
154
+ \ и изменяется непрерывно, события, за которыми мы следим читая книгу, следуют\
155
+ \ одно за другим. А картина изображает только одно мгновение. Как будто долго\
156
+ \ и настойчиво выбирал художник самый замечательный момент жизни, который достоин\
157
+ \ увековечения. И художник словно приказал времени «Остановить мгновение! » И\
158
+ \ красками, на холсте запечатлел всё, что увидел в этом неповторимом мгновении.\
159
+ \ \n \n...на картину, что ПРИДАЕТ? (может ПРЕДСТАЕТ? ) перед нашим взором ...\n\
160
+ ...события, за которыми мы следим читая книгу, СЛЕДУЕТ (нужно писать СЛЕДУЮТ)\
161
+ \ одно за другим... "
162
+ datasets:
163
+ - insuperabile/solyanka-triplets
164
+ pipeline_tag: sentence-similarity
165
+ library_name: sentence-transformers
166
+ metrics:
167
+ - cosine_accuracy
168
+ model-index:
169
+ - name: SentenceTransformer based on deepvk/RuModernBERT-base
170
+ results:
171
+ - task:
172
+ type: triplet
173
+ name: Triplet
174
+ dataset:
175
+ name: triplet eval
176
+ type: triplet_eval
177
+ metrics:
178
+ - type: cosine_accuracy
179
+ value: 0.9990800023078918
180
+ name: Cosine Accuracy
181
+ ---
182
+
183
+ # SentenceTransformer based on deepvk/RuModernBERT-base
184
+
185
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [deepvk/RuModernBERT-base](https://huggingface.co/deepvk/RuModernBERT-base) on the [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
186
+
187
+ ## Model Details
188
+
189
+ ### Model Description
190
+ - **Model Type:** Sentence Transformer
191
+ - **Base model:** [deepvk/RuModernBERT-base](https://huggingface.co/deepvk/RuModernBERT-base) <!-- at revision 3d745996527ed96de79c7b79adcd0667af740652 -->
192
+ - **Maximum Sequence Length:** 512 tokens
193
+ - **Output Dimensionality:** 768 dimensions
194
+ - **Similarity Function:** Cosine Similarity
195
+ - **Training Dataset:**
196
+ - [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets)
197
+ <!-- - **Language:** Unknown -->
198
+ <!-- - **License:** Unknown -->
199
+
200
+ ### Model Sources
201
+
202
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
203
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
204
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
205
+
206
+ ### Full Model Architecture
207
+
208
+ ```
209
+ SentenceTransformer(
210
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: ModernBertModel
211
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
212
+ )
213
+ ```
214
+
215
+ ## Usage
216
+
217
+ ### Direct Usage (Sentence Transformers)
218
+
219
+ First install the Sentence Transformers library:
220
+
221
+ ```bash
222
+ pip install -U sentence-transformers
223
+ ```
224
+
225
+ Then you can load this model and run inference.
226
+ ```python
227
+ from sentence_transformers import SentenceTransformer
228
+
229
+ # Download from the 🤗 Hub
230
+ model = SentenceTransformer("sentence_transformers_model_id")
231
+ # Run inference
232
+ sentences = [
233
+ 'Проверьте пожалуйста текст на расставление запятых и раскрытие скобок, тире:) Материал музыки – это звуки. Материал, из которого писатель слагает произведения, - слово. Материал, которым пользуется художник, - это краски. \n Как и звуки краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней листвы, и нежно – розовый тон заката и глубокие краски вечерних сумерек, краски огненные, как само солнце, и спокойные иссиня - чёрные, как ночное море. \n Но художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим на картину что придаёт перед нашим взором и не видим ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются события и переживаем их. В этом искусство живописца сродни работы писателя. \n В одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет и изменяется непрерывно события, за которыми мы следим, читая книгу, следует одно за другим. А картина изображает только одно мгновение. Как будто долго и настойчиво выбирал художник самый замечательный момент жизни, который достоин увековечения. И художник словно приказал времени «Остановить мгновение!» И красками на холсте запечатлел всё, что увидел в этом неповторимом мгновении.\n',
234
+ 'Материал музыки – это звуки. Материал, из которого писатель слагает произведения, - слово. Материал, которым пользуется художник - это краски. \nКак и звуки, краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней листвы, и нежно – розовый тон заката, и глубокие краски вечерних сумерек (краски огненные, как само солнце) , и спокойные иссиня - чёрные, как ночное море. \nНо художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим на картину, что предстает перед нашим взором и не видим ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются события и переживаем их. В этом искусство живописца сродни работы писателя. \nВ одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет и изменяется непрерывно, события, за которыми мы следим читая книгу, следуют одно за другим. А картина изображает только одно мгновение. Как будто долго и настойчиво выбирал художник самый замечательный момент жизни, который достоин увековечения. И художник словно приказал времени «Остановить мгновение! » И красками, на холсте запечатлел всё, что увидел в этом неповторимом мгновении. \n \n...на картину, что ПРИДАЕТ? (может ПРЕДСТАЕТ? ) перед нашим взором ...\n...события, за которыми мы следим читая книгу, СЛЕДУЕТ (нужно писать СЛЕДУЮТ) одно за другим... ',
235
+ 'Фильтр салона находится в моторном отсеке. Надо вскрыть заднюю полость моторного отсека у правой стороны лобового стекла. ',
236
+ ]
237
+ embeddings = model.encode(sentences)
238
+ print(embeddings.shape)
239
+ # [3, 768]
240
+
241
+ # Get the similarity scores for the embeddings
242
+ similarities = model.similarity(embeddings, embeddings)
243
+ print(similarities.shape)
244
+ # [3, 3]
245
+ ```
246
+
247
+ <!--
248
+ ### Direct Usage (Transformers)
249
+
250
+ <details><summary>Click to see the direct usage in Transformers</summary>
251
+
252
+ </details>
253
+ -->
254
+
255
+ <!--
256
+ ### Downstream Usage (Sentence Transformers)
257
+
258
+ You can finetune this model on your own dataset.
259
+
260
+ <details><summary>Click to expand</summary>
261
+
262
+ </details>
263
+ -->
264
+
265
+ <!--
266
+ ### Out-of-Scope Use
267
+
268
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
269
+ -->
270
+
271
+ ## Evaluation
272
+
273
+ ### Metrics
274
+
275
+ #### Triplet
276
+
277
+ * Dataset: `triplet_eval`
278
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
279
+
280
+ | Metric | Value |
281
+ |:--------------------|:-----------|
282
+ | **cosine_accuracy** | **0.9991** |
283
+
284
+ <!--
285
+ ## Bias, Risks and Limitations
286
+
287
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
288
+ -->
289
+
290
+ <!--
291
+ ### Recommendations
292
+
293
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
294
+ -->
295
+
296
+ ## Training Details
297
+
298
+ ### Training Dataset
299
+
300
+ #### solyanka-triplets
301
+
302
+ * Dataset: [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) at [bcb121a](https://huggingface.co/datasets/insuperabile/solyanka-triplets/tree/bcb121a58fa5068196fe9d2652ac56dedc8f7f75)
303
+ * Size: 1,900,000 training samples
304
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
305
+ * Approximate statistics based on the first 1000 samples:
306
+ | | anchor | positive | negative |
307
+ |:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
308
+ | type | string | string | string |
309
+ | details | <ul><li>min: 4 tokens</li><li>mean: 29.29 tokens</li><li>max: 499 tokens</li></ul> | <ul><li>min: 11 tokens</li><li>mean: 162.74 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 10 tokens</li><li>mean: 163.2 tokens</li><li>max: 512 tokens</li></ul> |
310
+ * Samples:
311
+ | anchor | positive | negative |
312
+ |:--------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
313
+ | <code>Здание Центра исследований и разработок Huawei в Нанкине</code> | <code>Центр был открыт в 2018 году. Здание разделено на три острова связанных между собой коридором.Общая площадь 150 000 кв.м. В здание по мимо рабочих помещений, есть: спортивный зал, библиотека, сад, столовая.<br>Photographs: Xuetao Zhang<br>https://www.archdaily.com/932248/huawei-nanjing-research-and...</code> | <code>Как выглядит дикий банан в живой природе.<br>Банан — одна из ярких фигур в истории человеческой цивилизации. Страшно представить, о чем бы мы шутили, снимали кинокомедии и сочиняли мемы, если бы не он. (Один тут художник недавно дивно нагрел руки на самом простом банане.)<br>Первые письменные упоминания об этих плодах встречаются в индийских текстах XVII века до нашей эры. Прежде чем стать таким, каким мы его знаем по магазинным полкам, банан прошел долгий путь эволюции.<br>Однако в Юго-Восточной Азии в первозданном виде сумел сберечь себя дикий банан.<br>Вид изнутри<br>Сравнительный анализ)<br>Дичок.<br>Размером дичок, как видишь, куда меньше привычного нам родственника. Плод набит крупными семенами (в каждом около 60 штук), мякоть совершенно несъедобна. Хотя вот на Филиппинах из них героически удаляют семечки и выжимают что-то типа сока.<br>Кстати, банан — одно из древнейших культивируемых растений и экспортная культура с самой большой прибылью в мире: оборот — 12 миллиардов долларов, в отрасли занято около...</code> |
314
+ | <code>anila name meaning</code> | <code>[3 сл. a-ni-la, an-ila] Имя девочки Анила произносится как aa-N IY-Laa- ࢠ€ÂÂ. Анила возникла на санскрите и в основном используется в Индии. Имя Анила означает «бог ветра». Anila - женская версия китайского и вьетнамского An, английского и индийского Anil. Формы Anila включают имена Anilah, Anilla, Anyla, Anylah, Anylla и Anyllah. Анила не часто используется в качестве имени девочки, ее нет в топ-1000 имен. Нила - женская версия китайского и вьетнамского An, а также английского и индийского Anil. Формы Анила включают имена Анилах, Анилла, Анила, Анила, Анилла и Аниллах. Анила не часто используется в качестве имени девочки.</code> | <code>Охратоксины - это микотоксины, продуцируемые несколькими видами Aspergillus и Penicillium. Охратоксин А - наиболее экономически важная форма охратоксина; охратоксины B и C менее токсичны и встречаются реже. Охратоксины могут передаваться через молоко, кровь и мясо. Отравление охратоксинами считается причиной хронического заболевания почек у людей, известного как балканская эндемическая нефропатия. злаки, виноград, кофе, орехи и инжир. Penicillium verrucosum - основная причина загрязнения зерновых культур охратоксинами в умеренном климате.</code> |
315
+ | <code>для чего созданы таможни на Украину? .Как защитить российских автомобилистов от украинских безбожных поборов ГАИ? </code> | <code>Таможни созданы для контроля за перемещением товаров через границу между странами. А насчёт поборов - не нарушай. </code> | <code>только не тугоушие, а тугоухость<br>стойкое понижение слуха при заболеваниях среднего или внутреннего уха, длительном воздействии шума, возрастных изменениях.<br>[ссылка заблокирована по решению администрации проекта]<br>http://menier.narod.ru/lechmenier.html<br>http://www.peterkaliniak.com/page/944<br>http://vse-lechim.ru/termins/item1141.html<br>[ссылка заблокирована по решению администрации проекта]<br>[ссылка заблокирована по решению администрации проекта]<br><br>посмотрите здесь. конечно все зависит от степени болезни. удачи</code> |
316
+ * Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
317
+ ```json
318
+ {
319
+ "distance_metric": "TripletDistanceMetric.EUCLIDEAN",
320
+ "triplet_margin": 5
321
+ }
322
+ ```
323
+
324
+ ### Evaluation Dataset
325
+
326
+ #### solyanka-triplets
327
+
328
+ * Dataset: [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) at [bcb121a](https://huggingface.co/datasets/insuperabile/solyanka-triplets/tree/bcb121a58fa5068196fe9d2652ac56dedc8f7f75)
329
+ * Size: 100,000 evaluation samples
330
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
331
+ * Approximate statistics based on the first 1000 samples:
332
+ | | anchor | positive | negative |
333
+ |:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
334
+ | type | string | string | string |
335
+ | details | <ul><li>min: 4 tokens</li><li>mean: 31.28 tokens</li><li>max: 492 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 166.05 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 12 tokens</li><li>mean: 161.41 tokens</li><li>max: 512 tokens</li></ul> |
336
+ * Samples:
337
+ | anchor | positive | negative |
338
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
339
+ | <code>Какую мощность имеет сигнал WNSC?</code> | <code>WNSC-FM own. WNSC is one of only a few stations on the South Carolina side of the market (the other being WOSF, which is licensed to Gaffney) that penetrates Charlotte to any significant extent. Its 97,900-watt signal easily covers Charlotte itself, as well as Gaston and Union counties. However, it only provides fringe coverage to the northern part of the market (Concord, Lincolnton, Mooresville, etc.), largely because it must conform its signal to protect fellow NPR station WDAV, at nearby 89.9. Until the spring of 2011, it identified as "Rock Hill/Charlotte," making it the only ETV station to include a second</code> | <code>Nobuhiko Takada story and controversy between them, as Tamura had challenged Takada and walked out of his old professional wrestling promotion in 1995 to work for a rival company. Tamura was also reluctant to fight at the event due to sharing card with Kenichi Yamamoto, another Takada understudy he had a personal enmity with. However, the match took place without more troubles. Master and apprentice exchanged kicks and punches at the start of the fight. Tamura dropped Takada with a leg kick, but action had to be stopped when he landed an accidental heavy low blow. After recovering, Takada took Tamura down</code> |
340
+ | <code>Fitch понизило рейтинг банка «Уралсиб»</code> | <code>Fitch понизило рейтинг банка «Уралсиб»Ведомости 18:58<br>Фото: РИА Новости<br>Международное рейтинговое агентство Fitch понизило долгосрочный рейтинг дефолта эмитента (РДЭ) российского банка «Уралсиб» и его дочерней структуры «Уралсиб-лизинг» с В+ до В. Прогноз по рейтингу банка — «стабильный», по «дочке» — «негативный». Об этом говорится в пресс-релизе агентства. Таким образом, финансовой компании остался один шаг до преддефолтного уровня<br>Краткосрочный рейтинг банка подтвержден на уровне В. Рейтинг устойчивости снижен до b с b+.<br>Рейтинговое действие отражает сохраняющееся давление на капитализацию банка и слабые перспективы улучшения ликвидности, учитывая более сложную операционную среду, говорится в сообщении Fitch. Международное рейтинговое агентство отмечает возросшую стоимость капитала и затраты на переоценку в соответствии с рыночными трендами, что может еще больше подорвать уже и без того слабую рентабельность банка.</code> | <code>Ограничение на любительскую и спортивную охоту было введено сегодня в Татарстане, передает пресс-центр Управления по охране и использованию объектов животного мира РТ. Согласно сообщению охотиться запрещено на зайца-беляка, глухаря, рябчика и куропатку до 2017 года. Это связано с сохранением охотничьих ресурсов и их рациональным использованием.<br>Запрет на охоту будет действовать во всех угодьях кроме следующих: «Аксубаевское», «Беркут», «Бутино-Шешминское», «Арское», «Урнякское», «Атнинское», «Юкя», «Буинское», «Глухарь», «Фазан», «Елабужское», «Караишевское», «Зеленодольское», «Краснооктябрьское», «Волжско-Камское», «Камское раздолье», «Рысь», «Новомензелинское», «Сухаревское», «Шешминское», «Красновидово», «Тюрнясевское», «Тетюшское», «Урахчинское», «Мизиновское» и общедоступных охотничьих угодий Алькеевского, Альметьевского, Дрожжановского, Лениногорского, Рыбно-Слободского муниципальных районов.<br>Напомним, что 15 августа текущего года врио президента РТ Рустам Минниханов подписал ука...</code> |
341
+ | <code>Как составить исковое заявление по потере оригинала диплома на работе - на директора супермаркета, работника отдела кадров или хозяина предприятия?. На работе потеряли оригинал моего диплома. Как правильно составить исковое заявление и на кого? На директора супермаркета, на работникаотдела кадров или на хозяина предприятия?</code> | <code>Вам нужно получить дубликат диплома в учебном заведении, которое Вам его выдало. А от того, что Вы напишите исковое заявление, диплом все равно не найдется.</code> | <code>Здравствуйте, Павел,главное, чтобы нынешний собственник нашел понимание с ТСЖ относительно площади квартиры.Что же касается ошибочных начислений, то действительно, предыдущий собственник может взыскать неосновательно перечисленную плату, однако есть несколько нюансов, которые требуют более детального знакомства с ситуацией.С уважением, Иван Ерпылёв</code> |
342
+ * Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
343
+ ```json
344
+ {
345
+ "distance_metric": "TripletDistanceMetric.EUCLIDEAN",
346
+ "triplet_margin": 5
347
+ }
348
+ ```
349
+
350
+ ### Training Hyperparameters
351
+ #### Non-Default Hyperparameters
352
+
353
+ - `eval_strategy`: epoch
354
+ - `per_device_train_batch_size`: 64
355
+ - `per_device_eval_batch_size`: 32
356
+ - `learning_rate`: 1e-06
357
+ - `num_train_epochs`: 1
358
+ - `bf16`: True
359
+ - `load_best_model_at_end`: True
360
+
361
+ #### All Hyperparameters
362
+ <details><summary>Click to expand</summary>
363
+
364
+ - `overwrite_output_dir`: False
365
+ - `do_predict`: False
366
+ - `eval_strategy`: epoch
367
+ - `prediction_loss_only`: True
368
+ - `per_device_train_batch_size`: 64
369
+ - `per_device_eval_batch_size`: 32
370
+ - `per_gpu_train_batch_size`: None
371
+ - `per_gpu_eval_batch_size`: None
372
+ - `gradient_accumulation_steps`: 1
373
+ - `eval_accumulation_steps`: None
374
+ - `torch_empty_cache_steps`: None
375
+ - `learning_rate`: 1e-06
376
+ - `weight_decay`: 0.0
377
+ - `adam_beta1`: 0.9
378
+ - `adam_beta2`: 0.999
379
+ - `adam_epsilon`: 1e-08
380
+ - `max_grad_norm`: 1.0
381
+ - `num_train_epochs`: 1
382
+ - `max_steps`: -1
383
+ - `lr_scheduler_type`: linear
384
+ - `lr_scheduler_kwargs`: {}
385
+ - `warmup_ratio`: 0.0
386
+ - `warmup_steps`: 0
387
+ - `log_level`: passive
388
+ - `log_level_replica`: warning
389
+ - `log_on_each_node`: True
390
+ - `logging_nan_inf_filter`: True
391
+ - `save_safetensors`: True
392
+ - `save_on_each_node`: False
393
+ - `save_only_model`: False
394
+ - `restore_callback_states_from_checkpoint`: False
395
+ - `no_cuda`: False
396
+ - `use_cpu`: False
397
+ - `use_mps_device`: False
398
+ - `seed`: 42
399
+ - `data_seed`: None
400
+ - `jit_mode_eval`: False
401
+ - `use_ipex`: False
402
+ - `bf16`: True
403
+ - `fp16`: False
404
+ - `fp16_opt_level`: O1
405
+ - `half_precision_backend`: auto
406
+ - `bf16_full_eval`: False
407
+ - `fp16_full_eval`: False
408
+ - `tf32`: None
409
+ - `local_rank`: 0
410
+ - `ddp_backend`: None
411
+ - `tpu_num_cores`: None
412
+ - `tpu_metrics_debug`: False
413
+ - `debug`: []
414
+ - `dataloader_drop_last`: False
415
+ - `dataloader_num_workers`: 0
416
+ - `dataloader_prefetch_factor`: None
417
+ - `past_index`: -1
418
+ - `disable_tqdm`: False
419
+ - `remove_unused_columns`: True
420
+ - `label_names`: None
421
+ - `load_best_model_at_end`: True
422
+ - `ignore_data_skip`: False
423
+ - `fsdp`: []
424
+ - `fsdp_min_num_params`: 0
425
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
426
+ - `fsdp_transformer_layer_cls_to_wrap`: None
427
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
428
+ - `deepspeed`: None
429
+ - `label_smoothing_factor`: 0.0
430
+ - `optim`: adamw_torch
431
+ - `optim_args`: None
432
+ - `adafactor`: False
433
+ - `group_by_length`: False
434
+ - `length_column_name`: length
435
+ - `ddp_find_unused_parameters`: None
436
+ - `ddp_bucket_cap_mb`: None
437
+ - `ddp_broadcast_buffers`: False
438
+ - `dataloader_pin_memory`: True
439
+ - `dataloader_persistent_workers`: False
440
+ - `skip_memory_metrics`: True
441
+ - `use_legacy_prediction_loop`: False
442
+ - `push_to_hub`: False
443
+ - `resume_from_checkpoint`: None
444
+ - `hub_model_id`: None
445
+ - `hub_strategy`: every_save
446
+ - `hub_private_repo`: None
447
+ - `hub_always_push`: False
448
+ - `gradient_checkpointing`: False
449
+ - `gradient_checkpointing_kwargs`: None
450
+ - `include_inputs_for_metrics`: False
451
+ - `include_for_metrics`: []
452
+ - `eval_do_concat_batches`: True
453
+ - `fp16_backend`: auto
454
+ - `push_to_hub_model_id`: None
455
+ - `push_to_hub_organization`: None
456
+ - `mp_parameters`:
457
+ - `auto_find_batch_size`: False
458
+ - `full_determinism`: False
459
+ - `torchdynamo`: None
460
+ - `ray_scope`: last
461
+ - `ddp_timeout`: 1800
462
+ - `torch_compile`: False
463
+ - `torch_compile_backend`: None
464
+ - `torch_compile_mode`: None
465
+ - `include_tokens_per_second`: False
466
+ - `include_num_input_tokens_seen`: False
467
+ - `neftune_noise_alpha`: None
468
+ - `optim_target_modules`: None
469
+ - `batch_eval_metrics`: False
470
+ - `eval_on_start`: False
471
+ - `use_liger_kernel`: False
472
+ - `eval_use_gather_object`: False
473
+ - `average_tokens_across_devices`: False
474
+ - `prompts`: None
475
+ - `batch_sampler`: batch_sampler
476
+ - `multi_dataset_batch_sampler`: proportional
477
+
478
+ </details>
479
+
480
+ ### Training Logs
481
+ | Epoch | Step | Training Loss | Validation Loss | triplet_eval_cosine_accuracy |
482
+ |:------:|:----:|:-------------:|:---------------:|:----------------------------:|
483
+ | 0.1598 | 593 | 0.4866 | - | - |
484
+ | 0.3196 | 1186 | 0.0792 | - | - |
485
+ | 0.4794 | 1779 | 0.0436 | - | - |
486
+ | 0.6392 | 2372 | 0.0355 | - | - |
487
+ | 0.7990 | 2965 | 0.0324 | - | - |
488
+ | 0.9588 | 3558 | 0.0304 | - | - |
489
+ | 1.0 | 3711 | - | 0.0309 | 0.9991 |
490
+
491
+
492
+ ### Framework Versions
493
+ - Python: 3.11.10
494
+ - Sentence Transformers: 4.1.0
495
+ - Transformers: 4.52.4
496
+ - PyTorch: 2.6.0+cu124
497
+ - Accelerate: 1.7.0
498
+ - Datasets: 3.6.0
499
+ - Tokenizers: 0.21.1
500
+
501
+ ## Citation
502
+
503
+ ### BibTeX
504
+
505
+ #### Sentence Transformers
506
+ ```bibtex
507
+ @inproceedings{reimers-2019-sentence-bert,
508
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
509
+ author = "Reimers, Nils and Gurevych, Iryna",
510
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
511
+ month = "11",
512
+ year = "2019",
513
+ publisher = "Association for Computational Linguistics",
514
+ url = "https://arxiv.org/abs/1908.10084",
515
+ }
516
+ ```
517
+
518
+ #### TripletLoss
519
+ ```bibtex
520
+ @misc{hermans2017defense,
521
+ title={In Defense of the Triplet Loss for Person Re-Identification},
522
+ author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
523
+ year={2017},
524
+ eprint={1703.07737},
525
+ archivePrefix={arXiv},
526
+ primaryClass={cs.CV}
527
+ }
528
+ ```
529
+
530
+ <!--
531
+ ## Glossary
532
+
533
+ *Clearly define terms in order to be accessible across audiences.*
534
+ -->
535
+
536
+ <!--
537
+ ## Model Card Authors
538
+
539
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
540
+ -->
541
+
542
+ <!--
543
+ ## Model Card Contact
544
+
545
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
546
+ -->
checkpoint-3711/config.json ADDED
@@ -0,0 +1,81 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "activation_function": "gelu",
3
+ "allow_embedding_resizing": true,
4
+ "architectures": [
5
+ "ModernBertModel"
6
+ ],
7
+ "attention_bias": false,
8
+ "attention_dropout": 0.0,
9
+ "attention_layer": "rope",
10
+ "attention_probs_dropout_prob": 0.0,
11
+ "attn_out_bias": false,
12
+ "attn_out_dropout_prob": 0.1,
13
+ "attn_qkv_bias": false,
14
+ "bert_layer": "prenorm",
15
+ "bos_token_id": 50281,
16
+ "classifier_activation": "gelu",
17
+ "classifier_bias": false,
18
+ "classifier_dropout": 0.0,
19
+ "classifier_pooling": "cls",
20
+ "cls_token_id": 50281,
21
+ "compile_model": true,
22
+ "decoder_bias": true,
23
+ "deterministic_flash_attn": false,
24
+ "embed_dropout_prob": 0.0,
25
+ "embed_norm": true,
26
+ "embedding_dropout": 0.0,
27
+ "embedding_layer": "sans_pos",
28
+ "eos_token_id": 50282,
29
+ "final_norm": true,
30
+ "global_attn_every_n_layers": 3,
31
+ "global_rope_theta": 160000.0,
32
+ "head_pred_act": "gelu",
33
+ "hidden_act": "gelu",
34
+ "hidden_activation": "gelu",
35
+ "hidden_size": 768,
36
+ "init_method": "full_megatron",
37
+ "initializer_cutoff_factor": 2.0,
38
+ "initializer_range": 0.02,
39
+ "intermediate_size": 1152,
40
+ "local_attention": 128,
41
+ "local_attn_rotary_emb_base": 10000.0,
42
+ "local_rope_theta": 10000.0,
43
+ "loss_function": "fa_cross_entropy",
44
+ "loss_kwargs": {
45
+ "reduction": "mean"
46
+ },
47
+ "masked_prediction": true,
48
+ "max_position_embeddings": 8192,
49
+ "mlp_bias": false,
50
+ "mlp_dropout": 0.0,
51
+ "mlp_dropout_prob": 0.0,
52
+ "mlp_in_bias": false,
53
+ "mlp_layer": "glu",
54
+ "mlp_out_bias": false,
55
+ "model_type": "modernbert",
56
+ "norm_bias": false,
57
+ "norm_eps": 1e-05,
58
+ "norm_kwargs": {
59
+ "bias": false,
60
+ "eps": 1e-05
61
+ },
62
+ "normalization": "layernorm",
63
+ "num_attention_heads": 12,
64
+ "num_hidden_layers": 22,
65
+ "pad_token_id": 50283,
66
+ "padding": "unpadded",
67
+ "repad_logits_with_grad": false,
68
+ "rotary_emb_base": 160000.0,
69
+ "rotary_emb_dim": null,
70
+ "rotary_emb_interleaved": false,
71
+ "rotary_emb_scale_base": null,
72
+ "sep_token_id": 50282,
73
+ "skip_first_prenorm": true,
74
+ "sliding_window": 128,
75
+ "sparse_pred_ignore_index": -100,
76
+ "sparse_prediction": false,
77
+ "torch_dtype": "float32",
78
+ "transformers_version": "4.52.4",
79
+ "unpad_embeddings": true,
80
+ "vocab_size": 50368
81
+ }
checkpoint-3711/config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "4.1.0",
4
+ "transformers": "4.52.4",
5
+ "pytorch": "2.6.0+cu124"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
checkpoint-3711/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:b4b8411440f4b0a9c68965cd518105fb4aba6a0c81480b7d28d83630ba995223
3
+ size 596070136
checkpoint-3711/modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
checkpoint-3711/optimizer.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:7b0f47144a558155c4b9fa3bc6f993a8e2804b3986210c9fb572efb477f2674f
3
+ size 1192227066
checkpoint-3711/rng_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6fe06cbec48873f7cf0d5b361a59149eba8e2f91780f602044d2ef83c90e59df
3
+ size 14244
checkpoint-3711/scheduler.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:89bbc6ab6c96a90d6557c95493a409a78753fe443a9e45295730f2ae044ec57b
3
+ size 1064
checkpoint-3711/sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
checkpoint-3711/special_tokens_map.json ADDED
@@ -0,0 +1,46 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "additional_special_tokens": [
3
+ "<|padding|>",
4
+ "<|endoftext|>",
5
+ "[UNK]",
6
+ "[CLS]",
7
+ "[SEP]",
8
+ "[PAD]",
9
+ "[MASK]"
10
+ ],
11
+ "cls_token": {
12
+ "content": "[CLS]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false
17
+ },
18
+ "mask_token": {
19
+ "content": "[MASK]",
20
+ "lstrip": true,
21
+ "normalized": false,
22
+ "rstrip": false,
23
+ "single_word": false
24
+ },
25
+ "pad_token": {
26
+ "content": "[PAD]",
27
+ "lstrip": false,
28
+ "normalized": false,
29
+ "rstrip": false,
30
+ "single_word": false
31
+ },
32
+ "sep_token": {
33
+ "content": "[SEP]",
34
+ "lstrip": false,
35
+ "normalized": false,
36
+ "rstrip": false,
37
+ "single_word": false
38
+ },
39
+ "unk_token": {
40
+ "content": "[UNK]",
41
+ "lstrip": false,
42
+ "normalized": false,
43
+ "rstrip": false,
44
+ "single_word": false
45
+ }
46
+ }
checkpoint-3711/tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
checkpoint-3711/tokenizer_config.json ADDED
@@ -0,0 +1,954 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<|padding|>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<|endoftext|>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": " ",
21
+ "lstrip": false,
22
+ "normalized": true,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": false
26
+ },
27
+ "3": {
28
+ "content": " ",
29
+ "lstrip": false,
30
+ "normalized": true,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": false
34
+ },
35
+ "4": {
36
+ "content": " ",
37
+ "lstrip": false,
38
+ "normalized": true,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": false
42
+ },
43
+ "5": {
44
+ "content": "|||EMAIL_ADDRESS|||",
45
+ "lstrip": false,
46
+ "normalized": true,
47
+ "rstrip": false,
48
+ "single_word": false,
49
+ "special": false
50
+ },
51
+ "6": {
52
+ "content": "|||PHONE_NUMBER|||",
53
+ "lstrip": false,
54
+ "normalized": true,
55
+ "rstrip": false,
56
+ "single_word": false,
57
+ "special": false
58
+ },
59
+ "50259": {
60
+ "content": "|||IP_ADDRESS|||",
61
+ "lstrip": false,
62
+ "normalized": true,
63
+ "rstrip": false,
64
+ "single_word": false,
65
+ "special": false
66
+ },
67
+ "50260": {
68
+ "content": " ",
69
+ "lstrip": false,
70
+ "normalized": true,
71
+ "rstrip": false,
72
+ "single_word": false,
73
+ "special": false
74
+ },
75
+ "50261": {
76
+ "content": " ",
77
+ "lstrip": false,
78
+ "normalized": true,
79
+ "rstrip": false,
80
+ "single_word": false,
81
+ "special": false
82
+ },
83
+ "50262": {
84
+ "content": " ",
85
+ "lstrip": false,
86
+ "normalized": true,
87
+ "rstrip": false,
88
+ "single_word": false,
89
+ "special": false
90
+ },
91
+ "50263": {
92
+ "content": " ",
93
+ "lstrip": false,
94
+ "normalized": true,
95
+ "rstrip": false,
96
+ "single_word": false,
97
+ "special": false
98
+ },
99
+ "50264": {
100
+ "content": " ",
101
+ "lstrip": false,
102
+ "normalized": true,
103
+ "rstrip": false,
104
+ "single_word": false,
105
+ "special": false
106
+ },
107
+ "50265": {
108
+ "content": " ",
109
+ "lstrip": false,
110
+ "normalized": true,
111
+ "rstrip": false,
112
+ "single_word": false,
113
+ "special": false
114
+ },
115
+ "50266": {
116
+ "content": " ",
117
+ "lstrip": false,
118
+ "normalized": true,
119
+ "rstrip": false,
120
+ "single_word": false,
121
+ "special": false
122
+ },
123
+ "50267": {
124
+ "content": " ",
125
+ "lstrip": false,
126
+ "normalized": true,
127
+ "rstrip": false,
128
+ "single_word": false,
129
+ "special": false
130
+ },
131
+ "50268": {
132
+ "content": " ",
133
+ "lstrip": false,
134
+ "normalized": true,
135
+ "rstrip": false,
136
+ "single_word": false,
137
+ "special": false
138
+ },
139
+ "50269": {
140
+ "content": " ",
141
+ "lstrip": false,
142
+ "normalized": true,
143
+ "rstrip": false,
144
+ "single_word": false,
145
+ "special": false
146
+ },
147
+ "50270": {
148
+ "content": " ",
149
+ "lstrip": false,
150
+ "normalized": true,
151
+ "rstrip": false,
152
+ "single_word": false,
153
+ "special": false
154
+ },
155
+ "50271": {
156
+ "content": " ",
157
+ "lstrip": false,
158
+ "normalized": true,
159
+ "rstrip": false,
160
+ "single_word": false,
161
+ "special": false
162
+ },
163
+ "50272": {
164
+ "content": " ",
165
+ "lstrip": false,
166
+ "normalized": true,
167
+ "rstrip": false,
168
+ "single_word": false,
169
+ "special": false
170
+ },
171
+ "50273": {
172
+ "content": " ",
173
+ "lstrip": false,
174
+ "normalized": true,
175
+ "rstrip": false,
176
+ "single_word": false,
177
+ "special": false
178
+ },
179
+ "50274": {
180
+ "content": " ",
181
+ "lstrip": false,
182
+ "normalized": true,
183
+ "rstrip": false,
184
+ "single_word": false,
185
+ "special": false
186
+ },
187
+ "50275": {
188
+ "content": " ",
189
+ "lstrip": false,
190
+ "normalized": true,
191
+ "rstrip": false,
192
+ "single_word": false,
193
+ "special": false
194
+ },
195
+ "50276": {
196
+ "content": " ",
197
+ "lstrip": false,
198
+ "normalized": true,
199
+ "rstrip": false,
200
+ "single_word": false,
201
+ "special": false
202
+ },
203
+ "50277": {
204
+ "content": " ",
205
+ "lstrip": false,
206
+ "normalized": true,
207
+ "rstrip": false,
208
+ "single_word": false,
209
+ "special": false
210
+ },
211
+ "50278": {
212
+ "content": " ",
213
+ "lstrip": false,
214
+ "normalized": true,
215
+ "rstrip": false,
216
+ "single_word": false,
217
+ "special": false
218
+ },
219
+ "50279": {
220
+ "content": " ",
221
+ "lstrip": false,
222
+ "normalized": true,
223
+ "rstrip": false,
224
+ "single_word": false,
225
+ "special": false
226
+ },
227
+ "50280": {
228
+ "content": "[UNK]",
229
+ "lstrip": false,
230
+ "normalized": false,
231
+ "rstrip": false,
232
+ "single_word": false,
233
+ "special": true
234
+ },
235
+ "50281": {
236
+ "content": "[CLS]",
237
+ "lstrip": false,
238
+ "normalized": false,
239
+ "rstrip": false,
240
+ "single_word": false,
241
+ "special": true
242
+ },
243
+ "50282": {
244
+ "content": "[SEP]",
245
+ "lstrip": false,
246
+ "normalized": false,
247
+ "rstrip": false,
248
+ "single_word": false,
249
+ "special": true
250
+ },
251
+ "50283": {
252
+ "content": "[PAD]",
253
+ "lstrip": false,
254
+ "normalized": false,
255
+ "rstrip": false,
256
+ "single_word": false,
257
+ "special": true
258
+ },
259
+ "50284": {
260
+ "content": "[MASK]",
261
+ "lstrip": true,
262
+ "normalized": false,
263
+ "rstrip": false,
264
+ "single_word": false,
265
+ "special": true
266
+ },
267
+ "50285": {
268
+ "content": "[unused0]",
269
+ "lstrip": false,
270
+ "normalized": true,
271
+ "rstrip": false,
272
+ "single_word": false,
273
+ "special": false
274
+ },
275
+ "50286": {
276
+ "content": "[unused1]",
277
+ "lstrip": false,
278
+ "normalized": true,
279
+ "rstrip": false,
280
+ "single_word": false,
281
+ "special": false
282
+ },
283
+ "50287": {
284
+ "content": "[unused2]",
285
+ "lstrip": false,
286
+ "normalized": true,
287
+ "rstrip": false,
288
+ "single_word": false,
289
+ "special": false
290
+ },
291
+ "50288": {
292
+ "content": "[unused3]",
293
+ "lstrip": false,
294
+ "normalized": true,
295
+ "rstrip": false,
296
+ "single_word": false,
297
+ "special": false
298
+ },
299
+ "50289": {
300
+ "content": "[unused4]",
301
+ "lstrip": false,
302
+ "normalized": true,
303
+ "rstrip": false,
304
+ "single_word": false,
305
+ "special": false
306
+ },
307
+ "50290": {
308
+ "content": "[unused5]",
309
+ "lstrip": false,
310
+ "normalized": true,
311
+ "rstrip": false,
312
+ "single_word": false,
313
+ "special": false
314
+ },
315
+ "50291": {
316
+ "content": "[unused6]",
317
+ "lstrip": false,
318
+ "normalized": true,
319
+ "rstrip": false,
320
+ "single_word": false,
321
+ "special": false
322
+ },
323
+ "50292": {
324
+ "content": "[unused7]",
325
+ "lstrip": false,
326
+ "normalized": true,
327
+ "rstrip": false,
328
+ "single_word": false,
329
+ "special": false
330
+ },
331
+ "50293": {
332
+ "content": "[unused8]",
333
+ "lstrip": false,
334
+ "normalized": true,
335
+ "rstrip": false,
336
+ "single_word": false,
337
+ "special": false
338
+ },
339
+ "50294": {
340
+ "content": "[unused9]",
341
+ "lstrip": false,
342
+ "normalized": true,
343
+ "rstrip": false,
344
+ "single_word": false,
345
+ "special": false
346
+ },
347
+ "50295": {
348
+ "content": "[unused10]",
349
+ "lstrip": false,
350
+ "normalized": true,
351
+ "rstrip": false,
352
+ "single_word": false,
353
+ "special": false
354
+ },
355
+ "50296": {
356
+ "content": "[unused11]",
357
+ "lstrip": false,
358
+ "normalized": true,
359
+ "rstrip": false,
360
+ "single_word": false,
361
+ "special": false
362
+ },
363
+ "50297": {
364
+ "content": "[unused12]",
365
+ "lstrip": false,
366
+ "normalized": true,
367
+ "rstrip": false,
368
+ "single_word": false,
369
+ "special": false
370
+ },
371
+ "50298": {
372
+ "content": "[unused13]",
373
+ "lstrip": false,
374
+ "normalized": true,
375
+ "rstrip": false,
376
+ "single_word": false,
377
+ "special": false
378
+ },
379
+ "50299": {
380
+ "content": "[unused14]",
381
+ "lstrip": false,
382
+ "normalized": true,
383
+ "rstrip": false,
384
+ "single_word": false,
385
+ "special": false
386
+ },
387
+ "50300": {
388
+ "content": "[unused15]",
389
+ "lstrip": false,
390
+ "normalized": true,
391
+ "rstrip": false,
392
+ "single_word": false,
393
+ "special": false
394
+ },
395
+ "50301": {
396
+ "content": "[unused16]",
397
+ "lstrip": false,
398
+ "normalized": true,
399
+ "rstrip": false,
400
+ "single_word": false,
401
+ "special": false
402
+ },
403
+ "50302": {
404
+ "content": "[unused17]",
405
+ "lstrip": false,
406
+ "normalized": true,
407
+ "rstrip": false,
408
+ "single_word": false,
409
+ "special": false
410
+ },
411
+ "50303": {
412
+ "content": "[unused18]",
413
+ "lstrip": false,
414
+ "normalized": true,
415
+ "rstrip": false,
416
+ "single_word": false,
417
+ "special": false
418
+ },
419
+ "50304": {
420
+ "content": "[unused19]",
421
+ "lstrip": false,
422
+ "normalized": true,
423
+ "rstrip": false,
424
+ "single_word": false,
425
+ "special": false
426
+ },
427
+ "50305": {
428
+ "content": "[unused20]",
429
+ "lstrip": false,
430
+ "normalized": true,
431
+ "rstrip": false,
432
+ "single_word": false,
433
+ "special": false
434
+ },
435
+ "50306": {
436
+ "content": "[unused21]",
437
+ "lstrip": false,
438
+ "normalized": true,
439
+ "rstrip": false,
440
+ "single_word": false,
441
+ "special": false
442
+ },
443
+ "50307": {
444
+ "content": "[unused22]",
445
+ "lstrip": false,
446
+ "normalized": true,
447
+ "rstrip": false,
448
+ "single_word": false,
449
+ "special": false
450
+ },
451
+ "50308": {
452
+ "content": "[unused23]",
453
+ "lstrip": false,
454
+ "normalized": true,
455
+ "rstrip": false,
456
+ "single_word": false,
457
+ "special": false
458
+ },
459
+ "50309": {
460
+ "content": "[unused24]",
461
+ "lstrip": false,
462
+ "normalized": true,
463
+ "rstrip": false,
464
+ "single_word": false,
465
+ "special": false
466
+ },
467
+ "50310": {
468
+ "content": "[unused25]",
469
+ "lstrip": false,
470
+ "normalized": true,
471
+ "rstrip": false,
472
+ "single_word": false,
473
+ "special": false
474
+ },
475
+ "50311": {
476
+ "content": "[unused26]",
477
+ "lstrip": false,
478
+ "normalized": true,
479
+ "rstrip": false,
480
+ "single_word": false,
481
+ "special": false
482
+ },
483
+ "50312": {
484
+ "content": "[unused27]",
485
+ "lstrip": false,
486
+ "normalized": true,
487
+ "rstrip": false,
488
+ "single_word": false,
489
+ "special": false
490
+ },
491
+ "50313": {
492
+ "content": "[unused28]",
493
+ "lstrip": false,
494
+ "normalized": true,
495
+ "rstrip": false,
496
+ "single_word": false,
497
+ "special": false
498
+ },
499
+ "50314": {
500
+ "content": "[unused29]",
501
+ "lstrip": false,
502
+ "normalized": true,
503
+ "rstrip": false,
504
+ "single_word": false,
505
+ "special": false
506
+ },
507
+ "50315": {
508
+ "content": "[unused30]",
509
+ "lstrip": false,
510
+ "normalized": true,
511
+ "rstrip": false,
512
+ "single_word": false,
513
+ "special": false
514
+ },
515
+ "50316": {
516
+ "content": "[unused31]",
517
+ "lstrip": false,
518
+ "normalized": true,
519
+ "rstrip": false,
520
+ "single_word": false,
521
+ "special": false
522
+ },
523
+ "50317": {
524
+ "content": "[unused32]",
525
+ "lstrip": false,
526
+ "normalized": true,
527
+ "rstrip": false,
528
+ "single_word": false,
529
+ "special": false
530
+ },
531
+ "50318": {
532
+ "content": "[unused33]",
533
+ "lstrip": false,
534
+ "normalized": true,
535
+ "rstrip": false,
536
+ "single_word": false,
537
+ "special": false
538
+ },
539
+ "50319": {
540
+ "content": "[unused34]",
541
+ "lstrip": false,
542
+ "normalized": true,
543
+ "rstrip": false,
544
+ "single_word": false,
545
+ "special": false
546
+ },
547
+ "50320": {
548
+ "content": "[unused35]",
549
+ "lstrip": false,
550
+ "normalized": true,
551
+ "rstrip": false,
552
+ "single_word": false,
553
+ "special": false
554
+ },
555
+ "50321": {
556
+ "content": "[unused36]",
557
+ "lstrip": false,
558
+ "normalized": true,
559
+ "rstrip": false,
560
+ "single_word": false,
561
+ "special": false
562
+ },
563
+ "50322": {
564
+ "content": "[unused37]",
565
+ "lstrip": false,
566
+ "normalized": true,
567
+ "rstrip": false,
568
+ "single_word": false,
569
+ "special": false
570
+ },
571
+ "50323": {
572
+ "content": "[unused38]",
573
+ "lstrip": false,
574
+ "normalized": true,
575
+ "rstrip": false,
576
+ "single_word": false,
577
+ "special": false
578
+ },
579
+ "50324": {
580
+ "content": "[unused39]",
581
+ "lstrip": false,
582
+ "normalized": true,
583
+ "rstrip": false,
584
+ "single_word": false,
585
+ "special": false
586
+ },
587
+ "50325": {
588
+ "content": "[unused40]",
589
+ "lstrip": false,
590
+ "normalized": true,
591
+ "rstrip": false,
592
+ "single_word": false,
593
+ "special": false
594
+ },
595
+ "50326": {
596
+ "content": "[unused41]",
597
+ "lstrip": false,
598
+ "normalized": true,
599
+ "rstrip": false,
600
+ "single_word": false,
601
+ "special": false
602
+ },
603
+ "50327": {
604
+ "content": "[unused42]",
605
+ "lstrip": false,
606
+ "normalized": true,
607
+ "rstrip": false,
608
+ "single_word": false,
609
+ "special": false
610
+ },
611
+ "50328": {
612
+ "content": "[unused43]",
613
+ "lstrip": false,
614
+ "normalized": true,
615
+ "rstrip": false,
616
+ "single_word": false,
617
+ "special": false
618
+ },
619
+ "50329": {
620
+ "content": "[unused44]",
621
+ "lstrip": false,
622
+ "normalized": true,
623
+ "rstrip": false,
624
+ "single_word": false,
625
+ "special": false
626
+ },
627
+ "50330": {
628
+ "content": "[unused45]",
629
+ "lstrip": false,
630
+ "normalized": true,
631
+ "rstrip": false,
632
+ "single_word": false,
633
+ "special": false
634
+ },
635
+ "50331": {
636
+ "content": "[unused46]",
637
+ "lstrip": false,
638
+ "normalized": true,
639
+ "rstrip": false,
640
+ "single_word": false,
641
+ "special": false
642
+ },
643
+ "50332": {
644
+ "content": "[unused47]",
645
+ "lstrip": false,
646
+ "normalized": true,
647
+ "rstrip": false,
648
+ "single_word": false,
649
+ "special": false
650
+ },
651
+ "50333": {
652
+ "content": "[unused48]",
653
+ "lstrip": false,
654
+ "normalized": true,
655
+ "rstrip": false,
656
+ "single_word": false,
657
+ "special": false
658
+ },
659
+ "50334": {
660
+ "content": "[unused49]",
661
+ "lstrip": false,
662
+ "normalized": true,
663
+ "rstrip": false,
664
+ "single_word": false,
665
+ "special": false
666
+ },
667
+ "50335": {
668
+ "content": "[unused50]",
669
+ "lstrip": false,
670
+ "normalized": true,
671
+ "rstrip": false,
672
+ "single_word": false,
673
+ "special": false
674
+ },
675
+ "50336": {
676
+ "content": "[unused51]",
677
+ "lstrip": false,
678
+ "normalized": true,
679
+ "rstrip": false,
680
+ "single_word": false,
681
+ "special": false
682
+ },
683
+ "50337": {
684
+ "content": "[unused52]",
685
+ "lstrip": false,
686
+ "normalized": true,
687
+ "rstrip": false,
688
+ "single_word": false,
689
+ "special": false
690
+ },
691
+ "50338": {
692
+ "content": "[unused53]",
693
+ "lstrip": false,
694
+ "normalized": true,
695
+ "rstrip": false,
696
+ "single_word": false,
697
+ "special": false
698
+ },
699
+ "50339": {
700
+ "content": "[unused54]",
701
+ "lstrip": false,
702
+ "normalized": true,
703
+ "rstrip": false,
704
+ "single_word": false,
705
+ "special": false
706
+ },
707
+ "50340": {
708
+ "content": "[unused55]",
709
+ "lstrip": false,
710
+ "normalized": true,
711
+ "rstrip": false,
712
+ "single_word": false,
713
+ "special": false
714
+ },
715
+ "50341": {
716
+ "content": "[unused56]",
717
+ "lstrip": false,
718
+ "normalized": true,
719
+ "rstrip": false,
720
+ "single_word": false,
721
+ "special": false
722
+ },
723
+ "50342": {
724
+ "content": "[unused57]",
725
+ "lstrip": false,
726
+ "normalized": true,
727
+ "rstrip": false,
728
+ "single_word": false,
729
+ "special": false
730
+ },
731
+ "50343": {
732
+ "content": "[unused58]",
733
+ "lstrip": false,
734
+ "normalized": true,
735
+ "rstrip": false,
736
+ "single_word": false,
737
+ "special": false
738
+ },
739
+ "50344": {
740
+ "content": "[unused59]",
741
+ "lstrip": false,
742
+ "normalized": true,
743
+ "rstrip": false,
744
+ "single_word": false,
745
+ "special": false
746
+ },
747
+ "50345": {
748
+ "content": "[unused60]",
749
+ "lstrip": false,
750
+ "normalized": true,
751
+ "rstrip": false,
752
+ "single_word": false,
753
+ "special": false
754
+ },
755
+ "50346": {
756
+ "content": "[unused61]",
757
+ "lstrip": false,
758
+ "normalized": true,
759
+ "rstrip": false,
760
+ "single_word": false,
761
+ "special": false
762
+ },
763
+ "50347": {
764
+ "content": "[unused62]",
765
+ "lstrip": false,
766
+ "normalized": true,
767
+ "rstrip": false,
768
+ "single_word": false,
769
+ "special": false
770
+ },
771
+ "50348": {
772
+ "content": "[unused63]",
773
+ "lstrip": false,
774
+ "normalized": true,
775
+ "rstrip": false,
776
+ "single_word": false,
777
+ "special": false
778
+ },
779
+ "50349": {
780
+ "content": "[unused64]",
781
+ "lstrip": false,
782
+ "normalized": true,
783
+ "rstrip": false,
784
+ "single_word": false,
785
+ "special": false
786
+ },
787
+ "50350": {
788
+ "content": "[unused65]",
789
+ "lstrip": false,
790
+ "normalized": true,
791
+ "rstrip": false,
792
+ "single_word": false,
793
+ "special": false
794
+ },
795
+ "50351": {
796
+ "content": "[unused66]",
797
+ "lstrip": false,
798
+ "normalized": true,
799
+ "rstrip": false,
800
+ "single_word": false,
801
+ "special": false
802
+ },
803
+ "50352": {
804
+ "content": "[unused67]",
805
+ "lstrip": false,
806
+ "normalized": true,
807
+ "rstrip": false,
808
+ "single_word": false,
809
+ "special": false
810
+ },
811
+ "50353": {
812
+ "content": "[unused68]",
813
+ "lstrip": false,
814
+ "normalized": true,
815
+ "rstrip": false,
816
+ "single_word": false,
817
+ "special": false
818
+ },
819
+ "50354": {
820
+ "content": "[unused69]",
821
+ "lstrip": false,
822
+ "normalized": true,
823
+ "rstrip": false,
824
+ "single_word": false,
825
+ "special": false
826
+ },
827
+ "50355": {
828
+ "content": "[unused70]",
829
+ "lstrip": false,
830
+ "normalized": true,
831
+ "rstrip": false,
832
+ "single_word": false,
833
+ "special": false
834
+ },
835
+ "50356": {
836
+ "content": "[unused71]",
837
+ "lstrip": false,
838
+ "normalized": true,
839
+ "rstrip": false,
840
+ "single_word": false,
841
+ "special": false
842
+ },
843
+ "50357": {
844
+ "content": "[unused72]",
845
+ "lstrip": false,
846
+ "normalized": true,
847
+ "rstrip": false,
848
+ "single_word": false,
849
+ "special": false
850
+ },
851
+ "50358": {
852
+ "content": "[unused73]",
853
+ "lstrip": false,
854
+ "normalized": true,
855
+ "rstrip": false,
856
+ "single_word": false,
857
+ "special": false
858
+ },
859
+ "50359": {
860
+ "content": "[unused74]",
861
+ "lstrip": false,
862
+ "normalized": true,
863
+ "rstrip": false,
864
+ "single_word": false,
865
+ "special": false
866
+ },
867
+ "50360": {
868
+ "content": "[unused75]",
869
+ "lstrip": false,
870
+ "normalized": true,
871
+ "rstrip": false,
872
+ "single_word": false,
873
+ "special": false
874
+ },
875
+ "50361": {
876
+ "content": "[unused76]",
877
+ "lstrip": false,
878
+ "normalized": true,
879
+ "rstrip": false,
880
+ "single_word": false,
881
+ "special": false
882
+ },
883
+ "50362": {
884
+ "content": "[unused77]",
885
+ "lstrip": false,
886
+ "normalized": true,
887
+ "rstrip": false,
888
+ "single_word": false,
889
+ "special": false
890
+ },
891
+ "50363": {
892
+ "content": "[unused78]",
893
+ "lstrip": false,
894
+ "normalized": true,
895
+ "rstrip": false,
896
+ "single_word": false,
897
+ "special": false
898
+ },
899
+ "50364": {
900
+ "content": "[unused79]",
901
+ "lstrip": false,
902
+ "normalized": true,
903
+ "rstrip": false,
904
+ "single_word": false,
905
+ "special": false
906
+ },
907
+ "50365": {
908
+ "content": "[unused80]",
909
+ "lstrip": false,
910
+ "normalized": true,
911
+ "rstrip": false,
912
+ "single_word": false,
913
+ "special": false
914
+ },
915
+ "50366": {
916
+ "content": "[unused81]",
917
+ "lstrip": false,
918
+ "normalized": true,
919
+ "rstrip": false,
920
+ "single_word": false,
921
+ "special": false
922
+ },
923
+ "50367": {
924
+ "content": "[unused82]",
925
+ "lstrip": false,
926
+ "normalized": true,
927
+ "rstrip": false,
928
+ "single_word": false,
929
+ "special": false
930
+ }
931
+ },
932
+ "additional_special_tokens": [
933
+ "<|padding|>",
934
+ "<|endoftext|>",
935
+ "[UNK]",
936
+ "[CLS]",
937
+ "[SEP]",
938
+ "[PAD]",
939
+ "[MASK]"
940
+ ],
941
+ "clean_up_tokenization_spaces": true,
942
+ "cls_token": "[CLS]",
943
+ "extra_special_tokens": {},
944
+ "mask_token": "[MASK]",
945
+ "model_input_names": [
946
+ "input_ids",
947
+ "attention_mask"
948
+ ],
949
+ "model_max_length": 1000000000000000019884624838656,
950
+ "pad_token": "[PAD]",
951
+ "sep_token": "[SEP]",
952
+ "tokenizer_class": "PreTrainedTokenizer",
953
+ "unk_token": "[UNK]"
954
+ }
checkpoint-3711/trainer_state.json ADDED
@@ -0,0 +1,85 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_global_step": 3711,
3
+ "best_metric": 0.9990800023078918,
4
+ "best_model_checkpoint": "/my_model_output/rumodernbert_solyanka/checkpoint-3711",
5
+ "epoch": 1.0,
6
+ "eval_steps": 500,
7
+ "global_step": 3711,
8
+ "is_hyper_param_search": false,
9
+ "is_local_process_zero": true,
10
+ "is_world_process_zero": true,
11
+ "log_history": [
12
+ {
13
+ "epoch": 0.15979520344920506,
14
+ "grad_norm": 3.437915086746216,
15
+ "learning_rate": 8.404742656965777e-07,
16
+ "loss": 0.4866,
17
+ "step": 593
18
+ },
19
+ {
20
+ "epoch": 0.3195904068984101,
21
+ "grad_norm": 2.164642095565796,
22
+ "learning_rate": 6.806790622473725e-07,
23
+ "loss": 0.0792,
24
+ "step": 1186
25
+ },
26
+ {
27
+ "epoch": 0.4793856103476152,
28
+ "grad_norm": 2.1435794830322266,
29
+ "learning_rate": 5.208838587981676e-07,
30
+ "loss": 0.0436,
31
+ "step": 1779
32
+ },
33
+ {
34
+ "epoch": 0.6391808137968202,
35
+ "grad_norm": 1.1813297271728516,
36
+ "learning_rate": 3.6108865534896254e-07,
37
+ "loss": 0.0355,
38
+ "step": 2372
39
+ },
40
+ {
41
+ "epoch": 0.7989760172460253,
42
+ "grad_norm": 1.226506233215332,
43
+ "learning_rate": 2.0129345189975746e-07,
44
+ "loss": 0.0324,
45
+ "step": 2965
46
+ },
47
+ {
48
+ "epoch": 0.9587712206952304,
49
+ "grad_norm": 2.737544059753418,
50
+ "learning_rate": 4.149824845055241e-08,
51
+ "loss": 0.0304,
52
+ "step": 3558
53
+ },
54
+ {
55
+ "epoch": 1.0,
56
+ "eval_loss": 0.030859705060720444,
57
+ "eval_runtime": 1596.6388,
58
+ "eval_samples_per_second": 62.632,
59
+ "eval_steps_per_second": 0.245,
60
+ "eval_triplet_eval_cosine_accuracy": 0.9990800023078918,
61
+ "step": 3711
62
+ }
63
+ ],
64
+ "logging_steps": 593,
65
+ "max_steps": 3711,
66
+ "num_input_tokens_seen": 0,
67
+ "num_train_epochs": 1,
68
+ "save_steps": 500,
69
+ "stateful_callbacks": {
70
+ "TrainerControl": {
71
+ "args": {
72
+ "should_epoch_stop": false,
73
+ "should_evaluate": false,
74
+ "should_log": false,
75
+ "should_save": true,
76
+ "should_training_stop": true
77
+ },
78
+ "attributes": {}
79
+ }
80
+ },
81
+ "total_flos": 0.0,
82
+ "train_batch_size": 512,
83
+ "trial_name": null,
84
+ "trial_params": null
85
+ }
checkpoint-3711/training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d1e977a923acf9cd0b37c83cd6a3d6c6def3c2e5b4d71847252398eb01d03cab
3
+ size 5560
config.json ADDED
@@ -0,0 +1,81 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "activation_function": "gelu",
3
+ "allow_embedding_resizing": true,
4
+ "architectures": [
5
+ "ModernBertModel"
6
+ ],
7
+ "attention_bias": false,
8
+ "attention_dropout": 0.0,
9
+ "attention_layer": "rope",
10
+ "attention_probs_dropout_prob": 0.0,
11
+ "attn_out_bias": false,
12
+ "attn_out_dropout_prob": 0.1,
13
+ "attn_qkv_bias": false,
14
+ "bert_layer": "prenorm",
15
+ "bos_token_id": 50281,
16
+ "classifier_activation": "gelu",
17
+ "classifier_bias": false,
18
+ "classifier_dropout": 0.0,
19
+ "classifier_pooling": "cls",
20
+ "cls_token_id": 50281,
21
+ "compile_model": true,
22
+ "decoder_bias": true,
23
+ "deterministic_flash_attn": false,
24
+ "embed_dropout_prob": 0.0,
25
+ "embed_norm": true,
26
+ "embedding_dropout": 0.0,
27
+ "embedding_layer": "sans_pos",
28
+ "eos_token_id": 50282,
29
+ "final_norm": true,
30
+ "global_attn_every_n_layers": 3,
31
+ "global_rope_theta": 160000.0,
32
+ "head_pred_act": "gelu",
33
+ "hidden_act": "gelu",
34
+ "hidden_activation": "gelu",
35
+ "hidden_size": 768,
36
+ "init_method": "full_megatron",
37
+ "initializer_cutoff_factor": 2.0,
38
+ "initializer_range": 0.02,
39
+ "intermediate_size": 1152,
40
+ "local_attention": 128,
41
+ "local_attn_rotary_emb_base": 10000.0,
42
+ "local_rope_theta": 10000.0,
43
+ "loss_function": "fa_cross_entropy",
44
+ "loss_kwargs": {
45
+ "reduction": "mean"
46
+ },
47
+ "masked_prediction": true,
48
+ "max_position_embeddings": 8192,
49
+ "mlp_bias": false,
50
+ "mlp_dropout": 0.0,
51
+ "mlp_dropout_prob": 0.0,
52
+ "mlp_in_bias": false,
53
+ "mlp_layer": "glu",
54
+ "mlp_out_bias": false,
55
+ "model_type": "modernbert",
56
+ "norm_bias": false,
57
+ "norm_eps": 1e-05,
58
+ "norm_kwargs": {
59
+ "bias": false,
60
+ "eps": 1e-05
61
+ },
62
+ "normalization": "layernorm",
63
+ "num_attention_heads": 12,
64
+ "num_hidden_layers": 22,
65
+ "pad_token_id": 50283,
66
+ "padding": "unpadded",
67
+ "repad_logits_with_grad": false,
68
+ "rotary_emb_base": 160000.0,
69
+ "rotary_emb_dim": null,
70
+ "rotary_emb_interleaved": false,
71
+ "rotary_emb_scale_base": null,
72
+ "sep_token_id": 50282,
73
+ "skip_first_prenorm": true,
74
+ "sliding_window": 128,
75
+ "sparse_pred_ignore_index": -100,
76
+ "sparse_prediction": false,
77
+ "torch_dtype": "float32",
78
+ "transformers_version": "4.52.4",
79
+ "unpad_embeddings": true,
80
+ "vocab_size": 50368
81
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "4.1.0",
4
+ "transformers": "4.52.4",
5
+ "pytorch": "2.6.0+cu124"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
eval/triplet_evaluation_triplet_eval_results.csv ADDED
@@ -0,0 +1,2 @@
 
 
 
1
+ epoch,steps,accuracy_cosine
2
+ 1.0,3711,0.9990800023078918
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:b4b8411440f4b0a9c68965cd518105fb4aba6a0c81480b7d28d83630ba995223
3
+ size 596070136
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,46 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "additional_special_tokens": [
3
+ "<|padding|>",
4
+ "<|endoftext|>",
5
+ "[UNK]",
6
+ "[CLS]",
7
+ "[SEP]",
8
+ "[PAD]",
9
+ "[MASK]"
10
+ ],
11
+ "cls_token": {
12
+ "content": "[CLS]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false
17
+ },
18
+ "mask_token": {
19
+ "content": "[MASK]",
20
+ "lstrip": true,
21
+ "normalized": false,
22
+ "rstrip": false,
23
+ "single_word": false
24
+ },
25
+ "pad_token": {
26
+ "content": "[PAD]",
27
+ "lstrip": false,
28
+ "normalized": false,
29
+ "rstrip": false,
30
+ "single_word": false
31
+ },
32
+ "sep_token": {
33
+ "content": "[SEP]",
34
+ "lstrip": false,
35
+ "normalized": false,
36
+ "rstrip": false,
37
+ "single_word": false
38
+ },
39
+ "unk_token": {
40
+ "content": "[UNK]",
41
+ "lstrip": false,
42
+ "normalized": false,
43
+ "rstrip": false,
44
+ "single_word": false
45
+ }
46
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,954 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<|padding|>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<|endoftext|>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": " ",
21
+ "lstrip": false,
22
+ "normalized": true,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": false
26
+ },
27
+ "3": {
28
+ "content": " ",
29
+ "lstrip": false,
30
+ "normalized": true,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": false
34
+ },
35
+ "4": {
36
+ "content": " ",
37
+ "lstrip": false,
38
+ "normalized": true,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": false
42
+ },
43
+ "5": {
44
+ "content": "|||EMAIL_ADDRESS|||",
45
+ "lstrip": false,
46
+ "normalized": true,
47
+ "rstrip": false,
48
+ "single_word": false,
49
+ "special": false
50
+ },
51
+ "6": {
52
+ "content": "|||PHONE_NUMBER|||",
53
+ "lstrip": false,
54
+ "normalized": true,
55
+ "rstrip": false,
56
+ "single_word": false,
57
+ "special": false
58
+ },
59
+ "50259": {
60
+ "content": "|||IP_ADDRESS|||",
61
+ "lstrip": false,
62
+ "normalized": true,
63
+ "rstrip": false,
64
+ "single_word": false,
65
+ "special": false
66
+ },
67
+ "50260": {
68
+ "content": " ",
69
+ "lstrip": false,
70
+ "normalized": true,
71
+ "rstrip": false,
72
+ "single_word": false,
73
+ "special": false
74
+ },
75
+ "50261": {
76
+ "content": " ",
77
+ "lstrip": false,
78
+ "normalized": true,
79
+ "rstrip": false,
80
+ "single_word": false,
81
+ "special": false
82
+ },
83
+ "50262": {
84
+ "content": " ",
85
+ "lstrip": false,
86
+ "normalized": true,
87
+ "rstrip": false,
88
+ "single_word": false,
89
+ "special": false
90
+ },
91
+ "50263": {
92
+ "content": " ",
93
+ "lstrip": false,
94
+ "normalized": true,
95
+ "rstrip": false,
96
+ "single_word": false,
97
+ "special": false
98
+ },
99
+ "50264": {
100
+ "content": " ",
101
+ "lstrip": false,
102
+ "normalized": true,
103
+ "rstrip": false,
104
+ "single_word": false,
105
+ "special": false
106
+ },
107
+ "50265": {
108
+ "content": " ",
109
+ "lstrip": false,
110
+ "normalized": true,
111
+ "rstrip": false,
112
+ "single_word": false,
113
+ "special": false
114
+ },
115
+ "50266": {
116
+ "content": " ",
117
+ "lstrip": false,
118
+ "normalized": true,
119
+ "rstrip": false,
120
+ "single_word": false,
121
+ "special": false
122
+ },
123
+ "50267": {
124
+ "content": " ",
125
+ "lstrip": false,
126
+ "normalized": true,
127
+ "rstrip": false,
128
+ "single_word": false,
129
+ "special": false
130
+ },
131
+ "50268": {
132
+ "content": " ",
133
+ "lstrip": false,
134
+ "normalized": true,
135
+ "rstrip": false,
136
+ "single_word": false,
137
+ "special": false
138
+ },
139
+ "50269": {
140
+ "content": " ",
141
+ "lstrip": false,
142
+ "normalized": true,
143
+ "rstrip": false,
144
+ "single_word": false,
145
+ "special": false
146
+ },
147
+ "50270": {
148
+ "content": " ",
149
+ "lstrip": false,
150
+ "normalized": true,
151
+ "rstrip": false,
152
+ "single_word": false,
153
+ "special": false
154
+ },
155
+ "50271": {
156
+ "content": " ",
157
+ "lstrip": false,
158
+ "normalized": true,
159
+ "rstrip": false,
160
+ "single_word": false,
161
+ "special": false
162
+ },
163
+ "50272": {
164
+ "content": " ",
165
+ "lstrip": false,
166
+ "normalized": true,
167
+ "rstrip": false,
168
+ "single_word": false,
169
+ "special": false
170
+ },
171
+ "50273": {
172
+ "content": " ",
173
+ "lstrip": false,
174
+ "normalized": true,
175
+ "rstrip": false,
176
+ "single_word": false,
177
+ "special": false
178
+ },
179
+ "50274": {
180
+ "content": " ",
181
+ "lstrip": false,
182
+ "normalized": true,
183
+ "rstrip": false,
184
+ "single_word": false,
185
+ "special": false
186
+ },
187
+ "50275": {
188
+ "content": " ",
189
+ "lstrip": false,
190
+ "normalized": true,
191
+ "rstrip": false,
192
+ "single_word": false,
193
+ "special": false
194
+ },
195
+ "50276": {
196
+ "content": " ",
197
+ "lstrip": false,
198
+ "normalized": true,
199
+ "rstrip": false,
200
+ "single_word": false,
201
+ "special": false
202
+ },
203
+ "50277": {
204
+ "content": " ",
205
+ "lstrip": false,
206
+ "normalized": true,
207
+ "rstrip": false,
208
+ "single_word": false,
209
+ "special": false
210
+ },
211
+ "50278": {
212
+ "content": " ",
213
+ "lstrip": false,
214
+ "normalized": true,
215
+ "rstrip": false,
216
+ "single_word": false,
217
+ "special": false
218
+ },
219
+ "50279": {
220
+ "content": " ",
221
+ "lstrip": false,
222
+ "normalized": true,
223
+ "rstrip": false,
224
+ "single_word": false,
225
+ "special": false
226
+ },
227
+ "50280": {
228
+ "content": "[UNK]",
229
+ "lstrip": false,
230
+ "normalized": false,
231
+ "rstrip": false,
232
+ "single_word": false,
233
+ "special": true
234
+ },
235
+ "50281": {
236
+ "content": "[CLS]",
237
+ "lstrip": false,
238
+ "normalized": false,
239
+ "rstrip": false,
240
+ "single_word": false,
241
+ "special": true
242
+ },
243
+ "50282": {
244
+ "content": "[SEP]",
245
+ "lstrip": false,
246
+ "normalized": false,
247
+ "rstrip": false,
248
+ "single_word": false,
249
+ "special": true
250
+ },
251
+ "50283": {
252
+ "content": "[PAD]",
253
+ "lstrip": false,
254
+ "normalized": false,
255
+ "rstrip": false,
256
+ "single_word": false,
257
+ "special": true
258
+ },
259
+ "50284": {
260
+ "content": "[MASK]",
261
+ "lstrip": true,
262
+ "normalized": false,
263
+ "rstrip": false,
264
+ "single_word": false,
265
+ "special": true
266
+ },
267
+ "50285": {
268
+ "content": "[unused0]",
269
+ "lstrip": false,
270
+ "normalized": true,
271
+ "rstrip": false,
272
+ "single_word": false,
273
+ "special": false
274
+ },
275
+ "50286": {
276
+ "content": "[unused1]",
277
+ "lstrip": false,
278
+ "normalized": true,
279
+ "rstrip": false,
280
+ "single_word": false,
281
+ "special": false
282
+ },
283
+ "50287": {
284
+ "content": "[unused2]",
285
+ "lstrip": false,
286
+ "normalized": true,
287
+ "rstrip": false,
288
+ "single_word": false,
289
+ "special": false
290
+ },
291
+ "50288": {
292
+ "content": "[unused3]",
293
+ "lstrip": false,
294
+ "normalized": true,
295
+ "rstrip": false,
296
+ "single_word": false,
297
+ "special": false
298
+ },
299
+ "50289": {
300
+ "content": "[unused4]",
301
+ "lstrip": false,
302
+ "normalized": true,
303
+ "rstrip": false,
304
+ "single_word": false,
305
+ "special": false
306
+ },
307
+ "50290": {
308
+ "content": "[unused5]",
309
+ "lstrip": false,
310
+ "normalized": true,
311
+ "rstrip": false,
312
+ "single_word": false,
313
+ "special": false
314
+ },
315
+ "50291": {
316
+ "content": "[unused6]",
317
+ "lstrip": false,
318
+ "normalized": true,
319
+ "rstrip": false,
320
+ "single_word": false,
321
+ "special": false
322
+ },
323
+ "50292": {
324
+ "content": "[unused7]",
325
+ "lstrip": false,
326
+ "normalized": true,
327
+ "rstrip": false,
328
+ "single_word": false,
329
+ "special": false
330
+ },
331
+ "50293": {
332
+ "content": "[unused8]",
333
+ "lstrip": false,
334
+ "normalized": true,
335
+ "rstrip": false,
336
+ "single_word": false,
337
+ "special": false
338
+ },
339
+ "50294": {
340
+ "content": "[unused9]",
341
+ "lstrip": false,
342
+ "normalized": true,
343
+ "rstrip": false,
344
+ "single_word": false,
345
+ "special": false
346
+ },
347
+ "50295": {
348
+ "content": "[unused10]",
349
+ "lstrip": false,
350
+ "normalized": true,
351
+ "rstrip": false,
352
+ "single_word": false,
353
+ "special": false
354
+ },
355
+ "50296": {
356
+ "content": "[unused11]",
357
+ "lstrip": false,
358
+ "normalized": true,
359
+ "rstrip": false,
360
+ "single_word": false,
361
+ "special": false
362
+ },
363
+ "50297": {
364
+ "content": "[unused12]",
365
+ "lstrip": false,
366
+ "normalized": true,
367
+ "rstrip": false,
368
+ "single_word": false,
369
+ "special": false
370
+ },
371
+ "50298": {
372
+ "content": "[unused13]",
373
+ "lstrip": false,
374
+ "normalized": true,
375
+ "rstrip": false,
376
+ "single_word": false,
377
+ "special": false
378
+ },
379
+ "50299": {
380
+ "content": "[unused14]",
381
+ "lstrip": false,
382
+ "normalized": true,
383
+ "rstrip": false,
384
+ "single_word": false,
385
+ "special": false
386
+ },
387
+ "50300": {
388
+ "content": "[unused15]",
389
+ "lstrip": false,
390
+ "normalized": true,
391
+ "rstrip": false,
392
+ "single_word": false,
393
+ "special": false
394
+ },
395
+ "50301": {
396
+ "content": "[unused16]",
397
+ "lstrip": false,
398
+ "normalized": true,
399
+ "rstrip": false,
400
+ "single_word": false,
401
+ "special": false
402
+ },
403
+ "50302": {
404
+ "content": "[unused17]",
405
+ "lstrip": false,
406
+ "normalized": true,
407
+ "rstrip": false,
408
+ "single_word": false,
409
+ "special": false
410
+ },
411
+ "50303": {
412
+ "content": "[unused18]",
413
+ "lstrip": false,
414
+ "normalized": true,
415
+ "rstrip": false,
416
+ "single_word": false,
417
+ "special": false
418
+ },
419
+ "50304": {
420
+ "content": "[unused19]",
421
+ "lstrip": false,
422
+ "normalized": true,
423
+ "rstrip": false,
424
+ "single_word": false,
425
+ "special": false
426
+ },
427
+ "50305": {
428
+ "content": "[unused20]",
429
+ "lstrip": false,
430
+ "normalized": true,
431
+ "rstrip": false,
432
+ "single_word": false,
433
+ "special": false
434
+ },
435
+ "50306": {
436
+ "content": "[unused21]",
437
+ "lstrip": false,
438
+ "normalized": true,
439
+ "rstrip": false,
440
+ "single_word": false,
441
+ "special": false
442
+ },
443
+ "50307": {
444
+ "content": "[unused22]",
445
+ "lstrip": false,
446
+ "normalized": true,
447
+ "rstrip": false,
448
+ "single_word": false,
449
+ "special": false
450
+ },
451
+ "50308": {
452
+ "content": "[unused23]",
453
+ "lstrip": false,
454
+ "normalized": true,
455
+ "rstrip": false,
456
+ "single_word": false,
457
+ "special": false
458
+ },
459
+ "50309": {
460
+ "content": "[unused24]",
461
+ "lstrip": false,
462
+ "normalized": true,
463
+ "rstrip": false,
464
+ "single_word": false,
465
+ "special": false
466
+ },
467
+ "50310": {
468
+ "content": "[unused25]",
469
+ "lstrip": false,
470
+ "normalized": true,
471
+ "rstrip": false,
472
+ "single_word": false,
473
+ "special": false
474
+ },
475
+ "50311": {
476
+ "content": "[unused26]",
477
+ "lstrip": false,
478
+ "normalized": true,
479
+ "rstrip": false,
480
+ "single_word": false,
481
+ "special": false
482
+ },
483
+ "50312": {
484
+ "content": "[unused27]",
485
+ "lstrip": false,
486
+ "normalized": true,
487
+ "rstrip": false,
488
+ "single_word": false,
489
+ "special": false
490
+ },
491
+ "50313": {
492
+ "content": "[unused28]",
493
+ "lstrip": false,
494
+ "normalized": true,
495
+ "rstrip": false,
496
+ "single_word": false,
497
+ "special": false
498
+ },
499
+ "50314": {
500
+ "content": "[unused29]",
501
+ "lstrip": false,
502
+ "normalized": true,
503
+ "rstrip": false,
504
+ "single_word": false,
505
+ "special": false
506
+ },
507
+ "50315": {
508
+ "content": "[unused30]",
509
+ "lstrip": false,
510
+ "normalized": true,
511
+ "rstrip": false,
512
+ "single_word": false,
513
+ "special": false
514
+ },
515
+ "50316": {
516
+ "content": "[unused31]",
517
+ "lstrip": false,
518
+ "normalized": true,
519
+ "rstrip": false,
520
+ "single_word": false,
521
+ "special": false
522
+ },
523
+ "50317": {
524
+ "content": "[unused32]",
525
+ "lstrip": false,
526
+ "normalized": true,
527
+ "rstrip": false,
528
+ "single_word": false,
529
+ "special": false
530
+ },
531
+ "50318": {
532
+ "content": "[unused33]",
533
+ "lstrip": false,
534
+ "normalized": true,
535
+ "rstrip": false,
536
+ "single_word": false,
537
+ "special": false
538
+ },
539
+ "50319": {
540
+ "content": "[unused34]",
541
+ "lstrip": false,
542
+ "normalized": true,
543
+ "rstrip": false,
544
+ "single_word": false,
545
+ "special": false
546
+ },
547
+ "50320": {
548
+ "content": "[unused35]",
549
+ "lstrip": false,
550
+ "normalized": true,
551
+ "rstrip": false,
552
+ "single_word": false,
553
+ "special": false
554
+ },
555
+ "50321": {
556
+ "content": "[unused36]",
557
+ "lstrip": false,
558
+ "normalized": true,
559
+ "rstrip": false,
560
+ "single_word": false,
561
+ "special": false
562
+ },
563
+ "50322": {
564
+ "content": "[unused37]",
565
+ "lstrip": false,
566
+ "normalized": true,
567
+ "rstrip": false,
568
+ "single_word": false,
569
+ "special": false
570
+ },
571
+ "50323": {
572
+ "content": "[unused38]",
573
+ "lstrip": false,
574
+ "normalized": true,
575
+ "rstrip": false,
576
+ "single_word": false,
577
+ "special": false
578
+ },
579
+ "50324": {
580
+ "content": "[unused39]",
581
+ "lstrip": false,
582
+ "normalized": true,
583
+ "rstrip": false,
584
+ "single_word": false,
585
+ "special": false
586
+ },
587
+ "50325": {
588
+ "content": "[unused40]",
589
+ "lstrip": false,
590
+ "normalized": true,
591
+ "rstrip": false,
592
+ "single_word": false,
593
+ "special": false
594
+ },
595
+ "50326": {
596
+ "content": "[unused41]",
597
+ "lstrip": false,
598
+ "normalized": true,
599
+ "rstrip": false,
600
+ "single_word": false,
601
+ "special": false
602
+ },
603
+ "50327": {
604
+ "content": "[unused42]",
605
+ "lstrip": false,
606
+ "normalized": true,
607
+ "rstrip": false,
608
+ "single_word": false,
609
+ "special": false
610
+ },
611
+ "50328": {
612
+ "content": "[unused43]",
613
+ "lstrip": false,
614
+ "normalized": true,
615
+ "rstrip": false,
616
+ "single_word": false,
617
+ "special": false
618
+ },
619
+ "50329": {
620
+ "content": "[unused44]",
621
+ "lstrip": false,
622
+ "normalized": true,
623
+ "rstrip": false,
624
+ "single_word": false,
625
+ "special": false
626
+ },
627
+ "50330": {
628
+ "content": "[unused45]",
629
+ "lstrip": false,
630
+ "normalized": true,
631
+ "rstrip": false,
632
+ "single_word": false,
633
+ "special": false
634
+ },
635
+ "50331": {
636
+ "content": "[unused46]",
637
+ "lstrip": false,
638
+ "normalized": true,
639
+ "rstrip": false,
640
+ "single_word": false,
641
+ "special": false
642
+ },
643
+ "50332": {
644
+ "content": "[unused47]",
645
+ "lstrip": false,
646
+ "normalized": true,
647
+ "rstrip": false,
648
+ "single_word": false,
649
+ "special": false
650
+ },
651
+ "50333": {
652
+ "content": "[unused48]",
653
+ "lstrip": false,
654
+ "normalized": true,
655
+ "rstrip": false,
656
+ "single_word": false,
657
+ "special": false
658
+ },
659
+ "50334": {
660
+ "content": "[unused49]",
661
+ "lstrip": false,
662
+ "normalized": true,
663
+ "rstrip": false,
664
+ "single_word": false,
665
+ "special": false
666
+ },
667
+ "50335": {
668
+ "content": "[unused50]",
669
+ "lstrip": false,
670
+ "normalized": true,
671
+ "rstrip": false,
672
+ "single_word": false,
673
+ "special": false
674
+ },
675
+ "50336": {
676
+ "content": "[unused51]",
677
+ "lstrip": false,
678
+ "normalized": true,
679
+ "rstrip": false,
680
+ "single_word": false,
681
+ "special": false
682
+ },
683
+ "50337": {
684
+ "content": "[unused52]",
685
+ "lstrip": false,
686
+ "normalized": true,
687
+ "rstrip": false,
688
+ "single_word": false,
689
+ "special": false
690
+ },
691
+ "50338": {
692
+ "content": "[unused53]",
693
+ "lstrip": false,
694
+ "normalized": true,
695
+ "rstrip": false,
696
+ "single_word": false,
697
+ "special": false
698
+ },
699
+ "50339": {
700
+ "content": "[unused54]",
701
+ "lstrip": false,
702
+ "normalized": true,
703
+ "rstrip": false,
704
+ "single_word": false,
705
+ "special": false
706
+ },
707
+ "50340": {
708
+ "content": "[unused55]",
709
+ "lstrip": false,
710
+ "normalized": true,
711
+ "rstrip": false,
712
+ "single_word": false,
713
+ "special": false
714
+ },
715
+ "50341": {
716
+ "content": "[unused56]",
717
+ "lstrip": false,
718
+ "normalized": true,
719
+ "rstrip": false,
720
+ "single_word": false,
721
+ "special": false
722
+ },
723
+ "50342": {
724
+ "content": "[unused57]",
725
+ "lstrip": false,
726
+ "normalized": true,
727
+ "rstrip": false,
728
+ "single_word": false,
729
+ "special": false
730
+ },
731
+ "50343": {
732
+ "content": "[unused58]",
733
+ "lstrip": false,
734
+ "normalized": true,
735
+ "rstrip": false,
736
+ "single_word": false,
737
+ "special": false
738
+ },
739
+ "50344": {
740
+ "content": "[unused59]",
741
+ "lstrip": false,
742
+ "normalized": true,
743
+ "rstrip": false,
744
+ "single_word": false,
745
+ "special": false
746
+ },
747
+ "50345": {
748
+ "content": "[unused60]",
749
+ "lstrip": false,
750
+ "normalized": true,
751
+ "rstrip": false,
752
+ "single_word": false,
753
+ "special": false
754
+ },
755
+ "50346": {
756
+ "content": "[unused61]",
757
+ "lstrip": false,
758
+ "normalized": true,
759
+ "rstrip": false,
760
+ "single_word": false,
761
+ "special": false
762
+ },
763
+ "50347": {
764
+ "content": "[unused62]",
765
+ "lstrip": false,
766
+ "normalized": true,
767
+ "rstrip": false,
768
+ "single_word": false,
769
+ "special": false
770
+ },
771
+ "50348": {
772
+ "content": "[unused63]",
773
+ "lstrip": false,
774
+ "normalized": true,
775
+ "rstrip": false,
776
+ "single_word": false,
777
+ "special": false
778
+ },
779
+ "50349": {
780
+ "content": "[unused64]",
781
+ "lstrip": false,
782
+ "normalized": true,
783
+ "rstrip": false,
784
+ "single_word": false,
785
+ "special": false
786
+ },
787
+ "50350": {
788
+ "content": "[unused65]",
789
+ "lstrip": false,
790
+ "normalized": true,
791
+ "rstrip": false,
792
+ "single_word": false,
793
+ "special": false
794
+ },
795
+ "50351": {
796
+ "content": "[unused66]",
797
+ "lstrip": false,
798
+ "normalized": true,
799
+ "rstrip": false,
800
+ "single_word": false,
801
+ "special": false
802
+ },
803
+ "50352": {
804
+ "content": "[unused67]",
805
+ "lstrip": false,
806
+ "normalized": true,
807
+ "rstrip": false,
808
+ "single_word": false,
809
+ "special": false
810
+ },
811
+ "50353": {
812
+ "content": "[unused68]",
813
+ "lstrip": false,
814
+ "normalized": true,
815
+ "rstrip": false,
816
+ "single_word": false,
817
+ "special": false
818
+ },
819
+ "50354": {
820
+ "content": "[unused69]",
821
+ "lstrip": false,
822
+ "normalized": true,
823
+ "rstrip": false,
824
+ "single_word": false,
825
+ "special": false
826
+ },
827
+ "50355": {
828
+ "content": "[unused70]",
829
+ "lstrip": false,
830
+ "normalized": true,
831
+ "rstrip": false,
832
+ "single_word": false,
833
+ "special": false
834
+ },
835
+ "50356": {
836
+ "content": "[unused71]",
837
+ "lstrip": false,
838
+ "normalized": true,
839
+ "rstrip": false,
840
+ "single_word": false,
841
+ "special": false
842
+ },
843
+ "50357": {
844
+ "content": "[unused72]",
845
+ "lstrip": false,
846
+ "normalized": true,
847
+ "rstrip": false,
848
+ "single_word": false,
849
+ "special": false
850
+ },
851
+ "50358": {
852
+ "content": "[unused73]",
853
+ "lstrip": false,
854
+ "normalized": true,
855
+ "rstrip": false,
856
+ "single_word": false,
857
+ "special": false
858
+ },
859
+ "50359": {
860
+ "content": "[unused74]",
861
+ "lstrip": false,
862
+ "normalized": true,
863
+ "rstrip": false,
864
+ "single_word": false,
865
+ "special": false
866
+ },
867
+ "50360": {
868
+ "content": "[unused75]",
869
+ "lstrip": false,
870
+ "normalized": true,
871
+ "rstrip": false,
872
+ "single_word": false,
873
+ "special": false
874
+ },
875
+ "50361": {
876
+ "content": "[unused76]",
877
+ "lstrip": false,
878
+ "normalized": true,
879
+ "rstrip": false,
880
+ "single_word": false,
881
+ "special": false
882
+ },
883
+ "50362": {
884
+ "content": "[unused77]",
885
+ "lstrip": false,
886
+ "normalized": true,
887
+ "rstrip": false,
888
+ "single_word": false,
889
+ "special": false
890
+ },
891
+ "50363": {
892
+ "content": "[unused78]",
893
+ "lstrip": false,
894
+ "normalized": true,
895
+ "rstrip": false,
896
+ "single_word": false,
897
+ "special": false
898
+ },
899
+ "50364": {
900
+ "content": "[unused79]",
901
+ "lstrip": false,
902
+ "normalized": true,
903
+ "rstrip": false,
904
+ "single_word": false,
905
+ "special": false
906
+ },
907
+ "50365": {
908
+ "content": "[unused80]",
909
+ "lstrip": false,
910
+ "normalized": true,
911
+ "rstrip": false,
912
+ "single_word": false,
913
+ "special": false
914
+ },
915
+ "50366": {
916
+ "content": "[unused81]",
917
+ "lstrip": false,
918
+ "normalized": true,
919
+ "rstrip": false,
920
+ "single_word": false,
921
+ "special": false
922
+ },
923
+ "50367": {
924
+ "content": "[unused82]",
925
+ "lstrip": false,
926
+ "normalized": true,
927
+ "rstrip": false,
928
+ "single_word": false,
929
+ "special": false
930
+ }
931
+ },
932
+ "additional_special_tokens": [
933
+ "<|padding|>",
934
+ "<|endoftext|>",
935
+ "[UNK]",
936
+ "[CLS]",
937
+ "[SEP]",
938
+ "[PAD]",
939
+ "[MASK]"
940
+ ],
941
+ "clean_up_tokenization_spaces": true,
942
+ "cls_token": "[CLS]",
943
+ "extra_special_tokens": {},
944
+ "mask_token": "[MASK]",
945
+ "model_input_names": [
946
+ "input_ids",
947
+ "attention_mask"
948
+ ],
949
+ "model_max_length": 1000000000000000019884624838656,
950
+ "pad_token": "[PAD]",
951
+ "sep_token": "[SEP]",
952
+ "tokenizer_class": "PreTrainedTokenizer",
953
+ "unk_token": "[UNK]"
954
+ }