Upload fine-tuned model (rumodernbert_solyanka) to insuperabile/rumodernbert-solyanka
Browse files- 1_Pooling/config.json +10 -0
- README.md +547 -0
- checkpoint-3711/1_Pooling/config.json +10 -0
- checkpoint-3711/README.md +546 -0
- checkpoint-3711/config.json +81 -0
- checkpoint-3711/config_sentence_transformers.json +10 -0
- checkpoint-3711/model.safetensors +3 -0
- checkpoint-3711/modules.json +14 -0
- checkpoint-3711/optimizer.pt +3 -0
- checkpoint-3711/rng_state.pth +3 -0
- checkpoint-3711/scheduler.pt +3 -0
- checkpoint-3711/sentence_bert_config.json +4 -0
- checkpoint-3711/special_tokens_map.json +46 -0
- checkpoint-3711/tokenizer.json +0 -0
- checkpoint-3711/tokenizer_config.json +954 -0
- checkpoint-3711/trainer_state.json +85 -0
- checkpoint-3711/training_args.bin +3 -0
- config.json +81 -0
- config_sentence_transformers.json +10 -0
- eval/triplet_evaluation_triplet_eval_results.csv +2 -0
- model.safetensors +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +46 -0
- tokenizer.json +0 -0
- tokenizer_config.json +954 -0
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 768,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,547 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
tags:
|
3 |
+
- sentence-transformers
|
4 |
+
- sentence-similarity
|
5 |
+
- feature-extraction
|
6 |
+
- generated_from_trainer
|
7 |
+
- dataset_size:1900000
|
8 |
+
- loss:TripletLoss
|
9 |
+
base_model: deepvk/RuModernBERT-base
|
10 |
+
widget:
|
11 |
+
- source_sentence: Знаете ли Вы отчего зависит есть ли у человека зубы мудрости? У
|
12 |
+
меня например начали резаться с 15 лет, а у некоторых знакомых которым по 30 лет
|
13 |
+
их нет...
|
14 |
+
sentences:
|
15 |
+
- 'Я точно знаю, от чего зависит то, что у меня их нет. Вернее, не от чего, а от
|
16 |
+
кого: от стоматолога - он их удалил! )))))))))))))
|
17 |
+
|
18 |
+
А если серьезно.. . То, посмотрите, какие люди разные - высокие и маленькие, полные
|
19 |
+
и худые, блондины и брюнеты.. . Так и с зубами. У одного с 15 лет выросли, а у
|
20 |
+
другого дольше сидят. У некоторых вообще не вырастают потому, что им места нет
|
21 |
+
или еще какие-то там нарушения. И мудрость здесь ни при чем. Просто эти зубы начинают
|
22 |
+
расти не в нежном детском возрасте, а тогда, когда человек уже взрослый и мудрый.
|
23 |
+
Это переносный смысл. '
|
24 |
+
- Любовь - кольцо, это тот же треугольник, только со стерными углами))) ) гыы
|
25 |
+
- Была во всех трёх странах. В Индии грязнее всего, в Гоа с детьми делать нечего.
|
26 |
+
В Таиланде не так чтобы очень, но тоже далеко не идеально. Во Вьетнаме чище и
|
27 |
+
ухоженнее всего.
|
28 |
+
- source_sentence: Торговые риски и развитие мясоперерабатывающей отрасли в России
|
29 |
+
sentences:
|
30 |
+
- Введение. В данной статье проанализирована актуальная проблема торговых рисков
|
31 |
+
и развитие мясоперерабатывающей отрасли. А целью данного исследования является
|
32 |
+
выявление ключевых аспектов продовольственной самообеспеченности через призму
|
33 |
+
существующих угроз и состояния развития рынка мясных продуктов Российской Федерации.
|
34 |
+
Материалы и методы. Данное исследование основывается на научных исследованиях
|
35 |
+
российских и зарубежных ученых, которые изучают развитие мясоперерабатывающей
|
36 |
+
отрасли в России. На основании этих исследований была определена оценка торговых
|
37 |
+
рисков для потребителей и производителей мяса в стране, что показало неоднородность
|
38 |
+
объемов производства мясных продуктов и цен производителей на мясные изделия между
|
39 |
+
федеральными округами Российской Федерации. Также был проведен двухвыборочный
|
40 |
+
t -критерий Стьюдента и двухфакторный дисперсионный анализ ANOVA по годам, который
|
41 |
+
окончательно закрепил предположение о том, что Россию можно считать страной со
|
42 |
+
значительными региональными различиями с точки зрения мясоперерабатывающей отрасли.
|
43 |
+
Результаты. Основные выводы свидетельствуют о том, что во всех федеральных округах
|
44 |
+
России наблюдался значительный рост прибыли; однако темпы роста, по-видимому,
|
45 |
+
различаются по регионам. Как это ни парадоксально, торговые риски (западные санкции,
|
46 |
+
ограничительные меры COVID-19, налоговая политика государства) помогли российской
|
47 |
+
мясоперерабатывающей промышленности укрепить свои позиции. Обсуждение. На сегодняшний
|
48 |
+
день торговые риски в мясоперерабатывающей отрасли имеют стратегическое з��ачение
|
49 |
+
как для продовольственной безопасности отдельного региона, так и для всей национальной
|
50 |
+
безопасности всей страны. Заключение. Выявлены тенденции последних лет в рамках
|
51 |
+
функционирования рынка мяса и мясных продуктов Российской Федерации. Проанализировано
|
52 |
+
влияние пандемических, карантинных и санкционных мер на развитие мясоперерабатывающей
|
53 |
+
отрасли. Определены особенности развития этого рынка на современном этапе и дана
|
54 |
+
оценка развития этого рынка в среднесрочной перспективе.
|
55 |
+
- "Езжайте в другое место, поприличнее. В Китае полно красивых мест. \nА ЖаоХе,\
|
56 |
+
\ примерно как Сунька.\nНе езжайте - разочаруетесь в Китае и русских людях.\n\
|
57 |
+
Выберите место получше. "
|
58 |
+
- В настоящее время профилактика семейно-бытовых правонарушений является одним из
|
59 |
+
приоритетных направлений деятельности Министерства внутренних дел Российской Федерации.
|
60 |
+
Некачественное и несвоевременное принятие мер реагирования сотрудников полиции
|
61 |
+
на данный вид правонарушений, а также освещаемые в средствах массовой информации
|
62 |
+
резонансные преступления, которым предшествовали семейные конфликты, формируют
|
63 |
+
негативное общественное мнение о деятельности полиции и государства в целом. Исследование
|
64 |
+
посвящено повышению эффективности работы, проводимой органами внутренних дел,
|
65 |
+
по профилактике и пресечению фактов семейно-бытовых конфликтов, в том числе сопровождаемых
|
66 |
+
применением насилия к детям и женщинам. Особое внимание уделено понятию семейно-бытовых
|
67 |
+
правонарушений, анализу причин и условий возникновения семейно-бытовых конфликтов,
|
68 |
+
правовым основам регулирования ответственности в сфере семейно-бытовых конфликтов
|
69 |
+
в соответствии с законами субъектов Российской Федерации. Проанализированы основные
|
70 |
+
направления профилактики преступлений и административных правонарушений на бытовой
|
71 |
+
почве участковыми уполномоченными полиции. Определены тактические особенности
|
72 |
+
проведения работы с лицами, состоящими на профилактическом учете в органах внутренних
|
73 |
+
дел, при осуществлении профилактического обхода административного участка. Предложен
|
74 |
+
механизм привлечения общественности и отдельных категорий граждан к содействию
|
75 |
+
правоохранительным органам в целях своевременного выявления и пресечения бытовых
|
76 |
+
правонарушений. На основе проведенного анализа сделан вывод, что залогом эффективной
|
77 |
+
работы по искоренению рассматриваемого негативного социального явления является
|
78 |
+
проведение профилактического обхода административного участка, профилактических
|
79 |
+
бесед, основанных на изучении индивидуально-психологических особенностей лиц,
|
80 |
+
их прошлого, основных характеристик личности, а также на информированности об
|
81 |
+
их ближайшем окружении, связях, имеющих как позитивную, так и негативную окраску.
|
82 |
+
Показан��, что вопросы защиты жизни и здоровья членов семьи от противоправных посягательств
|
83 |
+
должны решаться комплексно, во взаимодействии с другими ведомствами и институтами
|
84 |
+
гражданского общества.
|
85 |
+
- source_sentence: 'Зачем на СВД нужен автоспуск, ведь она очередями все-равно не
|
86 |
+
стреляет, или я ошибаюсь? '
|
87 |
+
sentences:
|
88 |
+
- "Есть массив с обьектами \"товаров\" например.\n[code]\n someArr = [{name:***,\
|
89 |
+
\ prodid:***, prodinfo:***},{name:***, prodid:***, prodinfo:***}]\n[/code]\nИ\
|
90 |
+
\ больше в нем инфы разной. Есть еще один массив\n[code]\n someOtherArr = [{prodid:***},{prodid:***},{prodid:***}]\n\
|
91 |
+
[/code]\nв нем только объекты с айди. как сравнить эти массивы и выбрать с someArr\
|
92 |
+
\ только те обьекты где есть айди с someOtherArr"
|
93 |
+
- "Автоспуск - это деталь спускового механизма стрелкового оружия, автоматически\
|
94 |
+
\ освобождающая боевой взвод курка или ударника при запертом канале ствола. СВД\
|
95 |
+
\ винтовка самозарядная, а автоспуск в самозарядном (не автоматическом) оружии\
|
96 |
+
\ предназначен только для того, чтобы исключить возможность выстрела при недозакрытом\
|
97 |
+
\ затворе, а не для обеспечения стрельбы очередями. \n \nP.S. К автоспуску фотоаппарата\
|
98 |
+
\ никакого отношения не имеет"
|
99 |
+
- 'Да это в принципе разные вещи. Стоимость акций, в общем-то, мало зависит от реальной
|
100 |
+
стоимости предприятия. '
|
101 |
+
- source_sentence: 'SDN с платформой Red Hat OpenStack: интеграция с OpenDaylight'
|
102 |
+
sentences:
|
103 |
+
- Представляю вашему вниманию подбору фреймворков, темплейтов, jquery-плагинов и
|
104 |
+
иконок для создания интерфейсов в стиле Windows 8.
|
105 |
+
- 'Запущен сервер джанго. Пользователь через фронтенд создаёт и запускает некоторые
|
106 |
+
задачи, которые крутятся на сервере в отдельном процессе. Также задачи добавляются
|
107 |
+
в бд, в частности имеют статус активна/не активна. Собственно вопрос: можно ли
|
108 |
+
при отключении (ctrl+c) сервера или его падении вызвать событие, которое перешлёт
|
109 |
+
на обработчик, где можно уже реализовать нужные задачи, в моём случае изменить
|
110 |
+
статус задач на неактивные и убить все процессы. Спасибо.'
|
111 |
+
- OpenDaylight — проект с открытым исходным кодом под эгидой Linux Foundation, направленный
|
112 |
+
на содействие внедрению и развитию программно-определяемых сетей (SDN) путем создания
|
113 |
+
общей отраслевой платформы. Red Hat — платиновый член-учредитель сообщества OpenDaylight,
|
114 |
+
в деятельности которого участвуют как отдельные специалисты, так и крупные сетевые
|
115 |
+
компании. OpenDaylight стимулирует инновации и разработку самых разных вариантов
|
116 |
+
использования.
|
117 |
+
- source_sentence: "Проверьте пожалуйста текст на расставление запятых и раскрытие\
|
118 |
+
\ скобок, тире:) Материал музыки – это звуки. Материал, из которого писатель слагает\
|
119 |
+
\ произведения, - слово. Материал, которым пользуется художник, - это краски.\
|
120 |
+
\ \n Как и звуки краски могут быть и радостными, и печальными. Художник выдавливает\
|
121 |
+
\ их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные\
|
122 |
+
\ тона весенней листвы, и нежно – розовый тон заката и глубокие краски вечерних\
|
123 |
+
\ сумерек, краски огненные, как само солнце, и спокойные иссиня - чёрные, как\
|
124 |
+
\ ночное море. \n Но художник не бросает краски на холст беспорядочными пятнами.\
|
125 |
+
\ Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы\
|
126 |
+
\ обстановки… Мы смотрим на картину что придаёт перед нашим взором и не видим\
|
127 |
+
\ ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение,\
|
128 |
+
\ которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно,\
|
129 |
+
\ где разворачиваются события и переживаем их. В этом искусство живописца сродни\
|
130 |
+
\ работы писателя. \n В одном только живопись не похожа ни на музыку, ни на книгу.\
|
131 |
+
\ Мелодия течет и изменяется непрерывно события, за которыми мы следим, читая\
|
132 |
+
\ книгу, следует одно за другим. А картина изображает только одно мгновение. Как\
|
133 |
+
\ будто долго и настойчиво выбирал художник самый замечательный момент жизни,\
|
134 |
+
\ который достоин увековечения. И художник словно приказал времени «Остановить\
|
135 |
+
\ мгновение!» И красками на холсте запечатлел всё, что увидел в этом неповторимом\
|
136 |
+
\ мгновении.\n"
|
137 |
+
sentences:
|
138 |
+
- 'По моему Папанов под словами "ЭМ" и "ЖО" подразумевал совсем не футболиста...))) '
|
139 |
+
- 'Фильтр салона находится в моторном отсеке. Надо вскрыть заднюю полость моторного
|
140 |
+
отсека у правой стороны лобового стекла. '
|
141 |
+
- "Материал музыки – это звуки. Материал, из которого писатель слагает произведения,\
|
142 |
+
\ - слово. Материал, которым пользуется художник - это краски. \nКак и звуки,\
|
143 |
+
\ краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков\
|
144 |
+
\ на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней\
|
145 |
+
\ листвы, и нежно – розовый тон заката, и глубокие краски вечерних сумерек (краски\
|
146 |
+
\ огненные, как само солнце) , и спокойные иссиня - чёрные, как ночное море. \n\
|
147 |
+
Но художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков\
|
148 |
+
\ мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим\
|
149 |
+
\ на картину, что предстает перед нашим взором и не видим ни холста, ни красок.\
|
150 |
+
\ Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою\
|
151 |
+
\ работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются\
|
152 |
+
\ события и переживаем их. В этом искусство живописца сродни работы писателя.\
|
153 |
+
\ \nВ одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет\
|
154 |
+
\ и изменяется непрерывно, события, за которыми мы следим читая книгу, следуют\
|
155 |
+
\ одно за другим. А картина изображает только одно мгновение. Как будто долго\
|
156 |
+
\ и настойчиво выбирал художник самый замечательный момент жизни, который достоин\
|
157 |
+
\ увековечения. И художник словно приказал времени «Остановить мгновение! » И\
|
158 |
+
\ красками, на холсте запечатлел всё, что увидел в этом неповторимом мгновении.\
|
159 |
+
\ \n \n...на картину, что ПРИДАЕТ? (может ПРЕДСТАЕТ? ) перед нашим взором ...\n\
|
160 |
+
...события, за которыми мы следим читая книгу, СЛЕДУЕТ (нужно писать СЛЕДУЮТ)\
|
161 |
+
\ одно за другим... "
|
162 |
+
datasets:
|
163 |
+
- insuperabile/solyanka-triplets
|
164 |
+
pipeline_tag: sentence-similarity
|
165 |
+
library_name: sentence-transformers
|
166 |
+
metrics:
|
167 |
+
- cosine_accuracy
|
168 |
+
model-index:
|
169 |
+
- name: SentenceTransformer based on deepvk/RuModernBERT-base
|
170 |
+
results:
|
171 |
+
- task:
|
172 |
+
type: triplet
|
173 |
+
name: Triplet
|
174 |
+
dataset:
|
175 |
+
name: triplet eval
|
176 |
+
type: triplet_eval
|
177 |
+
metrics:
|
178 |
+
- type: cosine_accuracy
|
179 |
+
value: 0.9990800023078918
|
180 |
+
name: Cosine Accuracy
|
181 |
+
---
|
182 |
+
|
183 |
+
# SentenceTransformer based on deepvk/RuModernBERT-base
|
184 |
+
|
185 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [deepvk/RuModernBERT-base](https://huggingface.co/deepvk/RuModernBERT-base) on the [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
186 |
+
|
187 |
+
## Model Details
|
188 |
+
|
189 |
+
### Model Description
|
190 |
+
- **Model Type:** Sentence Transformer
|
191 |
+
- **Base model:** [deepvk/RuModernBERT-base](https://huggingface.co/deepvk/RuModernBERT-base) <!-- at revision 3d745996527ed96de79c7b79adcd0667af740652 -->
|
192 |
+
- **Maximum Sequence Length:** 512 tokens
|
193 |
+
- **Output Dimensionality:** 768 dimensions
|
194 |
+
- **Similarity Function:** Cosine Similarity
|
195 |
+
- **Training Dataset:**
|
196 |
+
- [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets)
|
197 |
+
<!-- - **Language:** Unknown -->
|
198 |
+
<!-- - **License:** Unknown -->
|
199 |
+
|
200 |
+
### Model Sources
|
201 |
+
|
202 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
203 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
204 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
205 |
+
|
206 |
+
### Full Model Architecture
|
207 |
+
|
208 |
+
```
|
209 |
+
SentenceTransformer(
|
210 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: ModernBertModel
|
211 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
212 |
+
)
|
213 |
+
```
|
214 |
+
|
215 |
+
## Usage
|
216 |
+
|
217 |
+
### Direct Usage (Sentence Transformers)
|
218 |
+
|
219 |
+
First install the Sentence Transformers library:
|
220 |
+
|
221 |
+
```bash
|
222 |
+
pip install -U sentence-transformers
|
223 |
+
```
|
224 |
+
|
225 |
+
Then you can load this model and run inference.
|
226 |
+
```python
|
227 |
+
from sentence_transformers import SentenceTransformer
|
228 |
+
|
229 |
+
# Download from the 🤗 Hub
|
230 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
231 |
+
# Run inference
|
232 |
+
sentences = [
|
233 |
+
'Проверьте пожалуйста текст на расставление запятых и раскрытие скобок, тире:) Материал музыки – это звуки. Материал, из которого писатель слагает произведения, - слово. Материал, которым пользуется художник, - это краски. \n Как и звуки краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней листвы, и нежно – розовый тон заката и глубокие краски вечерних сумерек, краски огненные, как само солнце, и спокойные иссиня - чёрные, как ночное море. \n Но художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим на картину что придаёт перед нашим взором и не видим ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются события и переживаем их. В этом искусство живописца сродни работы писателя. \n В одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет и изменяется непрерывно события, за которыми мы следим, читая книгу, следует одно за другим. А картина изображает только одно мгновение. Как будто долго и настойчиво выбирал художник самый замечательный момент жизни, который достоин увековечения. И художник словно приказал времени «Остановить мгновение!» И красками на холсте запечатлел всё, что увидел в этом неповторимом мгновении.\n',
|
234 |
+
'Материал музыки – это звуки. Материал, из которого писатель слагает произведения, - слово. Материал, которым пользуется художник - это краски. \nКак и звуки, краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней листвы, и нежно – розовый тон заката, и глубокие краски вечерних сумерек (краски огненные, как само солнце) , и спокойные иссиня - чёрные, как ночное море. \nНо художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим на картину, что предстает перед нашим взором и не видим ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются события и переживаем их. В этом искусство живописца сродни работы писателя. \nВ одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет и изменяется непрерывно, события, за которыми мы следим читая книгу, следуют одно за другим. А картина изображает только одно мгновение. Как будто долго и настойчиво выбирал художник самый замечательный момент жизни, который достоин увековечения. И художник словно приказал времени «Остановить мгновение! » И красками, на холсте запечатлел всё, что увидел в этом неповторимом мгновении. \n \n...на картину, что ПРИДАЕТ? (может ПРЕДСТАЕТ? ) перед нашим взором ...\n...события, за которыми мы следим читая книгу, СЛЕДУЕТ (нужно писать СЛЕДУЮТ) одно за другим... ',
|
235 |
+
'Фильтр салона находится в моторном отсеке. Надо вскрыть заднюю полость моторного отсека у правой стороны лобового стекла. ',
|
236 |
+
]
|
237 |
+
embeddings = model.encode(sentences)
|
238 |
+
print(embeddings.shape)
|
239 |
+
# [3, 768]
|
240 |
+
|
241 |
+
# Get the similarity scores for the embeddings
|
242 |
+
similarities = model.similarity(embeddings, embeddings)
|
243 |
+
print(similarities.shape)
|
244 |
+
# [3, 3]
|
245 |
+
```
|
246 |
+
|
247 |
+
<!--
|
248 |
+
### Direct Usage (Transformers)
|
249 |
+
|
250 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
251 |
+
|
252 |
+
</details>
|
253 |
+
-->
|
254 |
+
|
255 |
+
<!--
|
256 |
+
### Downstream Usage (Sentence Transformers)
|
257 |
+
|
258 |
+
You can finetune this model on your own dataset.
|
259 |
+
|
260 |
+
<details><summary>Click to expand</summary>
|
261 |
+
|
262 |
+
</details>
|
263 |
+
-->
|
264 |
+
|
265 |
+
<!--
|
266 |
+
### Out-of-Scope Use
|
267 |
+
|
268 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
269 |
+
-->
|
270 |
+
|
271 |
+
## Evaluation
|
272 |
+
|
273 |
+
### Metrics
|
274 |
+
|
275 |
+
#### Triplet
|
276 |
+
|
277 |
+
* Dataset: `triplet_eval`
|
278 |
+
* Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
|
279 |
+
|
280 |
+
| Metric | Value |
|
281 |
+
|:--------------------|:-----------|
|
282 |
+
| **cosine_accuracy** | **0.9991** |
|
283 |
+
|
284 |
+
<!--
|
285 |
+
## Bias, Risks and Limitations
|
286 |
+
|
287 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
288 |
+
-->
|
289 |
+
|
290 |
+
<!--
|
291 |
+
### Recommendations
|
292 |
+
|
293 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
294 |
+
-->
|
295 |
+
|
296 |
+
## Training Details
|
297 |
+
|
298 |
+
### Training Dataset
|
299 |
+
|
300 |
+
#### solyanka-triplets
|
301 |
+
|
302 |
+
* Dataset: [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) at [bcb121a](https://huggingface.co/datasets/insuperabile/solyanka-triplets/tree/bcb121a58fa5068196fe9d2652ac56dedc8f7f75)
|
303 |
+
* Size: 1,900,000 training samples
|
304 |
+
* Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
|
305 |
+
* Approximate statistics based on the first 1000 samples:
|
306 |
+
| | anchor | positive | negative |
|
307 |
+
|:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
|
308 |
+
| type | string | string | string |
|
309 |
+
| details | <ul><li>min: 4 tokens</li><li>mean: 29.29 tokens</li><li>max: 499 tokens</li></ul> | <ul><li>min: 11 tokens</li><li>mean: 162.74 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 10 tokens</li><li>mean: 163.2 tokens</li><li>max: 512 tokens</li></ul> |
|
310 |
+
* Samples:
|
311 |
+
| anchor | positive | negative |
|
312 |
+
|:--------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
313 |
+
| <code>Здание Центра исследований и разработок Huawei в Нанкине</code> | <code>Центр был открыт в 2018 году. Здание разделено на три острова связанных между собой коридором.Общая площадь 150 000 кв.м. В здание по мимо рабочих помещений, есть: спортивный зал, библиотека, сад, столовая.<br>Photographs: Xuetao Zhang<br>https://www.archdaily.com/932248/huawei-nanjing-research-and...</code> | <code>Как выглядит дикий банан в живой природе.<br>Банан — одна из ярких фигур в истории человеческой цивилизации. Страшно представить, о чем бы мы шутили, снимали кинокомедии и сочиняли мемы, если бы не он. (Один тут художник недавно дивно нагрел руки на самом простом банане.)<br>Первые письменные упоминания об этих плодах встречаются в индийских текстах XVII века до нашей эры. Прежде чем стать таким, каким мы его знаем по магазинным полкам, банан прошел долгий путь эволюции.<br>Однако в Юго-Восточной Азии в первозданном виде сумел сберечь себя дикий банан.<br>Вид изнутри<br>Сравнительный анализ)<br>Дичок.<br>Размером дичок, как видишь, куда меньше привычного нам родственника. Плод набит крупными семенами (в каждом около 60 штук), мякоть совершенно несъедобна. Хотя вот на Филиппинах из них героически удаляют семечки и выжимают что-то типа сока.<br>Кстати, банан — одно из древнейших культивируемых растений и экспортная культура с самой большой прибылью в мире: оборот — 12 миллиардов долларов, в отрасли занято около...</code> |
|
314 |
+
| <code>anila name meaning</code> | <code>[3 сл. a-ni-la, an-ila] Имя девочки Анила произносится как aa-N IY-Laa- ࢠ€ÂÂ. Анила возникла на санскрите и в основном используется в Индии. Имя Анила означает «бог ветра». Anila - женская версия китайского и вьетнамского An, английского и индийского Anil. Формы Anila включают имена Anilah, Anilla, Anyla, Anylah, Anylla и Anyllah. Анила не часто используется в качестве имени девочки, ее нет в топ-1000 имен. Нила - женская версия китайского и вьетнамского An, а также английского и индийского Anil. Формы Анила включают имена Анилах, Анилла, Анила, Анила, Анилла и Аниллах. Анила не часто используется в качестве имени девочки.</code> | <code>Охратоксины - это микотоксины, продуцируемые несколькими видами Aspergillus и Penicillium. Охратоксин А - наиболее экономически важная форма охратоксина; охратоксины B и C менее токсичны и встречаются реже. Охратоксины могут передаваться через молоко, кровь и мясо. Отравление охратоксинами считается причиной хронического заболевания почек у людей, известного как балканская эндемическая нефропатия. злаки, виноград, кофе, орехи и инжир. Penicillium verrucosum - основная причина загрязнения зерновых культур охратоксинами в умеренном климате.</code> |
|
315 |
+
| <code>для чего созданы таможни на Украину? .Как защитить российских автомобилистов от украинских безбожных поборов ГАИ? </code> | <code>Таможни созданы для контроля за перемещением товаров через границу между странами. А насчёт поборов - не нарушай. </code> | <code>только не тугоушие, а тугоухость<br>стойкое понижение слуха при заболеваниях среднего или внутреннего уха, длительном воздействии шума, возрастных изменениях.<br>[ссылка заблокирована по решению администрации проекта]<br>http://menier.narod.ru/lechmenier.html<br>http://www.peterkaliniak.com/page/944<br>http://vse-lechim.ru/termins/item1141.html<br>[ссылка заблокирована по решению администрации проекта]<br>[ссылка заблокирована по решению администрации проекта]<br><br>посмотрите здесь. конечно все зависит от степени болезни. удачи</code> |
|
316 |
+
* Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
|
317 |
+
```json
|
318 |
+
{
|
319 |
+
"distance_metric": "TripletDistanceMetric.EUCLIDEAN",
|
320 |
+
"triplet_margin": 5
|
321 |
+
}
|
322 |
+
```
|
323 |
+
|
324 |
+
### Evaluation Dataset
|
325 |
+
|
326 |
+
#### solyanka-triplets
|
327 |
+
|
328 |
+
* Dataset: [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) at [bcb121a](https://huggingface.co/datasets/insuperabile/solyanka-triplets/tree/bcb121a58fa5068196fe9d2652ac56dedc8f7f75)
|
329 |
+
* Size: 100,000 evaluation samples
|
330 |
+
* Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
|
331 |
+
* Approximate statistics based on the first 1000 samples:
|
332 |
+
| | anchor | positive | negative |
|
333 |
+
|:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
334 |
+
| type | string | string | string |
|
335 |
+
| details | <ul><li>min: 4 tokens</li><li>mean: 31.28 tokens</li><li>max: 492 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 166.05 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 12 tokens</li><li>mean: 161.41 tokens</li><li>max: 512 tokens</li></ul> |
|
336 |
+
* Samples:
|
337 |
+
| anchor | positive | negative |
|
338 |
+
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
339 |
+
| <code>Какую мощность имеет сигнал WNSC?</code> | <code>WNSC-FM own. WNSC is one of only a few stations on the South Carolina side of the market (the other being WOSF, which is licensed to Gaffney) that penetrates Charlotte to any significant extent. Its 97,900-watt signal easily covers Charlotte itself, as well as Gaston and Union counties. However, it only provides fringe coverage to the northern part of the market (Concord, Lincolnton, Mooresville, etc.), largely because it must conform its signal to protect fellow NPR station WDAV, at nearby 89.9. Until the spring of 2011, it identified as "Rock Hill/Charlotte," making it the only ETV station to include a second</code> | <code>Nobuhiko Takada story and controversy between them, as Tamura had challenged Takada and walked out of his old professional wrestling promotion in 1995 to work for a rival company. Tamura was also reluctant to fight at the event due to sharing card with Kenichi Yamamoto, another Takada understudy he had a personal enmity with. However, the match took place without more troubles. Master and apprentice exchanged kicks and punches at the start of the fight. Tamura dropped Takada with a leg kick, but action had to be stopped when he landed an accidental heavy low blow. After recovering, Takada took Tamura down</code> |
|
340 |
+
| <code>Fitch понизило рейтинг банка «Уралсиб»</code> | <code>Fitch понизило рейтинг банка «Уралсиб»Ведомости 18:58<br>Фото: РИА Новости<br>Международное рейтинговое агентство Fitch понизило долгосрочный рейтинг дефолта эмитента (РДЭ) российского банка «Уралсиб» и его дочерней структуры «Уралсиб-лизинг» с В+ до В. Прогноз по рейтингу банка — «стабильный», по «дочке» — «негативный». Об этом говорится в пресс-релизе агентства. Таким образом, финансовой компании остался один шаг до преддефолтного уровня<br>Краткосрочный рейтинг банка подтвержден на уровне В. Рейтинг устойчивости снижен до b с b+.<br>Рейтинговое действие отражает сохраняющееся давление на капитализацию банка и слабые перспективы улучшения ликвидности, учитывая более сложную операционную среду, говорится в сообщении Fitch. Международное рейтинговое агентство отмечает возросшую стоимость капитала и затраты на переоценку в соответствии с рыночными трендами, что может еще больше подорвать уже и без того слабую рентабельность банка.</code> | <code>Ограничение на любительскую и спортивную охоту было введено сегодня в Татарстане, передает пресс-центр Управления по охране и использованию объектов животного мира РТ. Согласно сообщению охотиться запрещено на зайца-беляка, глухаря, рябчика и куропатку до 2017 года. Это связано с сохранением охотничьих ресурсов и их рациональным использованием.<br>Запрет на охоту будет действовать во всех угодьях кроме следующих: «Аксубаевское», «Беркут», «Бутино-Шешминское», «Арское», «Урнякское», «Атнинское», «Юкя», «Буинское», «Глухарь», «Фазан», «Елабужское», «Караишевское», «Зеленодольское», «Краснооктябрьское», «Волжско-Камское», «Камское раздолье», «Рысь», «Новомензелинское», «Сухаревское», «Шешминское», «Красновидово», «Тюрнясевское», «Тетюшское», «Урахчинское», «Мизиновское» и общедоступных охотничьих угодий Алькеевского, Альметьевского, Дрожжановского, Лениногорского, Рыбно-Слободского муниципальных районов.<br>Напомним, что 15 августа текущего года врио президента РТ Рустам Минниханов подписал ука...</code> |
|
341 |
+
| <code>Как составить исковое заявление по потере оригинала диплома на работе - на директора супермаркета, работника отдела кадров или хозяина предприятия?. На работе потеряли оригинал моего диплома. Как правильно составить исковое заявление и на кого? На директора супермаркета, на работникаотдела кадров или на хозяина предприятия?</code> | <code>Вам нужно получить дубликат диплома в учебном заведении, которое Вам его выдало. А от того, что Вы напишите исковое заявление, диплом все равно не найдется.</code> | <code>Здравствуйте, Павел,главное, чтобы нынешний собственник нашел понимание с ТСЖ относительно площади квартиры.Что же касается ошибочных начислений, то действительно, предыдущий собственник может взыскать неосновательно перечисленную плату, однако есть несколько нюансов, которые требуют более детального знакомства с ситуацией.С уважением, Иван Ерпылёв</code> |
|
342 |
+
* Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
|
343 |
+
```json
|
344 |
+
{
|
345 |
+
"distance_metric": "TripletDistanceMetric.EUCLIDEAN",
|
346 |
+
"triplet_margin": 5
|
347 |
+
}
|
348 |
+
```
|
349 |
+
|
350 |
+
### Training Hyperparameters
|
351 |
+
#### Non-Default Hyperparameters
|
352 |
+
|
353 |
+
- `eval_strategy`: epoch
|
354 |
+
- `per_device_train_batch_size`: 64
|
355 |
+
- `per_device_eval_batch_size`: 32
|
356 |
+
- `learning_rate`: 1e-06
|
357 |
+
- `num_train_epochs`: 1
|
358 |
+
- `bf16`: True
|
359 |
+
- `load_best_model_at_end`: True
|
360 |
+
|
361 |
+
#### All Hyperparameters
|
362 |
+
<details><summary>Click to expand</summary>
|
363 |
+
|
364 |
+
- `overwrite_output_dir`: False
|
365 |
+
- `do_predict`: False
|
366 |
+
- `eval_strategy`: epoch
|
367 |
+
- `prediction_loss_only`: True
|
368 |
+
- `per_device_train_batch_size`: 64
|
369 |
+
- `per_device_eval_batch_size`: 32
|
370 |
+
- `per_gpu_train_batch_size`: None
|
371 |
+
- `per_gpu_eval_batch_size`: None
|
372 |
+
- `gradient_accumulation_steps`: 1
|
373 |
+
- `eval_accumulation_steps`: None
|
374 |
+
- `torch_empty_cache_steps`: None
|
375 |
+
- `learning_rate`: 1e-06
|
376 |
+
- `weight_decay`: 0.0
|
377 |
+
- `adam_beta1`: 0.9
|
378 |
+
- `adam_beta2`: 0.999
|
379 |
+
- `adam_epsilon`: 1e-08
|
380 |
+
- `max_grad_norm`: 1.0
|
381 |
+
- `num_train_epochs`: 1
|
382 |
+
- `max_steps`: -1
|
383 |
+
- `lr_scheduler_type`: linear
|
384 |
+
- `lr_scheduler_kwargs`: {}
|
385 |
+
- `warmup_ratio`: 0.0
|
386 |
+
- `warmup_steps`: 0
|
387 |
+
- `log_level`: passive
|
388 |
+
- `log_level_replica`: warning
|
389 |
+
- `log_on_each_node`: True
|
390 |
+
- `logging_nan_inf_filter`: True
|
391 |
+
- `save_safetensors`: True
|
392 |
+
- `save_on_each_node`: False
|
393 |
+
- `save_only_model`: False
|
394 |
+
- `restore_callback_states_from_checkpoint`: False
|
395 |
+
- `no_cuda`: False
|
396 |
+
- `use_cpu`: False
|
397 |
+
- `use_mps_device`: False
|
398 |
+
- `seed`: 42
|
399 |
+
- `data_seed`: None
|
400 |
+
- `jit_mode_eval`: False
|
401 |
+
- `use_ipex`: False
|
402 |
+
- `bf16`: True
|
403 |
+
- `fp16`: False
|
404 |
+
- `fp16_opt_level`: O1
|
405 |
+
- `half_precision_backend`: auto
|
406 |
+
- `bf16_full_eval`: False
|
407 |
+
- `fp16_full_eval`: False
|
408 |
+
- `tf32`: None
|
409 |
+
- `local_rank`: 0
|
410 |
+
- `ddp_backend`: None
|
411 |
+
- `tpu_num_cores`: None
|
412 |
+
- `tpu_metrics_debug`: False
|
413 |
+
- `debug`: []
|
414 |
+
- `dataloader_drop_last`: False
|
415 |
+
- `dataloader_num_workers`: 0
|
416 |
+
- `dataloader_prefetch_factor`: None
|
417 |
+
- `past_index`: -1
|
418 |
+
- `disable_tqdm`: False
|
419 |
+
- `remove_unused_columns`: True
|
420 |
+
- `label_names`: None
|
421 |
+
- `load_best_model_at_end`: True
|
422 |
+
- `ignore_data_skip`: False
|
423 |
+
- `fsdp`: []
|
424 |
+
- `fsdp_min_num_params`: 0
|
425 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
426 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
427 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
428 |
+
- `deepspeed`: None
|
429 |
+
- `label_smoothing_factor`: 0.0
|
430 |
+
- `optim`: adamw_torch
|
431 |
+
- `optim_args`: None
|
432 |
+
- `adafactor`: False
|
433 |
+
- `group_by_length`: False
|
434 |
+
- `length_column_name`: length
|
435 |
+
- `ddp_find_unused_parameters`: None
|
436 |
+
- `ddp_bucket_cap_mb`: None
|
437 |
+
- `ddp_broadcast_buffers`: False
|
438 |
+
- `dataloader_pin_memory`: True
|
439 |
+
- `dataloader_persistent_workers`: False
|
440 |
+
- `skip_memory_metrics`: True
|
441 |
+
- `use_legacy_prediction_loop`: False
|
442 |
+
- `push_to_hub`: False
|
443 |
+
- `resume_from_checkpoint`: None
|
444 |
+
- `hub_model_id`: None
|
445 |
+
- `hub_strategy`: every_save
|
446 |
+
- `hub_private_repo`: None
|
447 |
+
- `hub_always_push`: False
|
448 |
+
- `gradient_checkpointing`: False
|
449 |
+
- `gradient_checkpointing_kwargs`: None
|
450 |
+
- `include_inputs_for_metrics`: False
|
451 |
+
- `include_for_metrics`: []
|
452 |
+
- `eval_do_concat_batches`: True
|
453 |
+
- `fp16_backend`: auto
|
454 |
+
- `push_to_hub_model_id`: None
|
455 |
+
- `push_to_hub_organization`: None
|
456 |
+
- `mp_parameters`:
|
457 |
+
- `auto_find_batch_size`: False
|
458 |
+
- `full_determinism`: False
|
459 |
+
- `torchdynamo`: None
|
460 |
+
- `ray_scope`: last
|
461 |
+
- `ddp_timeout`: 1800
|
462 |
+
- `torch_compile`: False
|
463 |
+
- `torch_compile_backend`: None
|
464 |
+
- `torch_compile_mode`: None
|
465 |
+
- `include_tokens_per_second`: False
|
466 |
+
- `include_num_input_tokens_seen`: False
|
467 |
+
- `neftune_noise_alpha`: None
|
468 |
+
- `optim_target_modules`: None
|
469 |
+
- `batch_eval_metrics`: False
|
470 |
+
- `eval_on_start`: False
|
471 |
+
- `use_liger_kernel`: False
|
472 |
+
- `eval_use_gather_object`: False
|
473 |
+
- `average_tokens_across_devices`: False
|
474 |
+
- `prompts`: None
|
475 |
+
- `batch_sampler`: batch_sampler
|
476 |
+
- `multi_dataset_batch_sampler`: proportional
|
477 |
+
|
478 |
+
</details>
|
479 |
+
|
480 |
+
### Training Logs
|
481 |
+
| Epoch | Step | Training Loss | Validation Loss | triplet_eval_cosine_accuracy |
|
482 |
+
|:-------:|:--------:|:-------------:|:---------------:|:----------------------------:|
|
483 |
+
| 0.1598 | 593 | 0.4866 | - | - |
|
484 |
+
| 0.3196 | 1186 | 0.0792 | - | - |
|
485 |
+
| 0.4794 | 1779 | 0.0436 | - | - |
|
486 |
+
| 0.6392 | 2372 | 0.0355 | - | - |
|
487 |
+
| 0.7990 | 2965 | 0.0324 | - | - |
|
488 |
+
| 0.9588 | 3558 | 0.0304 | - | - |
|
489 |
+
| **1.0** | **3711** | **-** | **0.0309** | **0.9991** |
|
490 |
+
|
491 |
+
* The bold row denotes the saved checkpoint.
|
492 |
+
|
493 |
+
### Framework Versions
|
494 |
+
- Python: 3.11.10
|
495 |
+
- Sentence Transformers: 4.1.0
|
496 |
+
- Transformers: 4.52.4
|
497 |
+
- PyTorch: 2.6.0+cu124
|
498 |
+
- Accelerate: 1.7.0
|
499 |
+
- Datasets: 3.6.0
|
500 |
+
- Tokenizers: 0.21.1
|
501 |
+
|
502 |
+
## Citation
|
503 |
+
|
504 |
+
### BibTeX
|
505 |
+
|
506 |
+
#### Sentence Transformers
|
507 |
+
```bibtex
|
508 |
+
@inproceedings{reimers-2019-sentence-bert,
|
509 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
510 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
511 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
512 |
+
month = "11",
|
513 |
+
year = "2019",
|
514 |
+
publisher = "Association for Computational Linguistics",
|
515 |
+
url = "https://arxiv.org/abs/1908.10084",
|
516 |
+
}
|
517 |
+
```
|
518 |
+
|
519 |
+
#### TripletLoss
|
520 |
+
```bibtex
|
521 |
+
@misc{hermans2017defense,
|
522 |
+
title={In Defense of the Triplet Loss for Person Re-Identification},
|
523 |
+
author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
|
524 |
+
year={2017},
|
525 |
+
eprint={1703.07737},
|
526 |
+
archivePrefix={arXiv},
|
527 |
+
primaryClass={cs.CV}
|
528 |
+
}
|
529 |
+
```
|
530 |
+
|
531 |
+
<!--
|
532 |
+
## Glossary
|
533 |
+
|
534 |
+
*Clearly define terms in order to be accessible across audiences.*
|
535 |
+
-->
|
536 |
+
|
537 |
+
<!--
|
538 |
+
## Model Card Authors
|
539 |
+
|
540 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
541 |
+
-->
|
542 |
+
|
543 |
+
<!--
|
544 |
+
## Model Card Contact
|
545 |
+
|
546 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
547 |
+
-->
|
checkpoint-3711/1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 768,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
checkpoint-3711/README.md
ADDED
@@ -0,0 +1,546 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
tags:
|
3 |
+
- sentence-transformers
|
4 |
+
- sentence-similarity
|
5 |
+
- feature-extraction
|
6 |
+
- generated_from_trainer
|
7 |
+
- dataset_size:1900000
|
8 |
+
- loss:TripletLoss
|
9 |
+
base_model: deepvk/RuModernBERT-base
|
10 |
+
widget:
|
11 |
+
- source_sentence: Знаете ли Вы отчего зависит есть ли у человека зубы мудрости? У
|
12 |
+
меня например начали резаться с 15 лет, а у некоторых знакомых которым по 30 лет
|
13 |
+
их нет...
|
14 |
+
sentences:
|
15 |
+
- 'Я точно знаю, от чего зависит то, что у меня их нет. Вернее, не от чего, а от
|
16 |
+
кого: от стоматолога - он их удалил! )))))))))))))
|
17 |
+
|
18 |
+
А если серьезно.. . То, посмотрите, какие люди разные - высокие и маленькие, полные
|
19 |
+
и худые, блондины и брюнеты.. . Так и с зубами. У одного с 15 лет выросли, а у
|
20 |
+
другого дольше сидят. У некоторых вообще не вырастают потому, что им места нет
|
21 |
+
или еще какие-то там нарушения. И мудрость здесь ни при чем. Просто эти зубы начинают
|
22 |
+
расти не в нежном детском возрасте, а тогда, когда человек уже взрослый и мудрый.
|
23 |
+
Это переносный смысл. '
|
24 |
+
- Любовь - кольцо, это тот же треугольник, только со стерными углами))) ) гыы
|
25 |
+
- Была во всех трёх странах. В Индии грязнее всего, в Гоа с детьми делать нечего.
|
26 |
+
В Таиланде не так чтобы очень, но тоже далеко не идеально. Во Вьетнаме чище и
|
27 |
+
ухоженнее всего.
|
28 |
+
- source_sentence: Торговые риски и развитие мясоперерабатывающей отрасли в России
|
29 |
+
sentences:
|
30 |
+
- Введение. В данной статье проанализирована актуальная проблема торговых рисков
|
31 |
+
и развитие мясоперерабатывающей отрасли. А целью данного исследования является
|
32 |
+
выявление ключевых аспектов продовольственной самообеспеченности через призму
|
33 |
+
существующих угроз и состояния развития рынка мясных продуктов Российской Федерации.
|
34 |
+
Материалы и методы. Данное исследование основывается на научных исследованиях
|
35 |
+
российских и зарубежных ученых, которые изучают развитие мясоперерабатывающей
|
36 |
+
отрасли в России. На основании этих исследований была определена оценка торговых
|
37 |
+
рисков для потребителей и производителей мяса в стране, что показало неоднородность
|
38 |
+
объемов производства мясных продуктов и цен производителей на мясные изделия между
|
39 |
+
федеральными округами Российской Федерации. Также был проведен двухвыборочный
|
40 |
+
t -критерий Стьюдента и двухфакторный дисперсионный анализ ANOVA по годам, который
|
41 |
+
окончательно закрепил предположение о том, что Россию можно считать страной со
|
42 |
+
значительными региональными различиями с точки зрения мясоперерабатывающей отрасли.
|
43 |
+
Результаты. Основные выводы свидетельствуют о том, что во всех федеральных округах
|
44 |
+
России наблюдался значительный рост прибыли; однако темпы роста, по-видимому,
|
45 |
+
различаются по регионам. Как это ни парадоксально, торговые риски (западные санкции,
|
46 |
+
ограничительные меры COVID-19, налоговая политика государства) помогли российской
|
47 |
+
мясоперерабатывающей промышленности укрепить свои позиции. Обсуждение. На сегодняшний
|
48 |
+
день торговые риски в мясоперерабатывающей отрасли имеют стратегическое з��ачение
|
49 |
+
как для продовольственной безопасности отдельного региона, так и для всей национальной
|
50 |
+
безопасности всей страны. Заключение. Выявлены тенденции последних лет в рамках
|
51 |
+
функционирования рынка мяса и мясных продуктов Российской Федерации. Проанализировано
|
52 |
+
влияние пандемических, карантинных и санкционных мер на развитие мясоперерабатывающей
|
53 |
+
отрасли. Определены особенности развития этого рынка на современном этапе и дана
|
54 |
+
оценка развития этого рынка в среднесрочной перспективе.
|
55 |
+
- "Езжайте в другое место, поприличнее. В Китае полно красивых мест. \nА ЖаоХе,\
|
56 |
+
\ примерно как Сунька.\nНе езжайте - разочаруетесь в Китае и русских людях.\n\
|
57 |
+
Выберите место получше. "
|
58 |
+
- В настоящее время профилактика семейно-бытовых правонарушений является одним из
|
59 |
+
приоритетных направлений деятельности Министерства внутренних дел Российской Федерации.
|
60 |
+
Некачественное и несвоевременное принятие мер реагирования сотрудников полиции
|
61 |
+
на данный вид правонарушений, а также освещаемые в средствах массовой информации
|
62 |
+
резонансные преступления, которым предшествовали семейные конфликты, формируют
|
63 |
+
негативное общественное мнение о деятельности полиции и государства в целом. Исследование
|
64 |
+
посвящено повышению эффективности работы, проводимой органами внутренних дел,
|
65 |
+
по профилактике и пресечению фактов семейно-бытовых конфликтов, в том числе сопровождаемых
|
66 |
+
применением насилия к детям и женщинам. Особое внимание уделено понятию семейно-бытовых
|
67 |
+
правонарушений, анализу причин и условий возникновения семейно-бытовых конфликтов,
|
68 |
+
правовым основам регулирования ответственности в сфере семейно-бытовых конфликтов
|
69 |
+
в соответствии с законами субъектов Российской Федерации. Проанализированы основные
|
70 |
+
направления профилактики преступлений и административных правонарушений на бытовой
|
71 |
+
почве участковыми уполномоченными полиции. Определены тактические особенности
|
72 |
+
проведения работы с лицами, состоящими на профилактическом учете в органах внутренних
|
73 |
+
дел, при осуществлении профилактического обхода административного участка. Предложен
|
74 |
+
механизм привлечения общественности и отдельных категорий граждан к содействию
|
75 |
+
правоохранительным органам в целях своевременного выявления и пресечения бытовых
|
76 |
+
правонарушений. На основе проведенного анализа сделан вывод, что залогом эффективной
|
77 |
+
работы по искоренению рассматриваемого негативного социального явления является
|
78 |
+
проведение профилактического обхода административного участка, профилактических
|
79 |
+
бесед, основанных на изучении индивидуально-психологических особенностей лиц,
|
80 |
+
их прошлого, основных характеристик личности, а также на информированности об
|
81 |
+
их ближайшем окружении, связях, имеющих как позитивную, так и негативную окраску.
|
82 |
+
Показан��, что вопросы защиты жизни и здоровья членов семьи от противоправных посягательств
|
83 |
+
должны решаться комплексно, во взаимодействии с другими ведомствами и институтами
|
84 |
+
гражданского общества.
|
85 |
+
- source_sentence: 'Зачем на СВД нужен автоспуск, ведь она очередями все-равно не
|
86 |
+
стреляет, или я ошибаюсь? '
|
87 |
+
sentences:
|
88 |
+
- "Есть массив с обьектами \"товаров\" например.\n[code]\n someArr = [{name:***,\
|
89 |
+
\ prodid:***, prodinfo:***},{name:***, prodid:***, prodinfo:***}]\n[/code]\nИ\
|
90 |
+
\ больше в нем инфы разной. Есть еще один массив\n[code]\n someOtherArr = [{prodid:***},{prodid:***},{prodid:***}]\n\
|
91 |
+
[/code]\nв нем только объекты с айди. как сравнить эти массивы и выбрать с someArr\
|
92 |
+
\ только те обьекты где есть айди с someOtherArr"
|
93 |
+
- "Автоспуск - это деталь спускового механизма стрелкового оружия, автоматически\
|
94 |
+
\ освобождающая боевой взвод курка или ударника при запертом канале ствола. СВД\
|
95 |
+
\ винтовка самозарядная, а автоспуск в самозарядном (не автоматическом) оружии\
|
96 |
+
\ предназначен только для того, чтобы исключить возможность выстрела при недозакрытом\
|
97 |
+
\ затворе, а не для обеспечения стрельбы очередями. \n \nP.S. К автоспуску фотоаппарата\
|
98 |
+
\ никакого отношения не имеет"
|
99 |
+
- 'Да это в принципе разные вещи. Стоимость акций, в общем-то, мало зависит от реальной
|
100 |
+
стоимости предприятия. '
|
101 |
+
- source_sentence: 'SDN с платформой Red Hat OpenStack: интеграция с OpenDaylight'
|
102 |
+
sentences:
|
103 |
+
- Представляю вашему вниманию подбору фреймворков, темплейтов, jquery-плагинов и
|
104 |
+
иконок для создания интерфейсов в стиле Windows 8.
|
105 |
+
- 'Запущен сервер джанго. Пользователь через фронтенд создаёт и запускает некоторые
|
106 |
+
задачи, которые крутятся на сервере в отдельном процессе. Также задачи добавляются
|
107 |
+
в бд, в частности имеют статус активна/не активна. Собственно вопрос: можно ли
|
108 |
+
при отключении (ctrl+c) сервера или его падении вызвать событие, которое перешлёт
|
109 |
+
на обработчик, где можно уже реализовать нужные задачи, в моём случае изменить
|
110 |
+
статус задач на неактивные и убить все процессы. Спасибо.'
|
111 |
+
- OpenDaylight — проект с открытым исходным кодом под эгидой Linux Foundation, направленный
|
112 |
+
на содействие внедрению и развитию программно-определяемых сетей (SDN) путем создания
|
113 |
+
общей отраслевой платформы. Red Hat — платиновый член-учредитель сообщества OpenDaylight,
|
114 |
+
в деятельности которого участвуют как отдельные специалисты, так и крупные сетевые
|
115 |
+
компании. OpenDaylight стимулирует инновации и разработку самых разных вариантов
|
116 |
+
использования.
|
117 |
+
- source_sentence: "Проверьте пожалуйста текст на расставление запятых и раскрытие\
|
118 |
+
\ скобок, тире:) Материал музыки – это звуки. Материал, из которого писатель слагает\
|
119 |
+
\ произведения, - слово. Материал, которым пользуется художник, - это краски.\
|
120 |
+
\ \n Как и звуки краски могут быть и радостными, и печальными. Художник выдавливает\
|
121 |
+
\ их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные\
|
122 |
+
\ тона весенней листвы, и нежно – розовый тон заката и глубокие краски вечерних\
|
123 |
+
\ сумерек, краски огненные, как само солнце, и спокойные иссиня - чёрные, как\
|
124 |
+
\ ночное море. \n Но художник не бросает краски на холст беспорядочными пятнами.\
|
125 |
+
\ Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы\
|
126 |
+
\ обстановки… Мы смотрим на картину что придаёт перед нашим взором и не видим\
|
127 |
+
\ ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение,\
|
128 |
+
\ которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно,\
|
129 |
+
\ где разворачиваются события и переживаем их. В этом искусство живописца сродни\
|
130 |
+
\ работы писателя. \n В одном только живопись не похожа ни на музыку, ни на книгу.\
|
131 |
+
\ Мелодия течет и изменяется непрерывно события, за которыми мы следим, читая\
|
132 |
+
\ книгу, следует одно за другим. А картина изображает только одно мгновение. Как\
|
133 |
+
\ будто долго и настойчиво выбирал художник самый замечательный момент жизни,\
|
134 |
+
\ который достоин увековечения. И художник словно приказал времени «Остановить\
|
135 |
+
\ мгновение!» И красками на холсте запечатлел всё, что увидел в этом неповторимом\
|
136 |
+
\ мгновении.\n"
|
137 |
+
sentences:
|
138 |
+
- 'По моему Папанов под словами "ЭМ" и "ЖО" подразумевал совсем не футболиста...))) '
|
139 |
+
- 'Фильтр салона находится в моторном отсеке. Надо вскрыть заднюю полость моторного
|
140 |
+
отсека у правой стороны лобового стекла. '
|
141 |
+
- "Материал музыки – это звуки. Материал, из которого писатель слагает произведения,\
|
142 |
+
\ - слово. Материал, которым пользуется художник - это краски. \nКак и звуки,\
|
143 |
+
\ краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков\
|
144 |
+
\ на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней\
|
145 |
+
\ листвы, и нежно – розовый тон заката, и глубокие краски вечерних сумерек (краски\
|
146 |
+
\ огненные, как само солнце) , и спокойные иссиня - чёрные, как ночное море. \n\
|
147 |
+
Но художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков\
|
148 |
+
\ мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим\
|
149 |
+
\ на картину, что предстает перед нашим взором и не видим ни холста, ни красок.\
|
150 |
+
\ Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою\
|
151 |
+
\ работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются\
|
152 |
+
\ события и переживаем их. В этом искусство живописца сродни работы писателя.\
|
153 |
+
\ \nВ одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет\
|
154 |
+
\ и изменяется непрерывно, события, за которыми мы следим читая книгу, следуют\
|
155 |
+
\ одно за другим. А картина изображает только одно мгновение. Как будто долго\
|
156 |
+
\ и настойчиво выбирал художник самый замечательный момент жизни, который достоин\
|
157 |
+
\ увековечения. И художник словно приказал времени «Остановить мгновение! » И\
|
158 |
+
\ красками, на холсте запечатлел всё, что увидел в этом неповторимом мгновении.\
|
159 |
+
\ \n \n...на картину, что ПРИДАЕТ? (может ПРЕДСТАЕТ? ) перед нашим взором ...\n\
|
160 |
+
...события, за которыми мы следим читая книгу, СЛЕДУЕТ (нужно писать СЛЕДУЮТ)\
|
161 |
+
\ одно за другим... "
|
162 |
+
datasets:
|
163 |
+
- insuperabile/solyanka-triplets
|
164 |
+
pipeline_tag: sentence-similarity
|
165 |
+
library_name: sentence-transformers
|
166 |
+
metrics:
|
167 |
+
- cosine_accuracy
|
168 |
+
model-index:
|
169 |
+
- name: SentenceTransformer based on deepvk/RuModernBERT-base
|
170 |
+
results:
|
171 |
+
- task:
|
172 |
+
type: triplet
|
173 |
+
name: Triplet
|
174 |
+
dataset:
|
175 |
+
name: triplet eval
|
176 |
+
type: triplet_eval
|
177 |
+
metrics:
|
178 |
+
- type: cosine_accuracy
|
179 |
+
value: 0.9990800023078918
|
180 |
+
name: Cosine Accuracy
|
181 |
+
---
|
182 |
+
|
183 |
+
# SentenceTransformer based on deepvk/RuModernBERT-base
|
184 |
+
|
185 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [deepvk/RuModernBERT-base](https://huggingface.co/deepvk/RuModernBERT-base) on the [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
186 |
+
|
187 |
+
## Model Details
|
188 |
+
|
189 |
+
### Model Description
|
190 |
+
- **Model Type:** Sentence Transformer
|
191 |
+
- **Base model:** [deepvk/RuModernBERT-base](https://huggingface.co/deepvk/RuModernBERT-base) <!-- at revision 3d745996527ed96de79c7b79adcd0667af740652 -->
|
192 |
+
- **Maximum Sequence Length:** 512 tokens
|
193 |
+
- **Output Dimensionality:** 768 dimensions
|
194 |
+
- **Similarity Function:** Cosine Similarity
|
195 |
+
- **Training Dataset:**
|
196 |
+
- [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets)
|
197 |
+
<!-- - **Language:** Unknown -->
|
198 |
+
<!-- - **License:** Unknown -->
|
199 |
+
|
200 |
+
### Model Sources
|
201 |
+
|
202 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
203 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
204 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
205 |
+
|
206 |
+
### Full Model Architecture
|
207 |
+
|
208 |
+
```
|
209 |
+
SentenceTransformer(
|
210 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: ModernBertModel
|
211 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
212 |
+
)
|
213 |
+
```
|
214 |
+
|
215 |
+
## Usage
|
216 |
+
|
217 |
+
### Direct Usage (Sentence Transformers)
|
218 |
+
|
219 |
+
First install the Sentence Transformers library:
|
220 |
+
|
221 |
+
```bash
|
222 |
+
pip install -U sentence-transformers
|
223 |
+
```
|
224 |
+
|
225 |
+
Then you can load this model and run inference.
|
226 |
+
```python
|
227 |
+
from sentence_transformers import SentenceTransformer
|
228 |
+
|
229 |
+
# Download from the 🤗 Hub
|
230 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
231 |
+
# Run inference
|
232 |
+
sentences = [
|
233 |
+
'Проверьте пожалуйста текст на расставление запятых и раскрытие скобок, тире:) Материал музыки – это звуки. Материал, из которого писатель слагает произведения, - слово. Материал, которым пользуется художник, - это краски. \n Как и звуки краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней листвы, и нежно – розовый тон заката и глубокие краски вечерних сумерек, краски огненные, как само солнце, и спокойные иссиня - чёрные, как ночное море. \n Но художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим на картину что придаёт перед нашим взором и не видим ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются события и переживаем их. В этом искусство живописца сродни работы писателя. \n В одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет и изменяется непрерывно события, за которыми мы следим, читая книгу, следует одно за другим. А картина изображает только одно мгновение. Как будто долго и настойчиво выбирал художник самый замечательный момент жизни, который достоин увековечения. И художник словно приказал времени «Остановить мгновение!» И красками на холсте запечатлел всё, что увидел в этом неповторимом мгновении.\n',
|
234 |
+
'Материал музыки – это звуки. Материал, из которого писатель слагает произведения, - слово. Материал, которым пользуется художник - это краски. \nКак и звуки, краски могут быть и радостными, и печальными. Художник выдавливает их из тюбиков на палитру, и она вспыхивает всеми цветами радуги. Тут и лазурные тона весенней листвы, и нежно – розовый тон заката, и глубокие краски вечерних сумерек (краски огненные, как само солнце) , и спокойные иссиня - чёрные, как ночное море. \nНо художник не бросает краски на холст беспорядочными пятнами. Постепенно из десятков мазков на холсте вырисовывается лицо, появляются предметы обстановки… Мы смотрим на картину, что предстает перед нашим взором и не видим ни холста, ни красок. Мы видим живую сцену или пейзаж. Нас волнует настроение, которое вложил в свою работу художник. Мы с удовольствием рассматриваем полотно, где разворачиваются события и переживаем их. В этом искусство живописца сродни работы писателя. \nВ одном только живопись не похожа ни на музыку, ни на книгу. Мелодия течет и изменяется непрерывно, события, за которыми мы следим читая книгу, следуют одно за другим. А картина изображает только одно мгновение. Как будто долго и настойчиво выбирал художник самый замечательный момент жизни, который достоин увековечения. И художник словно приказал времени «Остановить мгновение! » И красками, на холсте запечатлел всё, что увидел в этом неповторимом мгновении. \n \n...на картину, что ПРИДАЕТ? (может ПРЕДСТАЕТ? ) перед нашим взором ...\n...события, за которыми мы следим читая книгу, СЛЕДУЕТ (нужно писать СЛЕДУЮТ) одно за другим... ',
|
235 |
+
'Фильтр салона находится в моторном отсеке. Надо вскрыть заднюю полость моторного отсека у правой стороны лобового стекла. ',
|
236 |
+
]
|
237 |
+
embeddings = model.encode(sentences)
|
238 |
+
print(embeddings.shape)
|
239 |
+
# [3, 768]
|
240 |
+
|
241 |
+
# Get the similarity scores for the embeddings
|
242 |
+
similarities = model.similarity(embeddings, embeddings)
|
243 |
+
print(similarities.shape)
|
244 |
+
# [3, 3]
|
245 |
+
```
|
246 |
+
|
247 |
+
<!--
|
248 |
+
### Direct Usage (Transformers)
|
249 |
+
|
250 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
251 |
+
|
252 |
+
</details>
|
253 |
+
-->
|
254 |
+
|
255 |
+
<!--
|
256 |
+
### Downstream Usage (Sentence Transformers)
|
257 |
+
|
258 |
+
You can finetune this model on your own dataset.
|
259 |
+
|
260 |
+
<details><summary>Click to expand</summary>
|
261 |
+
|
262 |
+
</details>
|
263 |
+
-->
|
264 |
+
|
265 |
+
<!--
|
266 |
+
### Out-of-Scope Use
|
267 |
+
|
268 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
269 |
+
-->
|
270 |
+
|
271 |
+
## Evaluation
|
272 |
+
|
273 |
+
### Metrics
|
274 |
+
|
275 |
+
#### Triplet
|
276 |
+
|
277 |
+
* Dataset: `triplet_eval`
|
278 |
+
* Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
|
279 |
+
|
280 |
+
| Metric | Value |
|
281 |
+
|:--------------------|:-----------|
|
282 |
+
| **cosine_accuracy** | **0.9991** |
|
283 |
+
|
284 |
+
<!--
|
285 |
+
## Bias, Risks and Limitations
|
286 |
+
|
287 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
288 |
+
-->
|
289 |
+
|
290 |
+
<!--
|
291 |
+
### Recommendations
|
292 |
+
|
293 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
294 |
+
-->
|
295 |
+
|
296 |
+
## Training Details
|
297 |
+
|
298 |
+
### Training Dataset
|
299 |
+
|
300 |
+
#### solyanka-triplets
|
301 |
+
|
302 |
+
* Dataset: [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) at [bcb121a](https://huggingface.co/datasets/insuperabile/solyanka-triplets/tree/bcb121a58fa5068196fe9d2652ac56dedc8f7f75)
|
303 |
+
* Size: 1,900,000 training samples
|
304 |
+
* Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
|
305 |
+
* Approximate statistics based on the first 1000 samples:
|
306 |
+
| | anchor | positive | negative |
|
307 |
+
|:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
|
308 |
+
| type | string | string | string |
|
309 |
+
| details | <ul><li>min: 4 tokens</li><li>mean: 29.29 tokens</li><li>max: 499 tokens</li></ul> | <ul><li>min: 11 tokens</li><li>mean: 162.74 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 10 tokens</li><li>mean: 163.2 tokens</li><li>max: 512 tokens</li></ul> |
|
310 |
+
* Samples:
|
311 |
+
| anchor | positive | negative |
|
312 |
+
|:--------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
313 |
+
| <code>Здание Центра исследований и разработок Huawei в Нанкине</code> | <code>Центр был открыт в 2018 году. Здание разделено на три острова связанных между собой коридором.Общая площадь 150 000 кв.м. В здание по мимо рабочих помещений, есть: спортивный зал, библиотека, сад, столовая.<br>Photographs: Xuetao Zhang<br>https://www.archdaily.com/932248/huawei-nanjing-research-and...</code> | <code>Как выглядит дикий банан в живой природе.<br>Банан — одна из ярких фигур в истории человеческой цивилизации. Страшно представить, о чем бы мы шутили, снимали кинокомедии и сочиняли мемы, если бы не он. (Один тут художник недавно дивно нагрел руки на самом простом банане.)<br>Первые письменные упоминания об этих плодах встречаются в индийских текстах XVII века до нашей эры. Прежде чем стать таким, каким мы его знаем по магазинным полкам, банан прошел долгий путь эволюции.<br>Однако в Юго-Восточной Азии в первозданном виде сумел сберечь себя дикий банан.<br>Вид изнутри<br>Сравнительный анализ)<br>Дичок.<br>Размером дичок, как видишь, куда меньше привычного нам родственника. Плод набит крупными семенами (в каждом около 60 штук), мякоть совершенно несъедобна. Хотя вот на Филиппинах из них героически удаляют семечки и выжимают что-то типа сока.<br>Кстати, банан — одно из древнейших культивируемых растений и экспортная культура с самой большой прибылью в мире: оборот — 12 миллиардов долларов, в отрасли занято около...</code> |
|
314 |
+
| <code>anila name meaning</code> | <code>[3 сл. a-ni-la, an-ila] Имя девочки Анила произносится как aa-N IY-Laa- ࢠ€ÂÂ. Анила возникла на санскрите и в основном используется в Индии. Имя Анила означает «бог ветра». Anila - женская версия китайского и вьетнамского An, английского и индийского Anil. Формы Anila включают имена Anilah, Anilla, Anyla, Anylah, Anylla и Anyllah. Анила не часто используется в качестве имени девочки, ее нет в топ-1000 имен. Нила - женская версия китайского и вьетнамского An, а также английского и индийского Anil. Формы Анила включают имена Анилах, Анилла, Анила, Анила, Анилла и Аниллах. Анила не часто используется в качестве имени девочки.</code> | <code>Охратоксины - это микотоксины, продуцируемые несколькими видами Aspergillus и Penicillium. Охратоксин А - наиболее экономически важная форма охратоксина; охратоксины B и C менее токсичны и встречаются реже. Охратоксины могут передаваться через молоко, кровь и мясо. Отравление охратоксинами считается причиной хронического заболевания почек у людей, известного как балканская эндемическая нефропатия. злаки, виноград, кофе, орехи и инжир. Penicillium verrucosum - основная причина загрязнения зерновых культур охратоксинами в умеренном климате.</code> |
|
315 |
+
| <code>для чего созданы таможни на Украину? .Как защитить российских автомобилистов от украинских безбожных поборов ГАИ? </code> | <code>Таможни созданы для контроля за перемещением товаров через границу между странами. А насчёт поборов - не нарушай. </code> | <code>только не тугоушие, а тугоухость<br>стойкое понижение слуха при заболеваниях среднего или внутреннего уха, длительном воздействии шума, возрастных изменениях.<br>[ссылка заблокирована по решению администрации проекта]<br>http://menier.narod.ru/lechmenier.html<br>http://www.peterkaliniak.com/page/944<br>http://vse-lechim.ru/termins/item1141.html<br>[ссылка заблокирована по решению администрации проекта]<br>[ссылка заблокирована по решению администрации проекта]<br><br>посмотрите здесь. конечно все зависит от степени болезни. удачи</code> |
|
316 |
+
* Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
|
317 |
+
```json
|
318 |
+
{
|
319 |
+
"distance_metric": "TripletDistanceMetric.EUCLIDEAN",
|
320 |
+
"triplet_margin": 5
|
321 |
+
}
|
322 |
+
```
|
323 |
+
|
324 |
+
### Evaluation Dataset
|
325 |
+
|
326 |
+
#### solyanka-triplets
|
327 |
+
|
328 |
+
* Dataset: [solyanka-triplets](https://huggingface.co/datasets/insuperabile/solyanka-triplets) at [bcb121a](https://huggingface.co/datasets/insuperabile/solyanka-triplets/tree/bcb121a58fa5068196fe9d2652ac56dedc8f7f75)
|
329 |
+
* Size: 100,000 evaluation samples
|
330 |
+
* Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
|
331 |
+
* Approximate statistics based on the first 1000 samples:
|
332 |
+
| | anchor | positive | negative |
|
333 |
+
|:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
334 |
+
| type | string | string | string |
|
335 |
+
| details | <ul><li>min: 4 tokens</li><li>mean: 31.28 tokens</li><li>max: 492 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 166.05 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 12 tokens</li><li>mean: 161.41 tokens</li><li>max: 512 tokens</li></ul> |
|
336 |
+
* Samples:
|
337 |
+
| anchor | positive | negative |
|
338 |
+
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
339 |
+
| <code>Какую мощность имеет сигнал WNSC?</code> | <code>WNSC-FM own. WNSC is one of only a few stations on the South Carolina side of the market (the other being WOSF, which is licensed to Gaffney) that penetrates Charlotte to any significant extent. Its 97,900-watt signal easily covers Charlotte itself, as well as Gaston and Union counties. However, it only provides fringe coverage to the northern part of the market (Concord, Lincolnton, Mooresville, etc.), largely because it must conform its signal to protect fellow NPR station WDAV, at nearby 89.9. Until the spring of 2011, it identified as "Rock Hill/Charlotte," making it the only ETV station to include a second</code> | <code>Nobuhiko Takada story and controversy between them, as Tamura had challenged Takada and walked out of his old professional wrestling promotion in 1995 to work for a rival company. Tamura was also reluctant to fight at the event due to sharing card with Kenichi Yamamoto, another Takada understudy he had a personal enmity with. However, the match took place without more troubles. Master and apprentice exchanged kicks and punches at the start of the fight. Tamura dropped Takada with a leg kick, but action had to be stopped when he landed an accidental heavy low blow. After recovering, Takada took Tamura down</code> |
|
340 |
+
| <code>Fitch понизило рейтинг банка «Уралсиб»</code> | <code>Fitch понизило рейтинг банка «Уралсиб»Ведомости 18:58<br>Фото: РИА Новости<br>Международное рейтинговое агентство Fitch понизило долгосрочный рейтинг дефолта эмитента (РДЭ) российского банка «Уралсиб» и его дочерней структуры «Уралсиб-лизинг» с В+ до В. Прогноз по рейтингу банка — «стабильный», по «дочке» — «негативный». Об этом говорится в пресс-релизе агентства. Таким образом, финансовой компании остался один шаг до преддефолтного уровня<br>Краткосрочный рейтинг банка подтвержден на уровне В. Рейтинг устойчивости снижен до b с b+.<br>Рейтинговое действие отражает сохраняющееся давление на капитализацию банка и слабые перспективы улучшения ликвидности, учитывая более сложную операционную среду, говорится в сообщении Fitch. Международное рейтинговое агентство отмечает возросшую стоимость капитала и затраты на переоценку в соответствии с рыночными трендами, что может еще больше подорвать уже и без того слабую рентабельность банка.</code> | <code>Ограничение на любительскую и спортивную охоту было введено сегодня в Татарстане, передает пресс-центр Управления по охране и использованию объектов животного мира РТ. Согласно сообщению охотиться запрещено на зайца-беляка, глухаря, рябчика и куропатку до 2017 года. Это связано с сохранением охотничьих ресурсов и их рациональным использованием.<br>Запрет на охоту будет действовать во всех угодьях кроме следующих: «Аксубаевское», «Беркут», «Бутино-Шешминское», «Арское», «Урнякское», «Атнинское», «Юкя», «Буинское», «Глухарь», «Фазан», «Елабужское», «Караишевское», «Зеленодольское», «Краснооктябрьское», «Волжско-Камское», «Камское раздолье», «Рысь», «Новомензелинское», «Сухаревское», «Шешминское», «Красновидово», «Тюрнясевское», «Тетюшское», «Урахчинское», «Мизиновское» и общедоступных охотничьих угодий Алькеевского, Альметьевского, Дрожжановского, Лениногорского, Рыбно-Слободского муниципальных районов.<br>Напомним, что 15 августа текущего года врио президента РТ Рустам Минниханов подписал ука...</code> |
|
341 |
+
| <code>Как составить исковое заявление по потере оригинала диплома на работе - на директора супермаркета, работника отдела кадров или хозяина предприятия?. На работе потеряли оригинал моего диплома. Как правильно составить исковое заявление и на кого? На директора супермаркета, на работникаотдела кадров или на хозяина предприятия?</code> | <code>Вам нужно получить дубликат диплома в учебном заведении, которое Вам его выдало. А от того, что Вы напишите исковое заявление, диплом все равно не найдется.</code> | <code>Здравствуйте, Павел,главное, чтобы нынешний собственник нашел понимание с ТСЖ относительно площади квартиры.Что же касается ошибочных начислений, то действительно, предыдущий собственник может взыскать неосновательно перечисленную плату, однако есть несколько нюансов, которые требуют более детального знакомства с ситуацией.С уважением, Иван Ерпылёв</code> |
|
342 |
+
* Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
|
343 |
+
```json
|
344 |
+
{
|
345 |
+
"distance_metric": "TripletDistanceMetric.EUCLIDEAN",
|
346 |
+
"triplet_margin": 5
|
347 |
+
}
|
348 |
+
```
|
349 |
+
|
350 |
+
### Training Hyperparameters
|
351 |
+
#### Non-Default Hyperparameters
|
352 |
+
|
353 |
+
- `eval_strategy`: epoch
|
354 |
+
- `per_device_train_batch_size`: 64
|
355 |
+
- `per_device_eval_batch_size`: 32
|
356 |
+
- `learning_rate`: 1e-06
|
357 |
+
- `num_train_epochs`: 1
|
358 |
+
- `bf16`: True
|
359 |
+
- `load_best_model_at_end`: True
|
360 |
+
|
361 |
+
#### All Hyperparameters
|
362 |
+
<details><summary>Click to expand</summary>
|
363 |
+
|
364 |
+
- `overwrite_output_dir`: False
|
365 |
+
- `do_predict`: False
|
366 |
+
- `eval_strategy`: epoch
|
367 |
+
- `prediction_loss_only`: True
|
368 |
+
- `per_device_train_batch_size`: 64
|
369 |
+
- `per_device_eval_batch_size`: 32
|
370 |
+
- `per_gpu_train_batch_size`: None
|
371 |
+
- `per_gpu_eval_batch_size`: None
|
372 |
+
- `gradient_accumulation_steps`: 1
|
373 |
+
- `eval_accumulation_steps`: None
|
374 |
+
- `torch_empty_cache_steps`: None
|
375 |
+
- `learning_rate`: 1e-06
|
376 |
+
- `weight_decay`: 0.0
|
377 |
+
- `adam_beta1`: 0.9
|
378 |
+
- `adam_beta2`: 0.999
|
379 |
+
- `adam_epsilon`: 1e-08
|
380 |
+
- `max_grad_norm`: 1.0
|
381 |
+
- `num_train_epochs`: 1
|
382 |
+
- `max_steps`: -1
|
383 |
+
- `lr_scheduler_type`: linear
|
384 |
+
- `lr_scheduler_kwargs`: {}
|
385 |
+
- `warmup_ratio`: 0.0
|
386 |
+
- `warmup_steps`: 0
|
387 |
+
- `log_level`: passive
|
388 |
+
- `log_level_replica`: warning
|
389 |
+
- `log_on_each_node`: True
|
390 |
+
- `logging_nan_inf_filter`: True
|
391 |
+
- `save_safetensors`: True
|
392 |
+
- `save_on_each_node`: False
|
393 |
+
- `save_only_model`: False
|
394 |
+
- `restore_callback_states_from_checkpoint`: False
|
395 |
+
- `no_cuda`: False
|
396 |
+
- `use_cpu`: False
|
397 |
+
- `use_mps_device`: False
|
398 |
+
- `seed`: 42
|
399 |
+
- `data_seed`: None
|
400 |
+
- `jit_mode_eval`: False
|
401 |
+
- `use_ipex`: False
|
402 |
+
- `bf16`: True
|
403 |
+
- `fp16`: False
|
404 |
+
- `fp16_opt_level`: O1
|
405 |
+
- `half_precision_backend`: auto
|
406 |
+
- `bf16_full_eval`: False
|
407 |
+
- `fp16_full_eval`: False
|
408 |
+
- `tf32`: None
|
409 |
+
- `local_rank`: 0
|
410 |
+
- `ddp_backend`: None
|
411 |
+
- `tpu_num_cores`: None
|
412 |
+
- `tpu_metrics_debug`: False
|
413 |
+
- `debug`: []
|
414 |
+
- `dataloader_drop_last`: False
|
415 |
+
- `dataloader_num_workers`: 0
|
416 |
+
- `dataloader_prefetch_factor`: None
|
417 |
+
- `past_index`: -1
|
418 |
+
- `disable_tqdm`: False
|
419 |
+
- `remove_unused_columns`: True
|
420 |
+
- `label_names`: None
|
421 |
+
- `load_best_model_at_end`: True
|
422 |
+
- `ignore_data_skip`: False
|
423 |
+
- `fsdp`: []
|
424 |
+
- `fsdp_min_num_params`: 0
|
425 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
426 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
427 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
428 |
+
- `deepspeed`: None
|
429 |
+
- `label_smoothing_factor`: 0.0
|
430 |
+
- `optim`: adamw_torch
|
431 |
+
- `optim_args`: None
|
432 |
+
- `adafactor`: False
|
433 |
+
- `group_by_length`: False
|
434 |
+
- `length_column_name`: length
|
435 |
+
- `ddp_find_unused_parameters`: None
|
436 |
+
- `ddp_bucket_cap_mb`: None
|
437 |
+
- `ddp_broadcast_buffers`: False
|
438 |
+
- `dataloader_pin_memory`: True
|
439 |
+
- `dataloader_persistent_workers`: False
|
440 |
+
- `skip_memory_metrics`: True
|
441 |
+
- `use_legacy_prediction_loop`: False
|
442 |
+
- `push_to_hub`: False
|
443 |
+
- `resume_from_checkpoint`: None
|
444 |
+
- `hub_model_id`: None
|
445 |
+
- `hub_strategy`: every_save
|
446 |
+
- `hub_private_repo`: None
|
447 |
+
- `hub_always_push`: False
|
448 |
+
- `gradient_checkpointing`: False
|
449 |
+
- `gradient_checkpointing_kwargs`: None
|
450 |
+
- `include_inputs_for_metrics`: False
|
451 |
+
- `include_for_metrics`: []
|
452 |
+
- `eval_do_concat_batches`: True
|
453 |
+
- `fp16_backend`: auto
|
454 |
+
- `push_to_hub_model_id`: None
|
455 |
+
- `push_to_hub_organization`: None
|
456 |
+
- `mp_parameters`:
|
457 |
+
- `auto_find_batch_size`: False
|
458 |
+
- `full_determinism`: False
|
459 |
+
- `torchdynamo`: None
|
460 |
+
- `ray_scope`: last
|
461 |
+
- `ddp_timeout`: 1800
|
462 |
+
- `torch_compile`: False
|
463 |
+
- `torch_compile_backend`: None
|
464 |
+
- `torch_compile_mode`: None
|
465 |
+
- `include_tokens_per_second`: False
|
466 |
+
- `include_num_input_tokens_seen`: False
|
467 |
+
- `neftune_noise_alpha`: None
|
468 |
+
- `optim_target_modules`: None
|
469 |
+
- `batch_eval_metrics`: False
|
470 |
+
- `eval_on_start`: False
|
471 |
+
- `use_liger_kernel`: False
|
472 |
+
- `eval_use_gather_object`: False
|
473 |
+
- `average_tokens_across_devices`: False
|
474 |
+
- `prompts`: None
|
475 |
+
- `batch_sampler`: batch_sampler
|
476 |
+
- `multi_dataset_batch_sampler`: proportional
|
477 |
+
|
478 |
+
</details>
|
479 |
+
|
480 |
+
### Training Logs
|
481 |
+
| Epoch | Step | Training Loss | Validation Loss | triplet_eval_cosine_accuracy |
|
482 |
+
|:------:|:----:|:-------------:|:---------------:|:----------------------------:|
|
483 |
+
| 0.1598 | 593 | 0.4866 | - | - |
|
484 |
+
| 0.3196 | 1186 | 0.0792 | - | - |
|
485 |
+
| 0.4794 | 1779 | 0.0436 | - | - |
|
486 |
+
| 0.6392 | 2372 | 0.0355 | - | - |
|
487 |
+
| 0.7990 | 2965 | 0.0324 | - | - |
|
488 |
+
| 0.9588 | 3558 | 0.0304 | - | - |
|
489 |
+
| 1.0 | 3711 | - | 0.0309 | 0.9991 |
|
490 |
+
|
491 |
+
|
492 |
+
### Framework Versions
|
493 |
+
- Python: 3.11.10
|
494 |
+
- Sentence Transformers: 4.1.0
|
495 |
+
- Transformers: 4.52.4
|
496 |
+
- PyTorch: 2.6.0+cu124
|
497 |
+
- Accelerate: 1.7.0
|
498 |
+
- Datasets: 3.6.0
|
499 |
+
- Tokenizers: 0.21.1
|
500 |
+
|
501 |
+
## Citation
|
502 |
+
|
503 |
+
### BibTeX
|
504 |
+
|
505 |
+
#### Sentence Transformers
|
506 |
+
```bibtex
|
507 |
+
@inproceedings{reimers-2019-sentence-bert,
|
508 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
509 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
510 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
511 |
+
month = "11",
|
512 |
+
year = "2019",
|
513 |
+
publisher = "Association for Computational Linguistics",
|
514 |
+
url = "https://arxiv.org/abs/1908.10084",
|
515 |
+
}
|
516 |
+
```
|
517 |
+
|
518 |
+
#### TripletLoss
|
519 |
+
```bibtex
|
520 |
+
@misc{hermans2017defense,
|
521 |
+
title={In Defense of the Triplet Loss for Person Re-Identification},
|
522 |
+
author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
|
523 |
+
year={2017},
|
524 |
+
eprint={1703.07737},
|
525 |
+
archivePrefix={arXiv},
|
526 |
+
primaryClass={cs.CV}
|
527 |
+
}
|
528 |
+
```
|
529 |
+
|
530 |
+
<!--
|
531 |
+
## Glossary
|
532 |
+
|
533 |
+
*Clearly define terms in order to be accessible across audiences.*
|
534 |
+
-->
|
535 |
+
|
536 |
+
<!--
|
537 |
+
## Model Card Authors
|
538 |
+
|
539 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
540 |
+
-->
|
541 |
+
|
542 |
+
<!--
|
543 |
+
## Model Card Contact
|
544 |
+
|
545 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
546 |
+
-->
|
checkpoint-3711/config.json
ADDED
@@ -0,0 +1,81 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"activation_function": "gelu",
|
3 |
+
"allow_embedding_resizing": true,
|
4 |
+
"architectures": [
|
5 |
+
"ModernBertModel"
|
6 |
+
],
|
7 |
+
"attention_bias": false,
|
8 |
+
"attention_dropout": 0.0,
|
9 |
+
"attention_layer": "rope",
|
10 |
+
"attention_probs_dropout_prob": 0.0,
|
11 |
+
"attn_out_bias": false,
|
12 |
+
"attn_out_dropout_prob": 0.1,
|
13 |
+
"attn_qkv_bias": false,
|
14 |
+
"bert_layer": "prenorm",
|
15 |
+
"bos_token_id": 50281,
|
16 |
+
"classifier_activation": "gelu",
|
17 |
+
"classifier_bias": false,
|
18 |
+
"classifier_dropout": 0.0,
|
19 |
+
"classifier_pooling": "cls",
|
20 |
+
"cls_token_id": 50281,
|
21 |
+
"compile_model": true,
|
22 |
+
"decoder_bias": true,
|
23 |
+
"deterministic_flash_attn": false,
|
24 |
+
"embed_dropout_prob": 0.0,
|
25 |
+
"embed_norm": true,
|
26 |
+
"embedding_dropout": 0.0,
|
27 |
+
"embedding_layer": "sans_pos",
|
28 |
+
"eos_token_id": 50282,
|
29 |
+
"final_norm": true,
|
30 |
+
"global_attn_every_n_layers": 3,
|
31 |
+
"global_rope_theta": 160000.0,
|
32 |
+
"head_pred_act": "gelu",
|
33 |
+
"hidden_act": "gelu",
|
34 |
+
"hidden_activation": "gelu",
|
35 |
+
"hidden_size": 768,
|
36 |
+
"init_method": "full_megatron",
|
37 |
+
"initializer_cutoff_factor": 2.0,
|
38 |
+
"initializer_range": 0.02,
|
39 |
+
"intermediate_size": 1152,
|
40 |
+
"local_attention": 128,
|
41 |
+
"local_attn_rotary_emb_base": 10000.0,
|
42 |
+
"local_rope_theta": 10000.0,
|
43 |
+
"loss_function": "fa_cross_entropy",
|
44 |
+
"loss_kwargs": {
|
45 |
+
"reduction": "mean"
|
46 |
+
},
|
47 |
+
"masked_prediction": true,
|
48 |
+
"max_position_embeddings": 8192,
|
49 |
+
"mlp_bias": false,
|
50 |
+
"mlp_dropout": 0.0,
|
51 |
+
"mlp_dropout_prob": 0.0,
|
52 |
+
"mlp_in_bias": false,
|
53 |
+
"mlp_layer": "glu",
|
54 |
+
"mlp_out_bias": false,
|
55 |
+
"model_type": "modernbert",
|
56 |
+
"norm_bias": false,
|
57 |
+
"norm_eps": 1e-05,
|
58 |
+
"norm_kwargs": {
|
59 |
+
"bias": false,
|
60 |
+
"eps": 1e-05
|
61 |
+
},
|
62 |
+
"normalization": "layernorm",
|
63 |
+
"num_attention_heads": 12,
|
64 |
+
"num_hidden_layers": 22,
|
65 |
+
"pad_token_id": 50283,
|
66 |
+
"padding": "unpadded",
|
67 |
+
"repad_logits_with_grad": false,
|
68 |
+
"rotary_emb_base": 160000.0,
|
69 |
+
"rotary_emb_dim": null,
|
70 |
+
"rotary_emb_interleaved": false,
|
71 |
+
"rotary_emb_scale_base": null,
|
72 |
+
"sep_token_id": 50282,
|
73 |
+
"skip_first_prenorm": true,
|
74 |
+
"sliding_window": 128,
|
75 |
+
"sparse_pred_ignore_index": -100,
|
76 |
+
"sparse_prediction": false,
|
77 |
+
"torch_dtype": "float32",
|
78 |
+
"transformers_version": "4.52.4",
|
79 |
+
"unpad_embeddings": true,
|
80 |
+
"vocab_size": 50368
|
81 |
+
}
|
checkpoint-3711/config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "4.1.0",
|
4 |
+
"transformers": "4.52.4",
|
5 |
+
"pytorch": "2.6.0+cu124"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": "cosine"
|
10 |
+
}
|
checkpoint-3711/model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:b4b8411440f4b0a9c68965cd518105fb4aba6a0c81480b7d28d83630ba995223
|
3 |
+
size 596070136
|
checkpoint-3711/modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
checkpoint-3711/optimizer.pt
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:7b0f47144a558155c4b9fa3bc6f993a8e2804b3986210c9fb572efb477f2674f
|
3 |
+
size 1192227066
|
checkpoint-3711/rng_state.pth
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:6fe06cbec48873f7cf0d5b361a59149eba8e2f91780f602044d2ef83c90e59df
|
3 |
+
size 14244
|
checkpoint-3711/scheduler.pt
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:89bbc6ab6c96a90d6557c95493a409a78753fe443a9e45295730f2ae044ec57b
|
3 |
+
size 1064
|
checkpoint-3711/sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
checkpoint-3711/special_tokens_map.json
ADDED
@@ -0,0 +1,46 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"additional_special_tokens": [
|
3 |
+
"<|padding|>",
|
4 |
+
"<|endoftext|>",
|
5 |
+
"[UNK]",
|
6 |
+
"[CLS]",
|
7 |
+
"[SEP]",
|
8 |
+
"[PAD]",
|
9 |
+
"[MASK]"
|
10 |
+
],
|
11 |
+
"cls_token": {
|
12 |
+
"content": "[CLS]",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false
|
17 |
+
},
|
18 |
+
"mask_token": {
|
19 |
+
"content": "[MASK]",
|
20 |
+
"lstrip": true,
|
21 |
+
"normalized": false,
|
22 |
+
"rstrip": false,
|
23 |
+
"single_word": false
|
24 |
+
},
|
25 |
+
"pad_token": {
|
26 |
+
"content": "[PAD]",
|
27 |
+
"lstrip": false,
|
28 |
+
"normalized": false,
|
29 |
+
"rstrip": false,
|
30 |
+
"single_word": false
|
31 |
+
},
|
32 |
+
"sep_token": {
|
33 |
+
"content": "[SEP]",
|
34 |
+
"lstrip": false,
|
35 |
+
"normalized": false,
|
36 |
+
"rstrip": false,
|
37 |
+
"single_word": false
|
38 |
+
},
|
39 |
+
"unk_token": {
|
40 |
+
"content": "[UNK]",
|
41 |
+
"lstrip": false,
|
42 |
+
"normalized": false,
|
43 |
+
"rstrip": false,
|
44 |
+
"single_word": false
|
45 |
+
}
|
46 |
+
}
|
checkpoint-3711/tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
checkpoint-3711/tokenizer_config.json
ADDED
@@ -0,0 +1,954 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<|padding|>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<|endoftext|>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": " ",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": true,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": false
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": " ",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": true,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": false
|
34 |
+
},
|
35 |
+
"4": {
|
36 |
+
"content": " ",
|
37 |
+
"lstrip": false,
|
38 |
+
"normalized": true,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": false
|
42 |
+
},
|
43 |
+
"5": {
|
44 |
+
"content": "|||EMAIL_ADDRESS|||",
|
45 |
+
"lstrip": false,
|
46 |
+
"normalized": true,
|
47 |
+
"rstrip": false,
|
48 |
+
"single_word": false,
|
49 |
+
"special": false
|
50 |
+
},
|
51 |
+
"6": {
|
52 |
+
"content": "|||PHONE_NUMBER|||",
|
53 |
+
"lstrip": false,
|
54 |
+
"normalized": true,
|
55 |
+
"rstrip": false,
|
56 |
+
"single_word": false,
|
57 |
+
"special": false
|
58 |
+
},
|
59 |
+
"50259": {
|
60 |
+
"content": "|||IP_ADDRESS|||",
|
61 |
+
"lstrip": false,
|
62 |
+
"normalized": true,
|
63 |
+
"rstrip": false,
|
64 |
+
"single_word": false,
|
65 |
+
"special": false
|
66 |
+
},
|
67 |
+
"50260": {
|
68 |
+
"content": " ",
|
69 |
+
"lstrip": false,
|
70 |
+
"normalized": true,
|
71 |
+
"rstrip": false,
|
72 |
+
"single_word": false,
|
73 |
+
"special": false
|
74 |
+
},
|
75 |
+
"50261": {
|
76 |
+
"content": " ",
|
77 |
+
"lstrip": false,
|
78 |
+
"normalized": true,
|
79 |
+
"rstrip": false,
|
80 |
+
"single_word": false,
|
81 |
+
"special": false
|
82 |
+
},
|
83 |
+
"50262": {
|
84 |
+
"content": " ",
|
85 |
+
"lstrip": false,
|
86 |
+
"normalized": true,
|
87 |
+
"rstrip": false,
|
88 |
+
"single_word": false,
|
89 |
+
"special": false
|
90 |
+
},
|
91 |
+
"50263": {
|
92 |
+
"content": " ",
|
93 |
+
"lstrip": false,
|
94 |
+
"normalized": true,
|
95 |
+
"rstrip": false,
|
96 |
+
"single_word": false,
|
97 |
+
"special": false
|
98 |
+
},
|
99 |
+
"50264": {
|
100 |
+
"content": " ",
|
101 |
+
"lstrip": false,
|
102 |
+
"normalized": true,
|
103 |
+
"rstrip": false,
|
104 |
+
"single_word": false,
|
105 |
+
"special": false
|
106 |
+
},
|
107 |
+
"50265": {
|
108 |
+
"content": " ",
|
109 |
+
"lstrip": false,
|
110 |
+
"normalized": true,
|
111 |
+
"rstrip": false,
|
112 |
+
"single_word": false,
|
113 |
+
"special": false
|
114 |
+
},
|
115 |
+
"50266": {
|
116 |
+
"content": " ",
|
117 |
+
"lstrip": false,
|
118 |
+
"normalized": true,
|
119 |
+
"rstrip": false,
|
120 |
+
"single_word": false,
|
121 |
+
"special": false
|
122 |
+
},
|
123 |
+
"50267": {
|
124 |
+
"content": " ",
|
125 |
+
"lstrip": false,
|
126 |
+
"normalized": true,
|
127 |
+
"rstrip": false,
|
128 |
+
"single_word": false,
|
129 |
+
"special": false
|
130 |
+
},
|
131 |
+
"50268": {
|
132 |
+
"content": " ",
|
133 |
+
"lstrip": false,
|
134 |
+
"normalized": true,
|
135 |
+
"rstrip": false,
|
136 |
+
"single_word": false,
|
137 |
+
"special": false
|
138 |
+
},
|
139 |
+
"50269": {
|
140 |
+
"content": " ",
|
141 |
+
"lstrip": false,
|
142 |
+
"normalized": true,
|
143 |
+
"rstrip": false,
|
144 |
+
"single_word": false,
|
145 |
+
"special": false
|
146 |
+
},
|
147 |
+
"50270": {
|
148 |
+
"content": " ",
|
149 |
+
"lstrip": false,
|
150 |
+
"normalized": true,
|
151 |
+
"rstrip": false,
|
152 |
+
"single_word": false,
|
153 |
+
"special": false
|
154 |
+
},
|
155 |
+
"50271": {
|
156 |
+
"content": " ",
|
157 |
+
"lstrip": false,
|
158 |
+
"normalized": true,
|
159 |
+
"rstrip": false,
|
160 |
+
"single_word": false,
|
161 |
+
"special": false
|
162 |
+
},
|
163 |
+
"50272": {
|
164 |
+
"content": " ",
|
165 |
+
"lstrip": false,
|
166 |
+
"normalized": true,
|
167 |
+
"rstrip": false,
|
168 |
+
"single_word": false,
|
169 |
+
"special": false
|
170 |
+
},
|
171 |
+
"50273": {
|
172 |
+
"content": " ",
|
173 |
+
"lstrip": false,
|
174 |
+
"normalized": true,
|
175 |
+
"rstrip": false,
|
176 |
+
"single_word": false,
|
177 |
+
"special": false
|
178 |
+
},
|
179 |
+
"50274": {
|
180 |
+
"content": " ",
|
181 |
+
"lstrip": false,
|
182 |
+
"normalized": true,
|
183 |
+
"rstrip": false,
|
184 |
+
"single_word": false,
|
185 |
+
"special": false
|
186 |
+
},
|
187 |
+
"50275": {
|
188 |
+
"content": " ",
|
189 |
+
"lstrip": false,
|
190 |
+
"normalized": true,
|
191 |
+
"rstrip": false,
|
192 |
+
"single_word": false,
|
193 |
+
"special": false
|
194 |
+
},
|
195 |
+
"50276": {
|
196 |
+
"content": " ",
|
197 |
+
"lstrip": false,
|
198 |
+
"normalized": true,
|
199 |
+
"rstrip": false,
|
200 |
+
"single_word": false,
|
201 |
+
"special": false
|
202 |
+
},
|
203 |
+
"50277": {
|
204 |
+
"content": " ",
|
205 |
+
"lstrip": false,
|
206 |
+
"normalized": true,
|
207 |
+
"rstrip": false,
|
208 |
+
"single_word": false,
|
209 |
+
"special": false
|
210 |
+
},
|
211 |
+
"50278": {
|
212 |
+
"content": " ",
|
213 |
+
"lstrip": false,
|
214 |
+
"normalized": true,
|
215 |
+
"rstrip": false,
|
216 |
+
"single_word": false,
|
217 |
+
"special": false
|
218 |
+
},
|
219 |
+
"50279": {
|
220 |
+
"content": " ",
|
221 |
+
"lstrip": false,
|
222 |
+
"normalized": true,
|
223 |
+
"rstrip": false,
|
224 |
+
"single_word": false,
|
225 |
+
"special": false
|
226 |
+
},
|
227 |
+
"50280": {
|
228 |
+
"content": "[UNK]",
|
229 |
+
"lstrip": false,
|
230 |
+
"normalized": false,
|
231 |
+
"rstrip": false,
|
232 |
+
"single_word": false,
|
233 |
+
"special": true
|
234 |
+
},
|
235 |
+
"50281": {
|
236 |
+
"content": "[CLS]",
|
237 |
+
"lstrip": false,
|
238 |
+
"normalized": false,
|
239 |
+
"rstrip": false,
|
240 |
+
"single_word": false,
|
241 |
+
"special": true
|
242 |
+
},
|
243 |
+
"50282": {
|
244 |
+
"content": "[SEP]",
|
245 |
+
"lstrip": false,
|
246 |
+
"normalized": false,
|
247 |
+
"rstrip": false,
|
248 |
+
"single_word": false,
|
249 |
+
"special": true
|
250 |
+
},
|
251 |
+
"50283": {
|
252 |
+
"content": "[PAD]",
|
253 |
+
"lstrip": false,
|
254 |
+
"normalized": false,
|
255 |
+
"rstrip": false,
|
256 |
+
"single_word": false,
|
257 |
+
"special": true
|
258 |
+
},
|
259 |
+
"50284": {
|
260 |
+
"content": "[MASK]",
|
261 |
+
"lstrip": true,
|
262 |
+
"normalized": false,
|
263 |
+
"rstrip": false,
|
264 |
+
"single_word": false,
|
265 |
+
"special": true
|
266 |
+
},
|
267 |
+
"50285": {
|
268 |
+
"content": "[unused0]",
|
269 |
+
"lstrip": false,
|
270 |
+
"normalized": true,
|
271 |
+
"rstrip": false,
|
272 |
+
"single_word": false,
|
273 |
+
"special": false
|
274 |
+
},
|
275 |
+
"50286": {
|
276 |
+
"content": "[unused1]",
|
277 |
+
"lstrip": false,
|
278 |
+
"normalized": true,
|
279 |
+
"rstrip": false,
|
280 |
+
"single_word": false,
|
281 |
+
"special": false
|
282 |
+
},
|
283 |
+
"50287": {
|
284 |
+
"content": "[unused2]",
|
285 |
+
"lstrip": false,
|
286 |
+
"normalized": true,
|
287 |
+
"rstrip": false,
|
288 |
+
"single_word": false,
|
289 |
+
"special": false
|
290 |
+
},
|
291 |
+
"50288": {
|
292 |
+
"content": "[unused3]",
|
293 |
+
"lstrip": false,
|
294 |
+
"normalized": true,
|
295 |
+
"rstrip": false,
|
296 |
+
"single_word": false,
|
297 |
+
"special": false
|
298 |
+
},
|
299 |
+
"50289": {
|
300 |
+
"content": "[unused4]",
|
301 |
+
"lstrip": false,
|
302 |
+
"normalized": true,
|
303 |
+
"rstrip": false,
|
304 |
+
"single_word": false,
|
305 |
+
"special": false
|
306 |
+
},
|
307 |
+
"50290": {
|
308 |
+
"content": "[unused5]",
|
309 |
+
"lstrip": false,
|
310 |
+
"normalized": true,
|
311 |
+
"rstrip": false,
|
312 |
+
"single_word": false,
|
313 |
+
"special": false
|
314 |
+
},
|
315 |
+
"50291": {
|
316 |
+
"content": "[unused6]",
|
317 |
+
"lstrip": false,
|
318 |
+
"normalized": true,
|
319 |
+
"rstrip": false,
|
320 |
+
"single_word": false,
|
321 |
+
"special": false
|
322 |
+
},
|
323 |
+
"50292": {
|
324 |
+
"content": "[unused7]",
|
325 |
+
"lstrip": false,
|
326 |
+
"normalized": true,
|
327 |
+
"rstrip": false,
|
328 |
+
"single_word": false,
|
329 |
+
"special": false
|
330 |
+
},
|
331 |
+
"50293": {
|
332 |
+
"content": "[unused8]",
|
333 |
+
"lstrip": false,
|
334 |
+
"normalized": true,
|
335 |
+
"rstrip": false,
|
336 |
+
"single_word": false,
|
337 |
+
"special": false
|
338 |
+
},
|
339 |
+
"50294": {
|
340 |
+
"content": "[unused9]",
|
341 |
+
"lstrip": false,
|
342 |
+
"normalized": true,
|
343 |
+
"rstrip": false,
|
344 |
+
"single_word": false,
|
345 |
+
"special": false
|
346 |
+
},
|
347 |
+
"50295": {
|
348 |
+
"content": "[unused10]",
|
349 |
+
"lstrip": false,
|
350 |
+
"normalized": true,
|
351 |
+
"rstrip": false,
|
352 |
+
"single_word": false,
|
353 |
+
"special": false
|
354 |
+
},
|
355 |
+
"50296": {
|
356 |
+
"content": "[unused11]",
|
357 |
+
"lstrip": false,
|
358 |
+
"normalized": true,
|
359 |
+
"rstrip": false,
|
360 |
+
"single_word": false,
|
361 |
+
"special": false
|
362 |
+
},
|
363 |
+
"50297": {
|
364 |
+
"content": "[unused12]",
|
365 |
+
"lstrip": false,
|
366 |
+
"normalized": true,
|
367 |
+
"rstrip": false,
|
368 |
+
"single_word": false,
|
369 |
+
"special": false
|
370 |
+
},
|
371 |
+
"50298": {
|
372 |
+
"content": "[unused13]",
|
373 |
+
"lstrip": false,
|
374 |
+
"normalized": true,
|
375 |
+
"rstrip": false,
|
376 |
+
"single_word": false,
|
377 |
+
"special": false
|
378 |
+
},
|
379 |
+
"50299": {
|
380 |
+
"content": "[unused14]",
|
381 |
+
"lstrip": false,
|
382 |
+
"normalized": true,
|
383 |
+
"rstrip": false,
|
384 |
+
"single_word": false,
|
385 |
+
"special": false
|
386 |
+
},
|
387 |
+
"50300": {
|
388 |
+
"content": "[unused15]",
|
389 |
+
"lstrip": false,
|
390 |
+
"normalized": true,
|
391 |
+
"rstrip": false,
|
392 |
+
"single_word": false,
|
393 |
+
"special": false
|
394 |
+
},
|
395 |
+
"50301": {
|
396 |
+
"content": "[unused16]",
|
397 |
+
"lstrip": false,
|
398 |
+
"normalized": true,
|
399 |
+
"rstrip": false,
|
400 |
+
"single_word": false,
|
401 |
+
"special": false
|
402 |
+
},
|
403 |
+
"50302": {
|
404 |
+
"content": "[unused17]",
|
405 |
+
"lstrip": false,
|
406 |
+
"normalized": true,
|
407 |
+
"rstrip": false,
|
408 |
+
"single_word": false,
|
409 |
+
"special": false
|
410 |
+
},
|
411 |
+
"50303": {
|
412 |
+
"content": "[unused18]",
|
413 |
+
"lstrip": false,
|
414 |
+
"normalized": true,
|
415 |
+
"rstrip": false,
|
416 |
+
"single_word": false,
|
417 |
+
"special": false
|
418 |
+
},
|
419 |
+
"50304": {
|
420 |
+
"content": "[unused19]",
|
421 |
+
"lstrip": false,
|
422 |
+
"normalized": true,
|
423 |
+
"rstrip": false,
|
424 |
+
"single_word": false,
|
425 |
+
"special": false
|
426 |
+
},
|
427 |
+
"50305": {
|
428 |
+
"content": "[unused20]",
|
429 |
+
"lstrip": false,
|
430 |
+
"normalized": true,
|
431 |
+
"rstrip": false,
|
432 |
+
"single_word": false,
|
433 |
+
"special": false
|
434 |
+
},
|
435 |
+
"50306": {
|
436 |
+
"content": "[unused21]",
|
437 |
+
"lstrip": false,
|
438 |
+
"normalized": true,
|
439 |
+
"rstrip": false,
|
440 |
+
"single_word": false,
|
441 |
+
"special": false
|
442 |
+
},
|
443 |
+
"50307": {
|
444 |
+
"content": "[unused22]",
|
445 |
+
"lstrip": false,
|
446 |
+
"normalized": true,
|
447 |
+
"rstrip": false,
|
448 |
+
"single_word": false,
|
449 |
+
"special": false
|
450 |
+
},
|
451 |
+
"50308": {
|
452 |
+
"content": "[unused23]",
|
453 |
+
"lstrip": false,
|
454 |
+
"normalized": true,
|
455 |
+
"rstrip": false,
|
456 |
+
"single_word": false,
|
457 |
+
"special": false
|
458 |
+
},
|
459 |
+
"50309": {
|
460 |
+
"content": "[unused24]",
|
461 |
+
"lstrip": false,
|
462 |
+
"normalized": true,
|
463 |
+
"rstrip": false,
|
464 |
+
"single_word": false,
|
465 |
+
"special": false
|
466 |
+
},
|
467 |
+
"50310": {
|
468 |
+
"content": "[unused25]",
|
469 |
+
"lstrip": false,
|
470 |
+
"normalized": true,
|
471 |
+
"rstrip": false,
|
472 |
+
"single_word": false,
|
473 |
+
"special": false
|
474 |
+
},
|
475 |
+
"50311": {
|
476 |
+
"content": "[unused26]",
|
477 |
+
"lstrip": false,
|
478 |
+
"normalized": true,
|
479 |
+
"rstrip": false,
|
480 |
+
"single_word": false,
|
481 |
+
"special": false
|
482 |
+
},
|
483 |
+
"50312": {
|
484 |
+
"content": "[unused27]",
|
485 |
+
"lstrip": false,
|
486 |
+
"normalized": true,
|
487 |
+
"rstrip": false,
|
488 |
+
"single_word": false,
|
489 |
+
"special": false
|
490 |
+
},
|
491 |
+
"50313": {
|
492 |
+
"content": "[unused28]",
|
493 |
+
"lstrip": false,
|
494 |
+
"normalized": true,
|
495 |
+
"rstrip": false,
|
496 |
+
"single_word": false,
|
497 |
+
"special": false
|
498 |
+
},
|
499 |
+
"50314": {
|
500 |
+
"content": "[unused29]",
|
501 |
+
"lstrip": false,
|
502 |
+
"normalized": true,
|
503 |
+
"rstrip": false,
|
504 |
+
"single_word": false,
|
505 |
+
"special": false
|
506 |
+
},
|
507 |
+
"50315": {
|
508 |
+
"content": "[unused30]",
|
509 |
+
"lstrip": false,
|
510 |
+
"normalized": true,
|
511 |
+
"rstrip": false,
|
512 |
+
"single_word": false,
|
513 |
+
"special": false
|
514 |
+
},
|
515 |
+
"50316": {
|
516 |
+
"content": "[unused31]",
|
517 |
+
"lstrip": false,
|
518 |
+
"normalized": true,
|
519 |
+
"rstrip": false,
|
520 |
+
"single_word": false,
|
521 |
+
"special": false
|
522 |
+
},
|
523 |
+
"50317": {
|
524 |
+
"content": "[unused32]",
|
525 |
+
"lstrip": false,
|
526 |
+
"normalized": true,
|
527 |
+
"rstrip": false,
|
528 |
+
"single_word": false,
|
529 |
+
"special": false
|
530 |
+
},
|
531 |
+
"50318": {
|
532 |
+
"content": "[unused33]",
|
533 |
+
"lstrip": false,
|
534 |
+
"normalized": true,
|
535 |
+
"rstrip": false,
|
536 |
+
"single_word": false,
|
537 |
+
"special": false
|
538 |
+
},
|
539 |
+
"50319": {
|
540 |
+
"content": "[unused34]",
|
541 |
+
"lstrip": false,
|
542 |
+
"normalized": true,
|
543 |
+
"rstrip": false,
|
544 |
+
"single_word": false,
|
545 |
+
"special": false
|
546 |
+
},
|
547 |
+
"50320": {
|
548 |
+
"content": "[unused35]",
|
549 |
+
"lstrip": false,
|
550 |
+
"normalized": true,
|
551 |
+
"rstrip": false,
|
552 |
+
"single_word": false,
|
553 |
+
"special": false
|
554 |
+
},
|
555 |
+
"50321": {
|
556 |
+
"content": "[unused36]",
|
557 |
+
"lstrip": false,
|
558 |
+
"normalized": true,
|
559 |
+
"rstrip": false,
|
560 |
+
"single_word": false,
|
561 |
+
"special": false
|
562 |
+
},
|
563 |
+
"50322": {
|
564 |
+
"content": "[unused37]",
|
565 |
+
"lstrip": false,
|
566 |
+
"normalized": true,
|
567 |
+
"rstrip": false,
|
568 |
+
"single_word": false,
|
569 |
+
"special": false
|
570 |
+
},
|
571 |
+
"50323": {
|
572 |
+
"content": "[unused38]",
|
573 |
+
"lstrip": false,
|
574 |
+
"normalized": true,
|
575 |
+
"rstrip": false,
|
576 |
+
"single_word": false,
|
577 |
+
"special": false
|
578 |
+
},
|
579 |
+
"50324": {
|
580 |
+
"content": "[unused39]",
|
581 |
+
"lstrip": false,
|
582 |
+
"normalized": true,
|
583 |
+
"rstrip": false,
|
584 |
+
"single_word": false,
|
585 |
+
"special": false
|
586 |
+
},
|
587 |
+
"50325": {
|
588 |
+
"content": "[unused40]",
|
589 |
+
"lstrip": false,
|
590 |
+
"normalized": true,
|
591 |
+
"rstrip": false,
|
592 |
+
"single_word": false,
|
593 |
+
"special": false
|
594 |
+
},
|
595 |
+
"50326": {
|
596 |
+
"content": "[unused41]",
|
597 |
+
"lstrip": false,
|
598 |
+
"normalized": true,
|
599 |
+
"rstrip": false,
|
600 |
+
"single_word": false,
|
601 |
+
"special": false
|
602 |
+
},
|
603 |
+
"50327": {
|
604 |
+
"content": "[unused42]",
|
605 |
+
"lstrip": false,
|
606 |
+
"normalized": true,
|
607 |
+
"rstrip": false,
|
608 |
+
"single_word": false,
|
609 |
+
"special": false
|
610 |
+
},
|
611 |
+
"50328": {
|
612 |
+
"content": "[unused43]",
|
613 |
+
"lstrip": false,
|
614 |
+
"normalized": true,
|
615 |
+
"rstrip": false,
|
616 |
+
"single_word": false,
|
617 |
+
"special": false
|
618 |
+
},
|
619 |
+
"50329": {
|
620 |
+
"content": "[unused44]",
|
621 |
+
"lstrip": false,
|
622 |
+
"normalized": true,
|
623 |
+
"rstrip": false,
|
624 |
+
"single_word": false,
|
625 |
+
"special": false
|
626 |
+
},
|
627 |
+
"50330": {
|
628 |
+
"content": "[unused45]",
|
629 |
+
"lstrip": false,
|
630 |
+
"normalized": true,
|
631 |
+
"rstrip": false,
|
632 |
+
"single_word": false,
|
633 |
+
"special": false
|
634 |
+
},
|
635 |
+
"50331": {
|
636 |
+
"content": "[unused46]",
|
637 |
+
"lstrip": false,
|
638 |
+
"normalized": true,
|
639 |
+
"rstrip": false,
|
640 |
+
"single_word": false,
|
641 |
+
"special": false
|
642 |
+
},
|
643 |
+
"50332": {
|
644 |
+
"content": "[unused47]",
|
645 |
+
"lstrip": false,
|
646 |
+
"normalized": true,
|
647 |
+
"rstrip": false,
|
648 |
+
"single_word": false,
|
649 |
+
"special": false
|
650 |
+
},
|
651 |
+
"50333": {
|
652 |
+
"content": "[unused48]",
|
653 |
+
"lstrip": false,
|
654 |
+
"normalized": true,
|
655 |
+
"rstrip": false,
|
656 |
+
"single_word": false,
|
657 |
+
"special": false
|
658 |
+
},
|
659 |
+
"50334": {
|
660 |
+
"content": "[unused49]",
|
661 |
+
"lstrip": false,
|
662 |
+
"normalized": true,
|
663 |
+
"rstrip": false,
|
664 |
+
"single_word": false,
|
665 |
+
"special": false
|
666 |
+
},
|
667 |
+
"50335": {
|
668 |
+
"content": "[unused50]",
|
669 |
+
"lstrip": false,
|
670 |
+
"normalized": true,
|
671 |
+
"rstrip": false,
|
672 |
+
"single_word": false,
|
673 |
+
"special": false
|
674 |
+
},
|
675 |
+
"50336": {
|
676 |
+
"content": "[unused51]",
|
677 |
+
"lstrip": false,
|
678 |
+
"normalized": true,
|
679 |
+
"rstrip": false,
|
680 |
+
"single_word": false,
|
681 |
+
"special": false
|
682 |
+
},
|
683 |
+
"50337": {
|
684 |
+
"content": "[unused52]",
|
685 |
+
"lstrip": false,
|
686 |
+
"normalized": true,
|
687 |
+
"rstrip": false,
|
688 |
+
"single_word": false,
|
689 |
+
"special": false
|
690 |
+
},
|
691 |
+
"50338": {
|
692 |
+
"content": "[unused53]",
|
693 |
+
"lstrip": false,
|
694 |
+
"normalized": true,
|
695 |
+
"rstrip": false,
|
696 |
+
"single_word": false,
|
697 |
+
"special": false
|
698 |
+
},
|
699 |
+
"50339": {
|
700 |
+
"content": "[unused54]",
|
701 |
+
"lstrip": false,
|
702 |
+
"normalized": true,
|
703 |
+
"rstrip": false,
|
704 |
+
"single_word": false,
|
705 |
+
"special": false
|
706 |
+
},
|
707 |
+
"50340": {
|
708 |
+
"content": "[unused55]",
|
709 |
+
"lstrip": false,
|
710 |
+
"normalized": true,
|
711 |
+
"rstrip": false,
|
712 |
+
"single_word": false,
|
713 |
+
"special": false
|
714 |
+
},
|
715 |
+
"50341": {
|
716 |
+
"content": "[unused56]",
|
717 |
+
"lstrip": false,
|
718 |
+
"normalized": true,
|
719 |
+
"rstrip": false,
|
720 |
+
"single_word": false,
|
721 |
+
"special": false
|
722 |
+
},
|
723 |
+
"50342": {
|
724 |
+
"content": "[unused57]",
|
725 |
+
"lstrip": false,
|
726 |
+
"normalized": true,
|
727 |
+
"rstrip": false,
|
728 |
+
"single_word": false,
|
729 |
+
"special": false
|
730 |
+
},
|
731 |
+
"50343": {
|
732 |
+
"content": "[unused58]",
|
733 |
+
"lstrip": false,
|
734 |
+
"normalized": true,
|
735 |
+
"rstrip": false,
|
736 |
+
"single_word": false,
|
737 |
+
"special": false
|
738 |
+
},
|
739 |
+
"50344": {
|
740 |
+
"content": "[unused59]",
|
741 |
+
"lstrip": false,
|
742 |
+
"normalized": true,
|
743 |
+
"rstrip": false,
|
744 |
+
"single_word": false,
|
745 |
+
"special": false
|
746 |
+
},
|
747 |
+
"50345": {
|
748 |
+
"content": "[unused60]",
|
749 |
+
"lstrip": false,
|
750 |
+
"normalized": true,
|
751 |
+
"rstrip": false,
|
752 |
+
"single_word": false,
|
753 |
+
"special": false
|
754 |
+
},
|
755 |
+
"50346": {
|
756 |
+
"content": "[unused61]",
|
757 |
+
"lstrip": false,
|
758 |
+
"normalized": true,
|
759 |
+
"rstrip": false,
|
760 |
+
"single_word": false,
|
761 |
+
"special": false
|
762 |
+
},
|
763 |
+
"50347": {
|
764 |
+
"content": "[unused62]",
|
765 |
+
"lstrip": false,
|
766 |
+
"normalized": true,
|
767 |
+
"rstrip": false,
|
768 |
+
"single_word": false,
|
769 |
+
"special": false
|
770 |
+
},
|
771 |
+
"50348": {
|
772 |
+
"content": "[unused63]",
|
773 |
+
"lstrip": false,
|
774 |
+
"normalized": true,
|
775 |
+
"rstrip": false,
|
776 |
+
"single_word": false,
|
777 |
+
"special": false
|
778 |
+
},
|
779 |
+
"50349": {
|
780 |
+
"content": "[unused64]",
|
781 |
+
"lstrip": false,
|
782 |
+
"normalized": true,
|
783 |
+
"rstrip": false,
|
784 |
+
"single_word": false,
|
785 |
+
"special": false
|
786 |
+
},
|
787 |
+
"50350": {
|
788 |
+
"content": "[unused65]",
|
789 |
+
"lstrip": false,
|
790 |
+
"normalized": true,
|
791 |
+
"rstrip": false,
|
792 |
+
"single_word": false,
|
793 |
+
"special": false
|
794 |
+
},
|
795 |
+
"50351": {
|
796 |
+
"content": "[unused66]",
|
797 |
+
"lstrip": false,
|
798 |
+
"normalized": true,
|
799 |
+
"rstrip": false,
|
800 |
+
"single_word": false,
|
801 |
+
"special": false
|
802 |
+
},
|
803 |
+
"50352": {
|
804 |
+
"content": "[unused67]",
|
805 |
+
"lstrip": false,
|
806 |
+
"normalized": true,
|
807 |
+
"rstrip": false,
|
808 |
+
"single_word": false,
|
809 |
+
"special": false
|
810 |
+
},
|
811 |
+
"50353": {
|
812 |
+
"content": "[unused68]",
|
813 |
+
"lstrip": false,
|
814 |
+
"normalized": true,
|
815 |
+
"rstrip": false,
|
816 |
+
"single_word": false,
|
817 |
+
"special": false
|
818 |
+
},
|
819 |
+
"50354": {
|
820 |
+
"content": "[unused69]",
|
821 |
+
"lstrip": false,
|
822 |
+
"normalized": true,
|
823 |
+
"rstrip": false,
|
824 |
+
"single_word": false,
|
825 |
+
"special": false
|
826 |
+
},
|
827 |
+
"50355": {
|
828 |
+
"content": "[unused70]",
|
829 |
+
"lstrip": false,
|
830 |
+
"normalized": true,
|
831 |
+
"rstrip": false,
|
832 |
+
"single_word": false,
|
833 |
+
"special": false
|
834 |
+
},
|
835 |
+
"50356": {
|
836 |
+
"content": "[unused71]",
|
837 |
+
"lstrip": false,
|
838 |
+
"normalized": true,
|
839 |
+
"rstrip": false,
|
840 |
+
"single_word": false,
|
841 |
+
"special": false
|
842 |
+
},
|
843 |
+
"50357": {
|
844 |
+
"content": "[unused72]",
|
845 |
+
"lstrip": false,
|
846 |
+
"normalized": true,
|
847 |
+
"rstrip": false,
|
848 |
+
"single_word": false,
|
849 |
+
"special": false
|
850 |
+
},
|
851 |
+
"50358": {
|
852 |
+
"content": "[unused73]",
|
853 |
+
"lstrip": false,
|
854 |
+
"normalized": true,
|
855 |
+
"rstrip": false,
|
856 |
+
"single_word": false,
|
857 |
+
"special": false
|
858 |
+
},
|
859 |
+
"50359": {
|
860 |
+
"content": "[unused74]",
|
861 |
+
"lstrip": false,
|
862 |
+
"normalized": true,
|
863 |
+
"rstrip": false,
|
864 |
+
"single_word": false,
|
865 |
+
"special": false
|
866 |
+
},
|
867 |
+
"50360": {
|
868 |
+
"content": "[unused75]",
|
869 |
+
"lstrip": false,
|
870 |
+
"normalized": true,
|
871 |
+
"rstrip": false,
|
872 |
+
"single_word": false,
|
873 |
+
"special": false
|
874 |
+
},
|
875 |
+
"50361": {
|
876 |
+
"content": "[unused76]",
|
877 |
+
"lstrip": false,
|
878 |
+
"normalized": true,
|
879 |
+
"rstrip": false,
|
880 |
+
"single_word": false,
|
881 |
+
"special": false
|
882 |
+
},
|
883 |
+
"50362": {
|
884 |
+
"content": "[unused77]",
|
885 |
+
"lstrip": false,
|
886 |
+
"normalized": true,
|
887 |
+
"rstrip": false,
|
888 |
+
"single_word": false,
|
889 |
+
"special": false
|
890 |
+
},
|
891 |
+
"50363": {
|
892 |
+
"content": "[unused78]",
|
893 |
+
"lstrip": false,
|
894 |
+
"normalized": true,
|
895 |
+
"rstrip": false,
|
896 |
+
"single_word": false,
|
897 |
+
"special": false
|
898 |
+
},
|
899 |
+
"50364": {
|
900 |
+
"content": "[unused79]",
|
901 |
+
"lstrip": false,
|
902 |
+
"normalized": true,
|
903 |
+
"rstrip": false,
|
904 |
+
"single_word": false,
|
905 |
+
"special": false
|
906 |
+
},
|
907 |
+
"50365": {
|
908 |
+
"content": "[unused80]",
|
909 |
+
"lstrip": false,
|
910 |
+
"normalized": true,
|
911 |
+
"rstrip": false,
|
912 |
+
"single_word": false,
|
913 |
+
"special": false
|
914 |
+
},
|
915 |
+
"50366": {
|
916 |
+
"content": "[unused81]",
|
917 |
+
"lstrip": false,
|
918 |
+
"normalized": true,
|
919 |
+
"rstrip": false,
|
920 |
+
"single_word": false,
|
921 |
+
"special": false
|
922 |
+
},
|
923 |
+
"50367": {
|
924 |
+
"content": "[unused82]",
|
925 |
+
"lstrip": false,
|
926 |
+
"normalized": true,
|
927 |
+
"rstrip": false,
|
928 |
+
"single_word": false,
|
929 |
+
"special": false
|
930 |
+
}
|
931 |
+
},
|
932 |
+
"additional_special_tokens": [
|
933 |
+
"<|padding|>",
|
934 |
+
"<|endoftext|>",
|
935 |
+
"[UNK]",
|
936 |
+
"[CLS]",
|
937 |
+
"[SEP]",
|
938 |
+
"[PAD]",
|
939 |
+
"[MASK]"
|
940 |
+
],
|
941 |
+
"clean_up_tokenization_spaces": true,
|
942 |
+
"cls_token": "[CLS]",
|
943 |
+
"extra_special_tokens": {},
|
944 |
+
"mask_token": "[MASK]",
|
945 |
+
"model_input_names": [
|
946 |
+
"input_ids",
|
947 |
+
"attention_mask"
|
948 |
+
],
|
949 |
+
"model_max_length": 1000000000000000019884624838656,
|
950 |
+
"pad_token": "[PAD]",
|
951 |
+
"sep_token": "[SEP]",
|
952 |
+
"tokenizer_class": "PreTrainedTokenizer",
|
953 |
+
"unk_token": "[UNK]"
|
954 |
+
}
|
checkpoint-3711/trainer_state.json
ADDED
@@ -0,0 +1,85 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"best_global_step": 3711,
|
3 |
+
"best_metric": 0.9990800023078918,
|
4 |
+
"best_model_checkpoint": "/my_model_output/rumodernbert_solyanka/checkpoint-3711",
|
5 |
+
"epoch": 1.0,
|
6 |
+
"eval_steps": 500,
|
7 |
+
"global_step": 3711,
|
8 |
+
"is_hyper_param_search": false,
|
9 |
+
"is_local_process_zero": true,
|
10 |
+
"is_world_process_zero": true,
|
11 |
+
"log_history": [
|
12 |
+
{
|
13 |
+
"epoch": 0.15979520344920506,
|
14 |
+
"grad_norm": 3.437915086746216,
|
15 |
+
"learning_rate": 8.404742656965777e-07,
|
16 |
+
"loss": 0.4866,
|
17 |
+
"step": 593
|
18 |
+
},
|
19 |
+
{
|
20 |
+
"epoch": 0.3195904068984101,
|
21 |
+
"grad_norm": 2.164642095565796,
|
22 |
+
"learning_rate": 6.806790622473725e-07,
|
23 |
+
"loss": 0.0792,
|
24 |
+
"step": 1186
|
25 |
+
},
|
26 |
+
{
|
27 |
+
"epoch": 0.4793856103476152,
|
28 |
+
"grad_norm": 2.1435794830322266,
|
29 |
+
"learning_rate": 5.208838587981676e-07,
|
30 |
+
"loss": 0.0436,
|
31 |
+
"step": 1779
|
32 |
+
},
|
33 |
+
{
|
34 |
+
"epoch": 0.6391808137968202,
|
35 |
+
"grad_norm": 1.1813297271728516,
|
36 |
+
"learning_rate": 3.6108865534896254e-07,
|
37 |
+
"loss": 0.0355,
|
38 |
+
"step": 2372
|
39 |
+
},
|
40 |
+
{
|
41 |
+
"epoch": 0.7989760172460253,
|
42 |
+
"grad_norm": 1.226506233215332,
|
43 |
+
"learning_rate": 2.0129345189975746e-07,
|
44 |
+
"loss": 0.0324,
|
45 |
+
"step": 2965
|
46 |
+
},
|
47 |
+
{
|
48 |
+
"epoch": 0.9587712206952304,
|
49 |
+
"grad_norm": 2.737544059753418,
|
50 |
+
"learning_rate": 4.149824845055241e-08,
|
51 |
+
"loss": 0.0304,
|
52 |
+
"step": 3558
|
53 |
+
},
|
54 |
+
{
|
55 |
+
"epoch": 1.0,
|
56 |
+
"eval_loss": 0.030859705060720444,
|
57 |
+
"eval_runtime": 1596.6388,
|
58 |
+
"eval_samples_per_second": 62.632,
|
59 |
+
"eval_steps_per_second": 0.245,
|
60 |
+
"eval_triplet_eval_cosine_accuracy": 0.9990800023078918,
|
61 |
+
"step": 3711
|
62 |
+
}
|
63 |
+
],
|
64 |
+
"logging_steps": 593,
|
65 |
+
"max_steps": 3711,
|
66 |
+
"num_input_tokens_seen": 0,
|
67 |
+
"num_train_epochs": 1,
|
68 |
+
"save_steps": 500,
|
69 |
+
"stateful_callbacks": {
|
70 |
+
"TrainerControl": {
|
71 |
+
"args": {
|
72 |
+
"should_epoch_stop": false,
|
73 |
+
"should_evaluate": false,
|
74 |
+
"should_log": false,
|
75 |
+
"should_save": true,
|
76 |
+
"should_training_stop": true
|
77 |
+
},
|
78 |
+
"attributes": {}
|
79 |
+
}
|
80 |
+
},
|
81 |
+
"total_flos": 0.0,
|
82 |
+
"train_batch_size": 512,
|
83 |
+
"trial_name": null,
|
84 |
+
"trial_params": null
|
85 |
+
}
|
checkpoint-3711/training_args.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:d1e977a923acf9cd0b37c83cd6a3d6c6def3c2e5b4d71847252398eb01d03cab
|
3 |
+
size 5560
|
config.json
ADDED
@@ -0,0 +1,81 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"activation_function": "gelu",
|
3 |
+
"allow_embedding_resizing": true,
|
4 |
+
"architectures": [
|
5 |
+
"ModernBertModel"
|
6 |
+
],
|
7 |
+
"attention_bias": false,
|
8 |
+
"attention_dropout": 0.0,
|
9 |
+
"attention_layer": "rope",
|
10 |
+
"attention_probs_dropout_prob": 0.0,
|
11 |
+
"attn_out_bias": false,
|
12 |
+
"attn_out_dropout_prob": 0.1,
|
13 |
+
"attn_qkv_bias": false,
|
14 |
+
"bert_layer": "prenorm",
|
15 |
+
"bos_token_id": 50281,
|
16 |
+
"classifier_activation": "gelu",
|
17 |
+
"classifier_bias": false,
|
18 |
+
"classifier_dropout": 0.0,
|
19 |
+
"classifier_pooling": "cls",
|
20 |
+
"cls_token_id": 50281,
|
21 |
+
"compile_model": true,
|
22 |
+
"decoder_bias": true,
|
23 |
+
"deterministic_flash_attn": false,
|
24 |
+
"embed_dropout_prob": 0.0,
|
25 |
+
"embed_norm": true,
|
26 |
+
"embedding_dropout": 0.0,
|
27 |
+
"embedding_layer": "sans_pos",
|
28 |
+
"eos_token_id": 50282,
|
29 |
+
"final_norm": true,
|
30 |
+
"global_attn_every_n_layers": 3,
|
31 |
+
"global_rope_theta": 160000.0,
|
32 |
+
"head_pred_act": "gelu",
|
33 |
+
"hidden_act": "gelu",
|
34 |
+
"hidden_activation": "gelu",
|
35 |
+
"hidden_size": 768,
|
36 |
+
"init_method": "full_megatron",
|
37 |
+
"initializer_cutoff_factor": 2.0,
|
38 |
+
"initializer_range": 0.02,
|
39 |
+
"intermediate_size": 1152,
|
40 |
+
"local_attention": 128,
|
41 |
+
"local_attn_rotary_emb_base": 10000.0,
|
42 |
+
"local_rope_theta": 10000.0,
|
43 |
+
"loss_function": "fa_cross_entropy",
|
44 |
+
"loss_kwargs": {
|
45 |
+
"reduction": "mean"
|
46 |
+
},
|
47 |
+
"masked_prediction": true,
|
48 |
+
"max_position_embeddings": 8192,
|
49 |
+
"mlp_bias": false,
|
50 |
+
"mlp_dropout": 0.0,
|
51 |
+
"mlp_dropout_prob": 0.0,
|
52 |
+
"mlp_in_bias": false,
|
53 |
+
"mlp_layer": "glu",
|
54 |
+
"mlp_out_bias": false,
|
55 |
+
"model_type": "modernbert",
|
56 |
+
"norm_bias": false,
|
57 |
+
"norm_eps": 1e-05,
|
58 |
+
"norm_kwargs": {
|
59 |
+
"bias": false,
|
60 |
+
"eps": 1e-05
|
61 |
+
},
|
62 |
+
"normalization": "layernorm",
|
63 |
+
"num_attention_heads": 12,
|
64 |
+
"num_hidden_layers": 22,
|
65 |
+
"pad_token_id": 50283,
|
66 |
+
"padding": "unpadded",
|
67 |
+
"repad_logits_with_grad": false,
|
68 |
+
"rotary_emb_base": 160000.0,
|
69 |
+
"rotary_emb_dim": null,
|
70 |
+
"rotary_emb_interleaved": false,
|
71 |
+
"rotary_emb_scale_base": null,
|
72 |
+
"sep_token_id": 50282,
|
73 |
+
"skip_first_prenorm": true,
|
74 |
+
"sliding_window": 128,
|
75 |
+
"sparse_pred_ignore_index": -100,
|
76 |
+
"sparse_prediction": false,
|
77 |
+
"torch_dtype": "float32",
|
78 |
+
"transformers_version": "4.52.4",
|
79 |
+
"unpad_embeddings": true,
|
80 |
+
"vocab_size": 50368
|
81 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "4.1.0",
|
4 |
+
"transformers": "4.52.4",
|
5 |
+
"pytorch": "2.6.0+cu124"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": "cosine"
|
10 |
+
}
|
eval/triplet_evaluation_triplet_eval_results.csv
ADDED
@@ -0,0 +1,2 @@
|
|
|
|
|
|
|
1 |
+
epoch,steps,accuracy_cosine
|
2 |
+
1.0,3711,0.9990800023078918
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:b4b8411440f4b0a9c68965cd518105fb4aba6a0c81480b7d28d83630ba995223
|
3 |
+
size 596070136
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,46 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"additional_special_tokens": [
|
3 |
+
"<|padding|>",
|
4 |
+
"<|endoftext|>",
|
5 |
+
"[UNK]",
|
6 |
+
"[CLS]",
|
7 |
+
"[SEP]",
|
8 |
+
"[PAD]",
|
9 |
+
"[MASK]"
|
10 |
+
],
|
11 |
+
"cls_token": {
|
12 |
+
"content": "[CLS]",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false
|
17 |
+
},
|
18 |
+
"mask_token": {
|
19 |
+
"content": "[MASK]",
|
20 |
+
"lstrip": true,
|
21 |
+
"normalized": false,
|
22 |
+
"rstrip": false,
|
23 |
+
"single_word": false
|
24 |
+
},
|
25 |
+
"pad_token": {
|
26 |
+
"content": "[PAD]",
|
27 |
+
"lstrip": false,
|
28 |
+
"normalized": false,
|
29 |
+
"rstrip": false,
|
30 |
+
"single_word": false
|
31 |
+
},
|
32 |
+
"sep_token": {
|
33 |
+
"content": "[SEP]",
|
34 |
+
"lstrip": false,
|
35 |
+
"normalized": false,
|
36 |
+
"rstrip": false,
|
37 |
+
"single_word": false
|
38 |
+
},
|
39 |
+
"unk_token": {
|
40 |
+
"content": "[UNK]",
|
41 |
+
"lstrip": false,
|
42 |
+
"normalized": false,
|
43 |
+
"rstrip": false,
|
44 |
+
"single_word": false
|
45 |
+
}
|
46 |
+
}
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
ADDED
@@ -0,0 +1,954 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<|padding|>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<|endoftext|>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": " ",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": true,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": false
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": " ",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": true,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": false
|
34 |
+
},
|
35 |
+
"4": {
|
36 |
+
"content": " ",
|
37 |
+
"lstrip": false,
|
38 |
+
"normalized": true,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": false
|
42 |
+
},
|
43 |
+
"5": {
|
44 |
+
"content": "|||EMAIL_ADDRESS|||",
|
45 |
+
"lstrip": false,
|
46 |
+
"normalized": true,
|
47 |
+
"rstrip": false,
|
48 |
+
"single_word": false,
|
49 |
+
"special": false
|
50 |
+
},
|
51 |
+
"6": {
|
52 |
+
"content": "|||PHONE_NUMBER|||",
|
53 |
+
"lstrip": false,
|
54 |
+
"normalized": true,
|
55 |
+
"rstrip": false,
|
56 |
+
"single_word": false,
|
57 |
+
"special": false
|
58 |
+
},
|
59 |
+
"50259": {
|
60 |
+
"content": "|||IP_ADDRESS|||",
|
61 |
+
"lstrip": false,
|
62 |
+
"normalized": true,
|
63 |
+
"rstrip": false,
|
64 |
+
"single_word": false,
|
65 |
+
"special": false
|
66 |
+
},
|
67 |
+
"50260": {
|
68 |
+
"content": " ",
|
69 |
+
"lstrip": false,
|
70 |
+
"normalized": true,
|
71 |
+
"rstrip": false,
|
72 |
+
"single_word": false,
|
73 |
+
"special": false
|
74 |
+
},
|
75 |
+
"50261": {
|
76 |
+
"content": " ",
|
77 |
+
"lstrip": false,
|
78 |
+
"normalized": true,
|
79 |
+
"rstrip": false,
|
80 |
+
"single_word": false,
|
81 |
+
"special": false
|
82 |
+
},
|
83 |
+
"50262": {
|
84 |
+
"content": " ",
|
85 |
+
"lstrip": false,
|
86 |
+
"normalized": true,
|
87 |
+
"rstrip": false,
|
88 |
+
"single_word": false,
|
89 |
+
"special": false
|
90 |
+
},
|
91 |
+
"50263": {
|
92 |
+
"content": " ",
|
93 |
+
"lstrip": false,
|
94 |
+
"normalized": true,
|
95 |
+
"rstrip": false,
|
96 |
+
"single_word": false,
|
97 |
+
"special": false
|
98 |
+
},
|
99 |
+
"50264": {
|
100 |
+
"content": " ",
|
101 |
+
"lstrip": false,
|
102 |
+
"normalized": true,
|
103 |
+
"rstrip": false,
|
104 |
+
"single_word": false,
|
105 |
+
"special": false
|
106 |
+
},
|
107 |
+
"50265": {
|
108 |
+
"content": " ",
|
109 |
+
"lstrip": false,
|
110 |
+
"normalized": true,
|
111 |
+
"rstrip": false,
|
112 |
+
"single_word": false,
|
113 |
+
"special": false
|
114 |
+
},
|
115 |
+
"50266": {
|
116 |
+
"content": " ",
|
117 |
+
"lstrip": false,
|
118 |
+
"normalized": true,
|
119 |
+
"rstrip": false,
|
120 |
+
"single_word": false,
|
121 |
+
"special": false
|
122 |
+
},
|
123 |
+
"50267": {
|
124 |
+
"content": " ",
|
125 |
+
"lstrip": false,
|
126 |
+
"normalized": true,
|
127 |
+
"rstrip": false,
|
128 |
+
"single_word": false,
|
129 |
+
"special": false
|
130 |
+
},
|
131 |
+
"50268": {
|
132 |
+
"content": " ",
|
133 |
+
"lstrip": false,
|
134 |
+
"normalized": true,
|
135 |
+
"rstrip": false,
|
136 |
+
"single_word": false,
|
137 |
+
"special": false
|
138 |
+
},
|
139 |
+
"50269": {
|
140 |
+
"content": " ",
|
141 |
+
"lstrip": false,
|
142 |
+
"normalized": true,
|
143 |
+
"rstrip": false,
|
144 |
+
"single_word": false,
|
145 |
+
"special": false
|
146 |
+
},
|
147 |
+
"50270": {
|
148 |
+
"content": " ",
|
149 |
+
"lstrip": false,
|
150 |
+
"normalized": true,
|
151 |
+
"rstrip": false,
|
152 |
+
"single_word": false,
|
153 |
+
"special": false
|
154 |
+
},
|
155 |
+
"50271": {
|
156 |
+
"content": " ",
|
157 |
+
"lstrip": false,
|
158 |
+
"normalized": true,
|
159 |
+
"rstrip": false,
|
160 |
+
"single_word": false,
|
161 |
+
"special": false
|
162 |
+
},
|
163 |
+
"50272": {
|
164 |
+
"content": " ",
|
165 |
+
"lstrip": false,
|
166 |
+
"normalized": true,
|
167 |
+
"rstrip": false,
|
168 |
+
"single_word": false,
|
169 |
+
"special": false
|
170 |
+
},
|
171 |
+
"50273": {
|
172 |
+
"content": " ",
|
173 |
+
"lstrip": false,
|
174 |
+
"normalized": true,
|
175 |
+
"rstrip": false,
|
176 |
+
"single_word": false,
|
177 |
+
"special": false
|
178 |
+
},
|
179 |
+
"50274": {
|
180 |
+
"content": " ",
|
181 |
+
"lstrip": false,
|
182 |
+
"normalized": true,
|
183 |
+
"rstrip": false,
|
184 |
+
"single_word": false,
|
185 |
+
"special": false
|
186 |
+
},
|
187 |
+
"50275": {
|
188 |
+
"content": " ",
|
189 |
+
"lstrip": false,
|
190 |
+
"normalized": true,
|
191 |
+
"rstrip": false,
|
192 |
+
"single_word": false,
|
193 |
+
"special": false
|
194 |
+
},
|
195 |
+
"50276": {
|
196 |
+
"content": " ",
|
197 |
+
"lstrip": false,
|
198 |
+
"normalized": true,
|
199 |
+
"rstrip": false,
|
200 |
+
"single_word": false,
|
201 |
+
"special": false
|
202 |
+
},
|
203 |
+
"50277": {
|
204 |
+
"content": " ",
|
205 |
+
"lstrip": false,
|
206 |
+
"normalized": true,
|
207 |
+
"rstrip": false,
|
208 |
+
"single_word": false,
|
209 |
+
"special": false
|
210 |
+
},
|
211 |
+
"50278": {
|
212 |
+
"content": " ",
|
213 |
+
"lstrip": false,
|
214 |
+
"normalized": true,
|
215 |
+
"rstrip": false,
|
216 |
+
"single_word": false,
|
217 |
+
"special": false
|
218 |
+
},
|
219 |
+
"50279": {
|
220 |
+
"content": " ",
|
221 |
+
"lstrip": false,
|
222 |
+
"normalized": true,
|
223 |
+
"rstrip": false,
|
224 |
+
"single_word": false,
|
225 |
+
"special": false
|
226 |
+
},
|
227 |
+
"50280": {
|
228 |
+
"content": "[UNK]",
|
229 |
+
"lstrip": false,
|
230 |
+
"normalized": false,
|
231 |
+
"rstrip": false,
|
232 |
+
"single_word": false,
|
233 |
+
"special": true
|
234 |
+
},
|
235 |
+
"50281": {
|
236 |
+
"content": "[CLS]",
|
237 |
+
"lstrip": false,
|
238 |
+
"normalized": false,
|
239 |
+
"rstrip": false,
|
240 |
+
"single_word": false,
|
241 |
+
"special": true
|
242 |
+
},
|
243 |
+
"50282": {
|
244 |
+
"content": "[SEP]",
|
245 |
+
"lstrip": false,
|
246 |
+
"normalized": false,
|
247 |
+
"rstrip": false,
|
248 |
+
"single_word": false,
|
249 |
+
"special": true
|
250 |
+
},
|
251 |
+
"50283": {
|
252 |
+
"content": "[PAD]",
|
253 |
+
"lstrip": false,
|
254 |
+
"normalized": false,
|
255 |
+
"rstrip": false,
|
256 |
+
"single_word": false,
|
257 |
+
"special": true
|
258 |
+
},
|
259 |
+
"50284": {
|
260 |
+
"content": "[MASK]",
|
261 |
+
"lstrip": true,
|
262 |
+
"normalized": false,
|
263 |
+
"rstrip": false,
|
264 |
+
"single_word": false,
|
265 |
+
"special": true
|
266 |
+
},
|
267 |
+
"50285": {
|
268 |
+
"content": "[unused0]",
|
269 |
+
"lstrip": false,
|
270 |
+
"normalized": true,
|
271 |
+
"rstrip": false,
|
272 |
+
"single_word": false,
|
273 |
+
"special": false
|
274 |
+
},
|
275 |
+
"50286": {
|
276 |
+
"content": "[unused1]",
|
277 |
+
"lstrip": false,
|
278 |
+
"normalized": true,
|
279 |
+
"rstrip": false,
|
280 |
+
"single_word": false,
|
281 |
+
"special": false
|
282 |
+
},
|
283 |
+
"50287": {
|
284 |
+
"content": "[unused2]",
|
285 |
+
"lstrip": false,
|
286 |
+
"normalized": true,
|
287 |
+
"rstrip": false,
|
288 |
+
"single_word": false,
|
289 |
+
"special": false
|
290 |
+
},
|
291 |
+
"50288": {
|
292 |
+
"content": "[unused3]",
|
293 |
+
"lstrip": false,
|
294 |
+
"normalized": true,
|
295 |
+
"rstrip": false,
|
296 |
+
"single_word": false,
|
297 |
+
"special": false
|
298 |
+
},
|
299 |
+
"50289": {
|
300 |
+
"content": "[unused4]",
|
301 |
+
"lstrip": false,
|
302 |
+
"normalized": true,
|
303 |
+
"rstrip": false,
|
304 |
+
"single_word": false,
|
305 |
+
"special": false
|
306 |
+
},
|
307 |
+
"50290": {
|
308 |
+
"content": "[unused5]",
|
309 |
+
"lstrip": false,
|
310 |
+
"normalized": true,
|
311 |
+
"rstrip": false,
|
312 |
+
"single_word": false,
|
313 |
+
"special": false
|
314 |
+
},
|
315 |
+
"50291": {
|
316 |
+
"content": "[unused6]",
|
317 |
+
"lstrip": false,
|
318 |
+
"normalized": true,
|
319 |
+
"rstrip": false,
|
320 |
+
"single_word": false,
|
321 |
+
"special": false
|
322 |
+
},
|
323 |
+
"50292": {
|
324 |
+
"content": "[unused7]",
|
325 |
+
"lstrip": false,
|
326 |
+
"normalized": true,
|
327 |
+
"rstrip": false,
|
328 |
+
"single_word": false,
|
329 |
+
"special": false
|
330 |
+
},
|
331 |
+
"50293": {
|
332 |
+
"content": "[unused8]",
|
333 |
+
"lstrip": false,
|
334 |
+
"normalized": true,
|
335 |
+
"rstrip": false,
|
336 |
+
"single_word": false,
|
337 |
+
"special": false
|
338 |
+
},
|
339 |
+
"50294": {
|
340 |
+
"content": "[unused9]",
|
341 |
+
"lstrip": false,
|
342 |
+
"normalized": true,
|
343 |
+
"rstrip": false,
|
344 |
+
"single_word": false,
|
345 |
+
"special": false
|
346 |
+
},
|
347 |
+
"50295": {
|
348 |
+
"content": "[unused10]",
|
349 |
+
"lstrip": false,
|
350 |
+
"normalized": true,
|
351 |
+
"rstrip": false,
|
352 |
+
"single_word": false,
|
353 |
+
"special": false
|
354 |
+
},
|
355 |
+
"50296": {
|
356 |
+
"content": "[unused11]",
|
357 |
+
"lstrip": false,
|
358 |
+
"normalized": true,
|
359 |
+
"rstrip": false,
|
360 |
+
"single_word": false,
|
361 |
+
"special": false
|
362 |
+
},
|
363 |
+
"50297": {
|
364 |
+
"content": "[unused12]",
|
365 |
+
"lstrip": false,
|
366 |
+
"normalized": true,
|
367 |
+
"rstrip": false,
|
368 |
+
"single_word": false,
|
369 |
+
"special": false
|
370 |
+
},
|
371 |
+
"50298": {
|
372 |
+
"content": "[unused13]",
|
373 |
+
"lstrip": false,
|
374 |
+
"normalized": true,
|
375 |
+
"rstrip": false,
|
376 |
+
"single_word": false,
|
377 |
+
"special": false
|
378 |
+
},
|
379 |
+
"50299": {
|
380 |
+
"content": "[unused14]",
|
381 |
+
"lstrip": false,
|
382 |
+
"normalized": true,
|
383 |
+
"rstrip": false,
|
384 |
+
"single_word": false,
|
385 |
+
"special": false
|
386 |
+
},
|
387 |
+
"50300": {
|
388 |
+
"content": "[unused15]",
|
389 |
+
"lstrip": false,
|
390 |
+
"normalized": true,
|
391 |
+
"rstrip": false,
|
392 |
+
"single_word": false,
|
393 |
+
"special": false
|
394 |
+
},
|
395 |
+
"50301": {
|
396 |
+
"content": "[unused16]",
|
397 |
+
"lstrip": false,
|
398 |
+
"normalized": true,
|
399 |
+
"rstrip": false,
|
400 |
+
"single_word": false,
|
401 |
+
"special": false
|
402 |
+
},
|
403 |
+
"50302": {
|
404 |
+
"content": "[unused17]",
|
405 |
+
"lstrip": false,
|
406 |
+
"normalized": true,
|
407 |
+
"rstrip": false,
|
408 |
+
"single_word": false,
|
409 |
+
"special": false
|
410 |
+
},
|
411 |
+
"50303": {
|
412 |
+
"content": "[unused18]",
|
413 |
+
"lstrip": false,
|
414 |
+
"normalized": true,
|
415 |
+
"rstrip": false,
|
416 |
+
"single_word": false,
|
417 |
+
"special": false
|
418 |
+
},
|
419 |
+
"50304": {
|
420 |
+
"content": "[unused19]",
|
421 |
+
"lstrip": false,
|
422 |
+
"normalized": true,
|
423 |
+
"rstrip": false,
|
424 |
+
"single_word": false,
|
425 |
+
"special": false
|
426 |
+
},
|
427 |
+
"50305": {
|
428 |
+
"content": "[unused20]",
|
429 |
+
"lstrip": false,
|
430 |
+
"normalized": true,
|
431 |
+
"rstrip": false,
|
432 |
+
"single_word": false,
|
433 |
+
"special": false
|
434 |
+
},
|
435 |
+
"50306": {
|
436 |
+
"content": "[unused21]",
|
437 |
+
"lstrip": false,
|
438 |
+
"normalized": true,
|
439 |
+
"rstrip": false,
|
440 |
+
"single_word": false,
|
441 |
+
"special": false
|
442 |
+
},
|
443 |
+
"50307": {
|
444 |
+
"content": "[unused22]",
|
445 |
+
"lstrip": false,
|
446 |
+
"normalized": true,
|
447 |
+
"rstrip": false,
|
448 |
+
"single_word": false,
|
449 |
+
"special": false
|
450 |
+
},
|
451 |
+
"50308": {
|
452 |
+
"content": "[unused23]",
|
453 |
+
"lstrip": false,
|
454 |
+
"normalized": true,
|
455 |
+
"rstrip": false,
|
456 |
+
"single_word": false,
|
457 |
+
"special": false
|
458 |
+
},
|
459 |
+
"50309": {
|
460 |
+
"content": "[unused24]",
|
461 |
+
"lstrip": false,
|
462 |
+
"normalized": true,
|
463 |
+
"rstrip": false,
|
464 |
+
"single_word": false,
|
465 |
+
"special": false
|
466 |
+
},
|
467 |
+
"50310": {
|
468 |
+
"content": "[unused25]",
|
469 |
+
"lstrip": false,
|
470 |
+
"normalized": true,
|
471 |
+
"rstrip": false,
|
472 |
+
"single_word": false,
|
473 |
+
"special": false
|
474 |
+
},
|
475 |
+
"50311": {
|
476 |
+
"content": "[unused26]",
|
477 |
+
"lstrip": false,
|
478 |
+
"normalized": true,
|
479 |
+
"rstrip": false,
|
480 |
+
"single_word": false,
|
481 |
+
"special": false
|
482 |
+
},
|
483 |
+
"50312": {
|
484 |
+
"content": "[unused27]",
|
485 |
+
"lstrip": false,
|
486 |
+
"normalized": true,
|
487 |
+
"rstrip": false,
|
488 |
+
"single_word": false,
|
489 |
+
"special": false
|
490 |
+
},
|
491 |
+
"50313": {
|
492 |
+
"content": "[unused28]",
|
493 |
+
"lstrip": false,
|
494 |
+
"normalized": true,
|
495 |
+
"rstrip": false,
|
496 |
+
"single_word": false,
|
497 |
+
"special": false
|
498 |
+
},
|
499 |
+
"50314": {
|
500 |
+
"content": "[unused29]",
|
501 |
+
"lstrip": false,
|
502 |
+
"normalized": true,
|
503 |
+
"rstrip": false,
|
504 |
+
"single_word": false,
|
505 |
+
"special": false
|
506 |
+
},
|
507 |
+
"50315": {
|
508 |
+
"content": "[unused30]",
|
509 |
+
"lstrip": false,
|
510 |
+
"normalized": true,
|
511 |
+
"rstrip": false,
|
512 |
+
"single_word": false,
|
513 |
+
"special": false
|
514 |
+
},
|
515 |
+
"50316": {
|
516 |
+
"content": "[unused31]",
|
517 |
+
"lstrip": false,
|
518 |
+
"normalized": true,
|
519 |
+
"rstrip": false,
|
520 |
+
"single_word": false,
|
521 |
+
"special": false
|
522 |
+
},
|
523 |
+
"50317": {
|
524 |
+
"content": "[unused32]",
|
525 |
+
"lstrip": false,
|
526 |
+
"normalized": true,
|
527 |
+
"rstrip": false,
|
528 |
+
"single_word": false,
|
529 |
+
"special": false
|
530 |
+
},
|
531 |
+
"50318": {
|
532 |
+
"content": "[unused33]",
|
533 |
+
"lstrip": false,
|
534 |
+
"normalized": true,
|
535 |
+
"rstrip": false,
|
536 |
+
"single_word": false,
|
537 |
+
"special": false
|
538 |
+
},
|
539 |
+
"50319": {
|
540 |
+
"content": "[unused34]",
|
541 |
+
"lstrip": false,
|
542 |
+
"normalized": true,
|
543 |
+
"rstrip": false,
|
544 |
+
"single_word": false,
|
545 |
+
"special": false
|
546 |
+
},
|
547 |
+
"50320": {
|
548 |
+
"content": "[unused35]",
|
549 |
+
"lstrip": false,
|
550 |
+
"normalized": true,
|
551 |
+
"rstrip": false,
|
552 |
+
"single_word": false,
|
553 |
+
"special": false
|
554 |
+
},
|
555 |
+
"50321": {
|
556 |
+
"content": "[unused36]",
|
557 |
+
"lstrip": false,
|
558 |
+
"normalized": true,
|
559 |
+
"rstrip": false,
|
560 |
+
"single_word": false,
|
561 |
+
"special": false
|
562 |
+
},
|
563 |
+
"50322": {
|
564 |
+
"content": "[unused37]",
|
565 |
+
"lstrip": false,
|
566 |
+
"normalized": true,
|
567 |
+
"rstrip": false,
|
568 |
+
"single_word": false,
|
569 |
+
"special": false
|
570 |
+
},
|
571 |
+
"50323": {
|
572 |
+
"content": "[unused38]",
|
573 |
+
"lstrip": false,
|
574 |
+
"normalized": true,
|
575 |
+
"rstrip": false,
|
576 |
+
"single_word": false,
|
577 |
+
"special": false
|
578 |
+
},
|
579 |
+
"50324": {
|
580 |
+
"content": "[unused39]",
|
581 |
+
"lstrip": false,
|
582 |
+
"normalized": true,
|
583 |
+
"rstrip": false,
|
584 |
+
"single_word": false,
|
585 |
+
"special": false
|
586 |
+
},
|
587 |
+
"50325": {
|
588 |
+
"content": "[unused40]",
|
589 |
+
"lstrip": false,
|
590 |
+
"normalized": true,
|
591 |
+
"rstrip": false,
|
592 |
+
"single_word": false,
|
593 |
+
"special": false
|
594 |
+
},
|
595 |
+
"50326": {
|
596 |
+
"content": "[unused41]",
|
597 |
+
"lstrip": false,
|
598 |
+
"normalized": true,
|
599 |
+
"rstrip": false,
|
600 |
+
"single_word": false,
|
601 |
+
"special": false
|
602 |
+
},
|
603 |
+
"50327": {
|
604 |
+
"content": "[unused42]",
|
605 |
+
"lstrip": false,
|
606 |
+
"normalized": true,
|
607 |
+
"rstrip": false,
|
608 |
+
"single_word": false,
|
609 |
+
"special": false
|
610 |
+
},
|
611 |
+
"50328": {
|
612 |
+
"content": "[unused43]",
|
613 |
+
"lstrip": false,
|
614 |
+
"normalized": true,
|
615 |
+
"rstrip": false,
|
616 |
+
"single_word": false,
|
617 |
+
"special": false
|
618 |
+
},
|
619 |
+
"50329": {
|
620 |
+
"content": "[unused44]",
|
621 |
+
"lstrip": false,
|
622 |
+
"normalized": true,
|
623 |
+
"rstrip": false,
|
624 |
+
"single_word": false,
|
625 |
+
"special": false
|
626 |
+
},
|
627 |
+
"50330": {
|
628 |
+
"content": "[unused45]",
|
629 |
+
"lstrip": false,
|
630 |
+
"normalized": true,
|
631 |
+
"rstrip": false,
|
632 |
+
"single_word": false,
|
633 |
+
"special": false
|
634 |
+
},
|
635 |
+
"50331": {
|
636 |
+
"content": "[unused46]",
|
637 |
+
"lstrip": false,
|
638 |
+
"normalized": true,
|
639 |
+
"rstrip": false,
|
640 |
+
"single_word": false,
|
641 |
+
"special": false
|
642 |
+
},
|
643 |
+
"50332": {
|
644 |
+
"content": "[unused47]",
|
645 |
+
"lstrip": false,
|
646 |
+
"normalized": true,
|
647 |
+
"rstrip": false,
|
648 |
+
"single_word": false,
|
649 |
+
"special": false
|
650 |
+
},
|
651 |
+
"50333": {
|
652 |
+
"content": "[unused48]",
|
653 |
+
"lstrip": false,
|
654 |
+
"normalized": true,
|
655 |
+
"rstrip": false,
|
656 |
+
"single_word": false,
|
657 |
+
"special": false
|
658 |
+
},
|
659 |
+
"50334": {
|
660 |
+
"content": "[unused49]",
|
661 |
+
"lstrip": false,
|
662 |
+
"normalized": true,
|
663 |
+
"rstrip": false,
|
664 |
+
"single_word": false,
|
665 |
+
"special": false
|
666 |
+
},
|
667 |
+
"50335": {
|
668 |
+
"content": "[unused50]",
|
669 |
+
"lstrip": false,
|
670 |
+
"normalized": true,
|
671 |
+
"rstrip": false,
|
672 |
+
"single_word": false,
|
673 |
+
"special": false
|
674 |
+
},
|
675 |
+
"50336": {
|
676 |
+
"content": "[unused51]",
|
677 |
+
"lstrip": false,
|
678 |
+
"normalized": true,
|
679 |
+
"rstrip": false,
|
680 |
+
"single_word": false,
|
681 |
+
"special": false
|
682 |
+
},
|
683 |
+
"50337": {
|
684 |
+
"content": "[unused52]",
|
685 |
+
"lstrip": false,
|
686 |
+
"normalized": true,
|
687 |
+
"rstrip": false,
|
688 |
+
"single_word": false,
|
689 |
+
"special": false
|
690 |
+
},
|
691 |
+
"50338": {
|
692 |
+
"content": "[unused53]",
|
693 |
+
"lstrip": false,
|
694 |
+
"normalized": true,
|
695 |
+
"rstrip": false,
|
696 |
+
"single_word": false,
|
697 |
+
"special": false
|
698 |
+
},
|
699 |
+
"50339": {
|
700 |
+
"content": "[unused54]",
|
701 |
+
"lstrip": false,
|
702 |
+
"normalized": true,
|
703 |
+
"rstrip": false,
|
704 |
+
"single_word": false,
|
705 |
+
"special": false
|
706 |
+
},
|
707 |
+
"50340": {
|
708 |
+
"content": "[unused55]",
|
709 |
+
"lstrip": false,
|
710 |
+
"normalized": true,
|
711 |
+
"rstrip": false,
|
712 |
+
"single_word": false,
|
713 |
+
"special": false
|
714 |
+
},
|
715 |
+
"50341": {
|
716 |
+
"content": "[unused56]",
|
717 |
+
"lstrip": false,
|
718 |
+
"normalized": true,
|
719 |
+
"rstrip": false,
|
720 |
+
"single_word": false,
|
721 |
+
"special": false
|
722 |
+
},
|
723 |
+
"50342": {
|
724 |
+
"content": "[unused57]",
|
725 |
+
"lstrip": false,
|
726 |
+
"normalized": true,
|
727 |
+
"rstrip": false,
|
728 |
+
"single_word": false,
|
729 |
+
"special": false
|
730 |
+
},
|
731 |
+
"50343": {
|
732 |
+
"content": "[unused58]",
|
733 |
+
"lstrip": false,
|
734 |
+
"normalized": true,
|
735 |
+
"rstrip": false,
|
736 |
+
"single_word": false,
|
737 |
+
"special": false
|
738 |
+
},
|
739 |
+
"50344": {
|
740 |
+
"content": "[unused59]",
|
741 |
+
"lstrip": false,
|
742 |
+
"normalized": true,
|
743 |
+
"rstrip": false,
|
744 |
+
"single_word": false,
|
745 |
+
"special": false
|
746 |
+
},
|
747 |
+
"50345": {
|
748 |
+
"content": "[unused60]",
|
749 |
+
"lstrip": false,
|
750 |
+
"normalized": true,
|
751 |
+
"rstrip": false,
|
752 |
+
"single_word": false,
|
753 |
+
"special": false
|
754 |
+
},
|
755 |
+
"50346": {
|
756 |
+
"content": "[unused61]",
|
757 |
+
"lstrip": false,
|
758 |
+
"normalized": true,
|
759 |
+
"rstrip": false,
|
760 |
+
"single_word": false,
|
761 |
+
"special": false
|
762 |
+
},
|
763 |
+
"50347": {
|
764 |
+
"content": "[unused62]",
|
765 |
+
"lstrip": false,
|
766 |
+
"normalized": true,
|
767 |
+
"rstrip": false,
|
768 |
+
"single_word": false,
|
769 |
+
"special": false
|
770 |
+
},
|
771 |
+
"50348": {
|
772 |
+
"content": "[unused63]",
|
773 |
+
"lstrip": false,
|
774 |
+
"normalized": true,
|
775 |
+
"rstrip": false,
|
776 |
+
"single_word": false,
|
777 |
+
"special": false
|
778 |
+
},
|
779 |
+
"50349": {
|
780 |
+
"content": "[unused64]",
|
781 |
+
"lstrip": false,
|
782 |
+
"normalized": true,
|
783 |
+
"rstrip": false,
|
784 |
+
"single_word": false,
|
785 |
+
"special": false
|
786 |
+
},
|
787 |
+
"50350": {
|
788 |
+
"content": "[unused65]",
|
789 |
+
"lstrip": false,
|
790 |
+
"normalized": true,
|
791 |
+
"rstrip": false,
|
792 |
+
"single_word": false,
|
793 |
+
"special": false
|
794 |
+
},
|
795 |
+
"50351": {
|
796 |
+
"content": "[unused66]",
|
797 |
+
"lstrip": false,
|
798 |
+
"normalized": true,
|
799 |
+
"rstrip": false,
|
800 |
+
"single_word": false,
|
801 |
+
"special": false
|
802 |
+
},
|
803 |
+
"50352": {
|
804 |
+
"content": "[unused67]",
|
805 |
+
"lstrip": false,
|
806 |
+
"normalized": true,
|
807 |
+
"rstrip": false,
|
808 |
+
"single_word": false,
|
809 |
+
"special": false
|
810 |
+
},
|
811 |
+
"50353": {
|
812 |
+
"content": "[unused68]",
|
813 |
+
"lstrip": false,
|
814 |
+
"normalized": true,
|
815 |
+
"rstrip": false,
|
816 |
+
"single_word": false,
|
817 |
+
"special": false
|
818 |
+
},
|
819 |
+
"50354": {
|
820 |
+
"content": "[unused69]",
|
821 |
+
"lstrip": false,
|
822 |
+
"normalized": true,
|
823 |
+
"rstrip": false,
|
824 |
+
"single_word": false,
|
825 |
+
"special": false
|
826 |
+
},
|
827 |
+
"50355": {
|
828 |
+
"content": "[unused70]",
|
829 |
+
"lstrip": false,
|
830 |
+
"normalized": true,
|
831 |
+
"rstrip": false,
|
832 |
+
"single_word": false,
|
833 |
+
"special": false
|
834 |
+
},
|
835 |
+
"50356": {
|
836 |
+
"content": "[unused71]",
|
837 |
+
"lstrip": false,
|
838 |
+
"normalized": true,
|
839 |
+
"rstrip": false,
|
840 |
+
"single_word": false,
|
841 |
+
"special": false
|
842 |
+
},
|
843 |
+
"50357": {
|
844 |
+
"content": "[unused72]",
|
845 |
+
"lstrip": false,
|
846 |
+
"normalized": true,
|
847 |
+
"rstrip": false,
|
848 |
+
"single_word": false,
|
849 |
+
"special": false
|
850 |
+
},
|
851 |
+
"50358": {
|
852 |
+
"content": "[unused73]",
|
853 |
+
"lstrip": false,
|
854 |
+
"normalized": true,
|
855 |
+
"rstrip": false,
|
856 |
+
"single_word": false,
|
857 |
+
"special": false
|
858 |
+
},
|
859 |
+
"50359": {
|
860 |
+
"content": "[unused74]",
|
861 |
+
"lstrip": false,
|
862 |
+
"normalized": true,
|
863 |
+
"rstrip": false,
|
864 |
+
"single_word": false,
|
865 |
+
"special": false
|
866 |
+
},
|
867 |
+
"50360": {
|
868 |
+
"content": "[unused75]",
|
869 |
+
"lstrip": false,
|
870 |
+
"normalized": true,
|
871 |
+
"rstrip": false,
|
872 |
+
"single_word": false,
|
873 |
+
"special": false
|
874 |
+
},
|
875 |
+
"50361": {
|
876 |
+
"content": "[unused76]",
|
877 |
+
"lstrip": false,
|
878 |
+
"normalized": true,
|
879 |
+
"rstrip": false,
|
880 |
+
"single_word": false,
|
881 |
+
"special": false
|
882 |
+
},
|
883 |
+
"50362": {
|
884 |
+
"content": "[unused77]",
|
885 |
+
"lstrip": false,
|
886 |
+
"normalized": true,
|
887 |
+
"rstrip": false,
|
888 |
+
"single_word": false,
|
889 |
+
"special": false
|
890 |
+
},
|
891 |
+
"50363": {
|
892 |
+
"content": "[unused78]",
|
893 |
+
"lstrip": false,
|
894 |
+
"normalized": true,
|
895 |
+
"rstrip": false,
|
896 |
+
"single_word": false,
|
897 |
+
"special": false
|
898 |
+
},
|
899 |
+
"50364": {
|
900 |
+
"content": "[unused79]",
|
901 |
+
"lstrip": false,
|
902 |
+
"normalized": true,
|
903 |
+
"rstrip": false,
|
904 |
+
"single_word": false,
|
905 |
+
"special": false
|
906 |
+
},
|
907 |
+
"50365": {
|
908 |
+
"content": "[unused80]",
|
909 |
+
"lstrip": false,
|
910 |
+
"normalized": true,
|
911 |
+
"rstrip": false,
|
912 |
+
"single_word": false,
|
913 |
+
"special": false
|
914 |
+
},
|
915 |
+
"50366": {
|
916 |
+
"content": "[unused81]",
|
917 |
+
"lstrip": false,
|
918 |
+
"normalized": true,
|
919 |
+
"rstrip": false,
|
920 |
+
"single_word": false,
|
921 |
+
"special": false
|
922 |
+
},
|
923 |
+
"50367": {
|
924 |
+
"content": "[unused82]",
|
925 |
+
"lstrip": false,
|
926 |
+
"normalized": true,
|
927 |
+
"rstrip": false,
|
928 |
+
"single_word": false,
|
929 |
+
"special": false
|
930 |
+
}
|
931 |
+
},
|
932 |
+
"additional_special_tokens": [
|
933 |
+
"<|padding|>",
|
934 |
+
"<|endoftext|>",
|
935 |
+
"[UNK]",
|
936 |
+
"[CLS]",
|
937 |
+
"[SEP]",
|
938 |
+
"[PAD]",
|
939 |
+
"[MASK]"
|
940 |
+
],
|
941 |
+
"clean_up_tokenization_spaces": true,
|
942 |
+
"cls_token": "[CLS]",
|
943 |
+
"extra_special_tokens": {},
|
944 |
+
"mask_token": "[MASK]",
|
945 |
+
"model_input_names": [
|
946 |
+
"input_ids",
|
947 |
+
"attention_mask"
|
948 |
+
],
|
949 |
+
"model_max_length": 1000000000000000019884624838656,
|
950 |
+
"pad_token": "[PAD]",
|
951 |
+
"sep_token": "[SEP]",
|
952 |
+
"tokenizer_class": "PreTrainedTokenizer",
|
953 |
+
"unk_token": "[UNK]"
|
954 |
+
}
|