belyakoff commited on
Commit
6d581be
·
verified ·
1 Parent(s): f792b21

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,565 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:1413
8
+ - loss:GISTEmbedLoss
9
+ base_model: intfloat/multilingual-e5-large-instruct
10
+ widget:
11
+ - source_sentence: '1. проверить , запущен ли процесс fox. Если запущен, закрыть
12
+
13
+ 2. открыть страницу в браузере. Адрес: avito.ru. Если будут напоминания для пользователя
14
+ — согласится на все.
15
+
16
+ 3. навести мышь на меню Каталоги, дождаться появления подменю и навести мышь на
17
+ меню «каталог автомобилей». Кликнуть мышкой
18
+
19
+ 4. найти все слова, которые выделены тэгом <h3>. Из списка сделать словарь, ключ
20
+ - текст, значение — другие параметры в тэге.
21
+
22
+ 5. преобразовать словарь в датафрейм
23
+
24
+ 6. сгруппировать данные датафрейма. Если есть повторы в ключах, сделать один ключ,
25
+ но с объединенным значением
26
+
27
+ 7. выгрузить датафрем обратно в словарь.
28
+
29
+ 8. Отправить сообщение в whatsapp об удачном завершении процесса'
30
+ sentences:
31
+ - 'Уведомление пользователя. describe: Выводит на экран всплывающее окно с указанным
32
+ текстом. Приостанавливает работу алгаритма до нажатия ''ok''. Окно закрывается
33
+ по нажатию кнопки ''ok''..Блок выводит на экран всплывающее окно с указанным текстом.
34
+ Окно закрывается по нажатию кнопки ‘Закрыть’. Выполнение алгоритма приостанавливается
35
+ во время отображения уведомления. Чтобы скопировать содержимое уведомления, необходимо
36
+ нажать кнопку “Скопировать”..Показать сообщений пользователю. Показывает в отдельном
37
+ окне.'
38
+ - "Добавить строку в DataFrame. describe: Добавляет строку в dataframe по номеру..Блок\
39
+ \ позволяет добавить, перезаписать и удалить строку в DataFrame. При этом необходимо\
40
+ \ указать сам DataFrame, строку для добавления/перезаписи и номер позиции..поскольку\
41
+ \ DataFrame (датафрейм) это таблица, к ней можно добавить строчку, удалить строчку\
42
+ \ или изменить строчку\nПри добавлении строки в датафрейм, нужно указать в какое\
43
+ \ место ее нужно поместить. \nПри удалении строки тоже нужно указать номер удаляемой\
44
+ \ строки.\nИ при изменении строки тоже указывается номер строки\nПри добавлении\
45
+ \ или изменении строки указывается список значений всех колонок\nПример\nДобавить\
46
+ \ строку в датафрейм dataframe\nУдалить строку из таблицы\nИзменить строку в датафрейме"
47
+ - 'Запущен ли процесс. describe: Проверяет, запущен ли указанный процесс. Если хотя
48
+ бы один экземпляр процесса запущен, то вернет True, иначе - False..Блок проверяет,
49
+ запущен ли указанный процесс. Если хотя бы один экземпляр процесса запущен, то
50
+ вернет “истина”, иначе вернет “ложь”.."Запущен ли процесс" — это вопрос, касающийся
51
+ текущего состояния процесса в операционной системе, обозначающий его активность
52
+ или присутствие в системе. Процесс считается запущенным, если он был инициирован
53
+ и выполняется в данный момент времени. Для проверки, запущен ли процесс, операционная
54
+ система использует таблицы процессов, где каждый процесс имеет свой уни��альный
55
+ идентификатор (PID) и информацию о его статусе. Когда процесс находится в активном
56
+ состоянии, он использует ресурсы системы, такие как CPU и память, для выполнения
57
+ своих задач. Проверку статуса процесса можно осуществить с помощью различных инструментов,
58
+ например, с помощью командной строки или графических интерфейсов, отображающих
59
+ активные процессы.'
60
+ - source_sentence: "1. открыть Excel\n2. перейти на страницу «Итого»\n3. переместиться\
61
+ \ на кнопку «Стрелка вправо»\n4. прокрутить колесико мышки ровно 4 секунды, со\
62
+ \ скоростью 30 пикселей в секунду\n5. дальше выбор. Если в центре экрана видна\
63
+ \ печать NASA (пример есть в файле nasa.logo), то в переменную param записать\
64
+ \ Истина\n6. если в ровно в центре экрана нет печати NASA, то в переменную param\
65
+ \ записать None (не путать с ложь)\n7. если в переменной param записано None,\
66
+ \ найти в папке dir файл Roscosmos.data.\n8. открыть , прочитать все строки. Преобразовать\
67
+ \ строки в таблицу. Поставить фильтр на первой колонке , равенство, Роскосомос.\
68
+ \ \n9. полученную таблицу распечатать на принтере Printer1"
69
+ sentences:
70
+ - 'Удалить дубликаты. describe: Удаляет повторяющиеся элементы списка. Возвращает
71
+ список уникальных элементов..Блок удаляет повторяющиеся элементы списка, возвращает
72
+ список уникальных элементов..Аналог функции list(set()) в python. Удаляет дубли.
73
+ Сначала делаем множество, где одинаковые элементы объединяются, а потом из множества
74
+ делаем список
75
+
76
+ Примеры:
77
+
78
+ Удалить дубли
79
+
80
+ Получить уникальные значение'
81
+ - "Фильтровать табличные данные. describe: Фильтрует табличные данные по указанному\
82
+ \ столбцу и операции..Блок позволяет Фильтровать табличные данные. Необходимо\
83
+ \ указать:Таблицу - Путь к файлу или DataFrame источника данных;Столбец или список\
84
+ \ столбцов - Столбец или список столбцов для фильтрации;Операция - Операция сравнения\
85
+ \ для фильтрации;Значение - Значение или список значений для фильтрации;Движок\
86
+ \ обработки данных - Определяет способ использования ресурсов процессора при обработке\
87
+ \ таблиц.Для визуальной работы с данными, кликните по кнопке:Визуализация данныхФорма\
88
+ \ визуализации данных - встроенный инструмент Puzzle RPA, который позволяет загружать\
89
+ \ и просматривать различные наборы данных..датафрейм, как таблица, может быть\
90
+ \ использован для быстрой фильтрации. Можем наложить отбор на любую колонку и\
91
+ \ посмотреть что останется\nЗначение в колонке , на которую накладывается отбор\
92
+ \ может проверяться на:\nРавенству какому либо значению\nНе равенству\nНа меньше\n\
93
+ Больше\nЕсли в колонке есть пустые значение\nНаоборот, выбрать те, где заполнено\
94
+ \ \nВ списке значений\nПримеры\nОтфильтровать данные по колонке\nОставить только\
95
+ \ те строки, где..\nНаложить отбор на датафрейм"
96
+ - 'Изменить порядок. describe: Блок меняет порядок списка на обратный..Инвертирует
97
+ строку. Последний символ становится первым. А первый последним.
98
+
99
+ Например
100
+
101
+ Инвертировать строку «полисад». Ответ «дасилоп».'
102
+ - source_sentence: Скопировать число в файле Excel в столбце "Количество в граммах".
103
+ Извлечь данные из буфера обмена и выполнить деление этого числа на 1000. Вызвать
104
+ через командную строку калькулятор и на калькуляторе возвести в квадрат результат
105
+ деления
106
+ sentences:
107
+ - 'Прочитать письма. describe: Считывает письма электронной почты с указанными параметрами..Блок
108
+ позволяет прочитать письма по IMAP.Требуется указать:Данные почтового аккаунта,
109
+ который будет прочитан;Адрес сервера;Папку для сохранения вложений из писем.Дополнительно
110
+ нажатием на “+” можно добавлять следующие параметры:Дату, с которой получать сообщения;Дату,
111
+ до которой получать сообщения;Отправителя;Получателя;Тему сообщения;Тело сообщения;Подстроку
112
+ в теме или теле сообщения;ID-сообщения;Наличие вложения;Наличие флага;Получить
113
+ только не прочитанные;Отметить сообщение прочитанным;Отметить сообщение флагом.Некоторые
114
+ почтовые сервисы не поддерживают работу всех фильтров..процесс получения и отображения
115
+ содержания электронного письма, отправленного через почтовую службу, в почтовом
116
+ клиенте или веб-интерфейсе. Он включает в себя доступ к почтовому ящику, выбор
117
+ конкретного письма и его открытие для просмотра. При этом письма могут содержать
118
+ текст, вложенные файлы, изображения и ссылки, которые пользователь может просмотреть.
119
+ Во время чтения письма происходит декодирование и отображение данных, полученных
120
+ с почтового сервера. Этот процесс может быть выполнен как на компьютере, так и
121
+ на мобильных устройствах через специализированные приложения или веб-сайты'
122
+ - 'Остановить секундомер. describe: Останавливет секундомер и сохраняет результат
123
+ в переменню.Блок останавливает секундомер и сохраняет результат в переменную.
124
+ Единица измерения времени - секунды..действие, заключающееся в прекращении отсчёта
125
+ времени, фиксируемого устройством, предназначенным для измерения интервалов времени.
126
+ Обычно, секундомер активируется нажатием кнопки, и его остановка происходит также
127
+ нажатием на соответствующую кнопку или команду. После остановки секундомер фиксирует
128
+ текущий результат в виде времени, прошедшего с начала отсчёта. Остановка может
129
+ быть выполнена вручную или автоматически, в зависимости от типа устройства. После
130
+ остановки можно записать результат или повторить отсчёт времени, начиная новый
131
+ цикл'
132
+ - 'Арифметические операции. describe: В блоке есть два паза для добавления чисел,
133
+ кликнув по текущему условию, можно выбрать операцию, которую требуется произвести
134
+ с числами. Блок имеет выпадающее меню. Клик по символу раскрывающегося списка
135
+ открывает следующее меню:В меню представлены следующие опции:+ -возвращает сумму
136
+ двух чисел;-- возвращает разность двух чисел;×- возвращает произведение двух чисел;÷
137
+ -возвращает частное от деления первого числа на второе;^- возвращает первое число,
138
+ возведенное в степень второго..Нужен для
139
+
140
+ Сложения (+)
141
+
142
+ Вычитания (-)
143
+
144
+ Умножения (*)
145
+
146
+ Деления (/)
147
+
148
+ Возведение в степень (^)
149
+
150
+ двух чисел.
151
+
152
+ Например:
153
+
154
+ Сложить два числа
155
+
156
+ Найти остаток
157
+
158
+ 5*9 = 45
159
+
160
+ 1-8=-7
161
+
162
+ 2:2 = 1
163
+
164
+ Увеличить число на 8'
165
+ - source_sentence: '1. подключиться к базе данных Postgres. Параметры подключение
166
+ взять из глобальных переменных
167
+
168
+ 2. таблица Date, выбрать все даты прошлого года (list1)
169
+
170
+ 3. таблица Numbers, выбрать все числа, которые не делятся на 2 (list2)
171
+
172
+ 4. все даты в list1 преобразовать в строки в формате YyYy:Dd:Hhhh
173
+
174
+ 5. для всех чисел list2 найти остаток от деления на 5.
175
+
176
+ 6. объединить оба списка в один list3. Сохранить список в текстовый файл file.txt
177
+
178
+ 7. проверить, если логин пароль для доступа на сайт my_fork.fr
179
+
180
+ 8. если нет, то добавить с логином ME паролем 123dfg
181
+
182
+ 9. загрузить file.txt на сайт my_fork.fr'
183
+ sentences:
184
+ - 'Сделать скриншот. describe: Сохраняет в файл скриншот всего экрана..Блок сохраняет
185
+ в файл скриншот всего экрана. Требуется указать путь к файлу с указанием названия
186
+ и расширения файла (.png). Файл будет создан автоматически по указанному пути..процесс
187
+ создания цифровой копии изображения или изображения и текста, отображаемых на
188
+ экране компьютера или другого устройства, такого как смартфон или планшет. Эта
189
+ операция позволяет сохранить текущее состояние дисплея в виде файла, который может
190
+ быть использован для различных целей, включая демонстрацию ошибок программного
191
+ обеспечения, сохранение важной информации или обмен изображениями через интернет.
192
+ Скриншоты обычно сохраняются в форматах изображений, таких как PNG, JPEG или BMP.
193
+ Для создания скриншота используются встроенные средства операционной системы,
194
+ специализированное программное обеспечение или горячие клавиши на клавиатуре.
195
+ Полученные скриншоты могут быть редактированы с помощью графических редакторов
196
+ для выделения важных элементов или добавления комментариев перед тем, как их использовать'
197
+ - 'Триггер по письму. describe: Ждет появления определенного сообщения в электронной
198
+ почте..Блок ожидает появление определенного письма в электронной почте.Требуется
199
+ указать:Данные почтового аккаунта, который будет прочитан;Адрес сервера;Время
200
+ ожидания.Дополнительно нажатием на “+” можно добавлять следующие параметры:Отправителя;Получателя;Тему
201
+ сообщения;Тело сообщения;Подстроку в теме или теле сообщения;Наличие вложения;Отметить
202
+ сообщение прочитанным;Отметить сообщение флагом.Некоторые почтовые сервисы не
203
+ поддерживают работу всех фильтров..автоматическое событие или условие, которое
204
+ активируется при получении нового письма на электронную почту. Этот триггер может
205
+ быть настроен для различных действий, например, отправки уведомлений, переноса
206
+ письма в определённую папку или запуска скрипта. Он работает на основе заданных
207
+ критериев, таких как отправитель, тема письма или ключевые слова в содержимом.
208
+ Триггер может быть реализован в почтовых клиентах или с помощью серверных автоматизаций,
209
+ например, через API почтовых сервисов. Основной целью является автоматизация обработки
210
+ входящих сообщений без необходимости вручную отслеживать каждое письмо'
211
+ - 'Остаток от деления. describe: Блок возвращает остаток от деления двух чисел..Математическая
212
+ операция , которая получает остаток от деления двух чисел
213
+
214
+ В python это операция %.
215
+
216
+ Например
217
+
218
+ Найти остаток от деления 15 на 3. Ответ 0
219
+
220
+ Найти остаток от деления 15 на 10. Ответ 5'
221
+ - source_sentence: с помощью bash скрипта узнать все рабочие процессы. В цикле начать
222
+ их обходить. Если процесс начинается на цифру, то остановить его. В файле delete_processes.txt
223
+ дописать имя закрытого процесса
224
+ sentences:
225
+ - 'Переключиться на процесс. describe: Блок позволяет подключиться к запущенному
226
+ процессу «1С», для дальнейшего взаимодействия с программой..Если толстый клиент
227
+ 1с открыт, но был свернут, этот блок может вернуть в фокус 1с предприятие. '
228
+ - 'Дописать в файл. describe: Дописывает текст в конец указанного текстового или
229
+ json-файла..Блок дописывает текст в конец указанного текстового или json-файла..В
230
+ конец текстового файла с расширением txt или json дописать текст
231
+
232
+ Примеры
233
+
234
+ Добавить в текстовый файл
235
+
236
+ Дописать текст в файл'
237
+ - 'Прочитать из Word. describe: Считывает содержимое указанного документа Word.
238
+ Возвращает считанные данные в виде строки..Блок считывает содержимое указанного
239
+ файла Word, Поддерживаемый формат файла - docx. Возвращает строку, в строке содержатся
240
+ данные форматирования..ворд это текстовый документ, с возможностью форматирования
241
+ текста. Этот текст можно прочитать в переменную и потом обрабатывать текст. Укажите
242
+ путь к word файлу и файл будет прочитан
243
+
244
+ Примеры
245
+
246
+ Прочитать ворд
247
+
248
+ Получить текст из word файла'
249
+ pipeline_tag: sentence-similarity
250
+ library_name: sentence-transformers
251
+ ---
252
+
253
+ # SentenceTransformer based on intfloat/multilingual-e5-large-instruct
254
+
255
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
256
+
257
+ ## Model Details
258
+
259
+ ### Model Description
260
+ - **Model Type:** Sentence Transformer
261
+ - **Base model:** [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct) <!-- at revision 84344a23ee1820ac951bc365f1e91d094a911763 -->
262
+ - **Maximum Sequence Length:** 512 tokens
263
+ - **Output Dimensionality:** 1024 dimensions
264
+ - **Similarity Function:** Cosine Similarity
265
+ <!-- - **Training Dataset:** Unknown -->
266
+ <!-- - **Language:** Unknown -->
267
+ <!-- - **License:** Unknown -->
268
+
269
+ ### Model Sources
270
+
271
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
272
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
273
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
274
+
275
+ ### Full Model Architecture
276
+
277
+ ```
278
+ SentenceTransformer(
279
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
280
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
281
+ (2): Normalize()
282
+ )
283
+ ```
284
+
285
+ ## Usage
286
+
287
+ ### Direct Usage (Sentence Transformers)
288
+
289
+ First install the Sentence Transformers library:
290
+
291
+ ```bash
292
+ pip install -U sentence-transformers
293
+ ```
294
+
295
+ Then you can load this model and run inference.
296
+ ```python
297
+ from sentence_transformers import SentenceTransformer
298
+
299
+ # Download from the 🤗 Hub
300
+ model = SentenceTransformer("belyakoff/puzzle-search-model")
301
+ # Run inference
302
+ sentences = [
303
+ 'с помощью bash скрипта узнать все рабочие процессы. В цикле начать их обходить. Если процесс начинается на цифру, то остановить его. В файле delete_processes.txt дописать имя закрытого процесса',
304
+ 'Дописать в файл. describe: Дописывает текст в конец указанного текстового или json-файла..Блок дописывает текст в конец указанного текстового или json-файла..В конец текстового файла с расширением txt или json дописать текст\nПримеры\nДобавить в текстовый файл\nДописать текст в файл',
305
+ 'Переключиться на процесс. describe: Блок позволяет подключиться к запущенному процессу «1С», для дальнейшего взаимодействия с программой..Если толстый клиент 1с открыт, но был свернут, этот блок может вернуть в фокус 1с предприятие. ',
306
+ ]
307
+ embeddings = model.encode(sentences)
308
+ print(embeddings.shape)
309
+ # [3, 1024]
310
+
311
+ # Get the similarity scores for the embeddings
312
+ similarities = model.similarity(embeddings, embeddings)
313
+ print(similarities.shape)
314
+ # [3, 3]
315
+ ```
316
+
317
+ <!--
318
+ ### Direct Usage (Transformers)
319
+
320
+ <details><summary>Click to see the direct usage in Transformers</summary>
321
+
322
+ </details>
323
+ -->
324
+
325
+ <!--
326
+ ### Downstream Usage (Sentence Transformers)
327
+
328
+ You can finetune this model on your own dataset.
329
+
330
+ <details><summary>Click to expand</summary>
331
+
332
+ </details>
333
+ -->
334
+
335
+ <!--
336
+ ### Out-of-Scope Use
337
+
338
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
339
+ -->
340
+
341
+ <!--
342
+ ## Bias, Risks and Limitations
343
+
344
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
345
+ -->
346
+
347
+ <!--
348
+ ### Recommendations
349
+
350
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
351
+ -->
352
+
353
+ ## Training Details
354
+
355
+ ### Training Dataset
356
+
357
+ #### Unnamed Dataset
358
+
359
+ * Size: 1,413 training samples
360
+ * Columns: <code>anchor</code> and <code>positive</code>
361
+ * Approximate statistics based on the first 1000 samples:
362
+ | | anchor | positive |
363
+ |:--------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
364
+ | type | string | string |
365
+ | details | <ul><li>min: 15 tokens</li><li>mean: 82.45 tokens</li><li>max: 326 tokens</li></ul> | <ul><li>min: 42 tokens</li><li>mean: 216.75 tokens</li><li>max: 512 tokens</li></ul> |
366
+ * Samples:
367
+ | anchor | positive |
368
+ |:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
369
+ | <code>1. Авторизация в 1С-веб<br>2. Переключиться на страницу Файлы. Перейти в раздел документации.<br>3. Скачивание файла, сохранение на диск с проверкой SSL-сертификата, если это предусмотрено параметром `ssl_verify`.<br>4. Применение алгоритма сжатия к PDF-файлу, с конвертацией в оттенки серого и сохранением текстового слоя.<br>5. Сохранения сжатого файла в заданную директорию по пути `directory_path`.<br>6. уведомление об успешном скачивании, сжатии PDF-файла и сохранении с указанием размеров файлов до и после операции сжатия.</code> | <code>Добавить фильтр 1С-веб. describe: Позволяет выбрать один или несколько вариантов для открытия страницы/переключения на страницу..Блок “Добавить фильтр 1С-веб” позволяет выбрать один или несколько вариантов для открытия страницы/переключения на страницу:Ссылка на страницу;Название страницы равно;Название страницы содержит;Название страницы не содержит.В разъем следует поместить текстовый блок с искомым названием/ссылкой..Открыть документ, справочник, отчет или любую другую форму в 1с предприятии в браузере. Нужно указать или навигационную ссылку или название формы<br></code> |
370
+ | <code>1. открыть 1с<br>2. авторизоваться в 1с<br>3. открыть пункт меню Инструкции 2025 с помощью блока поиска. В поле имя указать «содержит» «Инструкции + currentYear()»<br>4. Нажать кнопку открыть и скачать последний файл<br>5. Открыть файл<br>6. Перевернуть страницу, если ориентация не равна 0 градусов<br>7. если файл был изменен, сохранить его в 1с как новую версию.</code> | <code>Добавить фильтр 1С-веб. describe: Позволяет выбрать один или несколько вариантов для открытия страницы/переключения на страницу..Блок “Добавить фильтр 1С-веб” позволяет выбрать один или несколько вариантов для открытия страницы/переключения на страницу:Ссылка на страницу;Название страницы равно;Название страницы содержит;Название страницы не содержит.В разъем следует поместить текстовый блок с искомым названием/ссылкой..Открыть документ, справочник, отчет или любую другую форму в 1с предприятии в браузере. Нужно указать или навигационную ссылку или название формы<br></code> |
371
+ | <code>1. открыть 1с. Авторизоваться<br>2. открыть раздел «Пользователи» установив фильтр по равенству страница = Пользователи<br>3. открыть список пользователей отдела Консолидированной отчетности<br>4. выгрузить справочник в виде таблицы — колонки: имя пользователя, СНИЛС<br>5. преобразовать снилс из строки в число, и получить сумму цифр<br>6. запустить процесс airflow, который будет раз в час искать в базе данных postgres, в таблице Emploers, все записи, с фильтром снилс, взятый из п5. Если записей не будет , вызвать исключение</code> | <code>Добавить фильтр 1С-веб. describe: Позволяет выбрать один или несколько вариантов для открытия страницы/переключения на страницу..Блок “Добавить фильтр 1С-веб” позволяет выбрать один или несколько вариантов для открытия страницы/переключения на страницу:Ссылка на страницу;Название страницы равно;Название страницы содержит;Название страницы не содержит.В разъем следует поместить текстовый блок с искомым названием/ссылкой..Открыть документ, справочник, отчет или любую другую форму в 1с предприятии в браузере. Нужно указать или навигационную ссылку или название формы<br></code> |
372
+ * Loss: [<code>GISTEmbedLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#gistembedloss) with these parameters:
373
+ ```json
374
+ {'guide': SentenceTransformer(
375
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
376
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
377
+ (2): Normalize()
378
+ ), 'temperature': 0.03}
379
+ ```
380
+
381
+ ### Training Hyperparameters
382
+ #### Non-Default Hyperparameters
383
+
384
+ - `per_device_train_batch_size`: 4
385
+ - `learning_rate`: 1e-05
386
+ - `num_train_epochs`: 50
387
+ - `dataloader_drop_last`: True
388
+ - `batch_sampler`: no_duplicates
389
+
390
+ #### All Hyperparameters
391
+ <details><summary>Click to expand</summary>
392
+
393
+ - `overwrite_output_dir`: False
394
+ - `do_predict`: False
395
+ - `eval_strategy`: no
396
+ - `prediction_loss_only`: True
397
+ - `per_device_train_batch_size`: 4
398
+ - `per_device_eval_batch_size`: 8
399
+ - `per_gpu_train_batch_size`: None
400
+ - `per_gpu_eval_batch_size`: None
401
+ - `gradient_accumulation_steps`: 1
402
+ - `eval_accumulation_steps`: None
403
+ - `torch_empty_cache_steps`: None
404
+ - `learning_rate`: 1e-05
405
+ - `weight_decay`: 0.0
406
+ - `adam_beta1`: 0.9
407
+ - `adam_beta2`: 0.999
408
+ - `adam_epsilon`: 1e-08
409
+ - `max_grad_norm`: 1.0
410
+ - `num_train_epochs`: 50
411
+ - `max_steps`: -1
412
+ - `lr_scheduler_type`: linear
413
+ - `lr_scheduler_kwargs`: {}
414
+ - `warmup_ratio`: 0.0
415
+ - `warmup_steps`: 0
416
+ - `log_level`: passive
417
+ - `log_level_replica`: warning
418
+ - `log_on_each_node`: True
419
+ - `logging_nan_inf_filter`: True
420
+ - `save_safetensors`: True
421
+ - `save_on_each_node`: False
422
+ - `save_only_model`: False
423
+ - `restore_callback_states_from_checkpoint`: False
424
+ - `no_cuda`: False
425
+ - `use_cpu`: False
426
+ - `use_mps_device`: False
427
+ - `seed`: 42
428
+ - `data_seed`: None
429
+ - `jit_mode_eval`: False
430
+ - `use_ipex`: False
431
+ - `bf16`: False
432
+ - `fp16`: False
433
+ - `fp16_opt_level`: O1
434
+ - `half_precision_backend`: auto
435
+ - `bf16_full_eval`: False
436
+ - `fp16_full_eval`: False
437
+ - `tf32`: None
438
+ - `local_rank`: 0
439
+ - `ddp_backend`: None
440
+ - `tpu_num_cores`: None
441
+ - `tpu_metrics_debug`: False
442
+ - `debug`: []
443
+ - `dataloader_drop_last`: True
444
+ - `dataloader_num_workers`: 0
445
+ - `dataloader_prefetch_factor`: None
446
+ - `past_index`: -1
447
+ - `disable_tqdm`: False
448
+ - `remove_unused_columns`: True
449
+ - `label_names`: None
450
+ - `load_best_model_at_end`: False
451
+ - `ignore_data_skip`: False
452
+ - `fsdp`: []
453
+ - `fsdp_min_num_params`: 0
454
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
455
+ - `fsdp_transformer_layer_cls_to_wrap`: None
456
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
457
+ - `deepspeed`: None
458
+ - `label_smoothing_factor`: 0.0
459
+ - `optim`: adamw_torch
460
+ - `optim_args`: None
461
+ - `adafactor`: False
462
+ - `group_by_length`: False
463
+ - `length_column_name`: length
464
+ - `ddp_find_unused_parameters`: None
465
+ - `ddp_bucket_cap_mb`: None
466
+ - `ddp_broadcast_buffers`: False
467
+ - `dataloader_pin_memory`: True
468
+ - `dataloader_persistent_workers`: False
469
+ - `skip_memory_metrics`: True
470
+ - `use_legacy_prediction_loop`: False
471
+ - `push_to_hub`: False
472
+ - `resume_from_checkpoint`: None
473
+ - `hub_model_id`: None
474
+ - `hub_strategy`: every_save
475
+ - `hub_private_repo`: None
476
+ - `hub_always_push`: False
477
+ - `gradient_checkpointing`: False
478
+ - `gradient_checkpointing_kwargs`: None
479
+ - `include_inputs_for_metrics`: False
480
+ - `include_for_metrics`: []
481
+ - `eval_do_concat_batches`: True
482
+ - `fp16_backend`: auto
483
+ - `push_to_hub_model_id`: None
484
+ - `push_to_hub_organization`: None
485
+ - `mp_parameters`:
486
+ - `auto_find_batch_size`: False
487
+ - `full_determinism`: False
488
+ - `torchdynamo`: None
489
+ - `ray_scope`: last
490
+ - `ddp_timeout`: 1800
491
+ - `torch_compile`: False
492
+ - `torch_compile_backend`: None
493
+ - `torch_compile_mode`: None
494
+ - `dispatch_batches`: None
495
+ - `split_batches`: None
496
+ - `include_tokens_per_second`: False
497
+ - `include_num_input_tokens_seen`: False
498
+ - `neftune_noise_alpha`: None
499
+ - `optim_target_modules`: None
500
+ - `batch_eval_metrics`: False
501
+ - `eval_on_start`: False
502
+ - `use_liger_kernel`: False
503
+ - `eval_use_gather_object`: False
504
+ - `average_tokens_across_devices`: False
505
+ - `prompts`: None
506
+ - `batch_sampler`: no_duplicates
507
+ - `multi_dataset_batch_sampler`: proportional
508
+
509
+ </details>
510
+
511
+ ### Framework Versions
512
+ - Python: 3.10.16
513
+ - Sentence Transformers: 4.0.1
514
+ - Transformers: 4.49.0
515
+ - PyTorch: 2.6.0+cu124
516
+ - Accelerate: 1.4.0
517
+ - Datasets: 3.3.2
518
+ - Tokenizers: 0.21.0
519
+
520
+ ## Citation
521
+
522
+ ### BibTeX
523
+
524
+ #### Sentence Transformers
525
+ ```bibtex
526
+ @inproceedings{reimers-2019-sentence-bert,
527
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
528
+ author = "Reimers, Nils and Gurevych, Iryna",
529
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
530
+ month = "11",
531
+ year = "2019",
532
+ publisher = "Association for Computational Linguistics",
533
+ url = "https://arxiv.org/abs/1908.10084",
534
+ }
535
+ ```
536
+
537
+ #### GISTEmbedLoss
538
+ ```bibtex
539
+ @misc{solatorio2024gistembed,
540
+ title={GISTEmbed: Guided In-sample Selection of Training Negatives for Text Embedding Fine-tuning},
541
+ author={Aivin V. Solatorio},
542
+ year={2024},
543
+ eprint={2402.16829},
544
+ archivePrefix={arXiv},
545
+ primaryClass={cs.LG}
546
+ }
547
+ ```
548
+
549
+ <!--
550
+ ## Glossary
551
+
552
+ *Clearly define terms in order to be accessible across audiences.*
553
+ -->
554
+
555
+ <!--
556
+ ## Model Card Authors
557
+
558
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
559
+ -->
560
+
561
+ <!--
562
+ ## Model Card Contact
563
+
564
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
565
+ -->
config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "XLMRobertaModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "eos_token_id": 2,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 1024,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 4096,
14
+ "layer_norm_eps": 1e-05,
15
+ "max_position_embeddings": 514,
16
+ "model_type": "xlm-roberta",
17
+ "num_attention_heads": 16,
18
+ "num_hidden_layers": 24,
19
+ "output_past": true,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "torch_dtype": "float32",
23
+ "transformers_version": "4.51.3",
24
+ "type_vocab_size": 1,
25
+ "use_cache": true,
26
+ "vocab_size": 250002
27
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "4.1.0",
4
+ "transformers": "4.51.3",
5
+ "pytorch": "2.7.0+cpu"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:5af0730d3f6e7fdb42364f72ba055a87ee2533d63b9ec57ca86c3e40e52bc9fe
3
+ size 2239607176
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,63 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "additional_special_tokens": [],
45
+ "bos_token": "<s>",
46
+ "clean_up_tokenization_spaces": true,
47
+ "cls_token": "<s>",
48
+ "eos_token": "</s>",
49
+ "extra_special_tokens": {},
50
+ "mask_token": "<mask>",
51
+ "max_length": 512,
52
+ "model_max_length": 512,
53
+ "pad_to_multiple_of": null,
54
+ "pad_token": "<pad>",
55
+ "pad_token_type_id": 0,
56
+ "padding_side": "right",
57
+ "sep_token": "</s>",
58
+ "stride": 0,
59
+ "tokenizer_class": "XLMRobertaTokenizerFast",
60
+ "truncation_side": "right",
61
+ "truncation_strategy": "longest_first",
62
+ "unk_token": "<unk>"
63
+ }