Datasets:
Upload 1.md
Browse files
1.md
ADDED
@@ -0,0 +1,41 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
### mem-and-russian-jokes-dataset
|
2 |
+
|
3 |
+
`mem-and-russian-jokes-dataset` - это объединенный датасет русскоязычных шуток и анекдотов для задач NLP, в частности для тонкой настройки языковых моделей на генерацию юмора. Данные приведены к формату `mlabonne/FineTome-100k` (диалоги в стиле ShareGPT).
|
4 |
+
|
5 |
+
## Состав датасета
|
6 |
+
|
7 |
+
- **ScoutieAutoML/russian_jokes_with_vectors**: ~9,280 шуток из Telegram-каналов ([ссылка](https://huggingface.co/datasets/ScoutieAutoML/russian_jokes_with_vectors)).
|
8 |
+
- **igorktech/anekdots_dialogs**: Анекдоты с Hugging Face Hub.
|
9 |
+
- **anek_djvu.txt**: Локальный файл с анекдотами, разделенными маркером ```
|
10 |
+
- **2.txt**: Локальный файл с диалогами, разделенными пустыми строками.
|
11 |
+
|
12 |
+
По сути - это все анекдоты что были собраны до этого в разрозненные датасеты, которые я нашел на просторах интернета.
|
13 |
+
|
14 |
+
## Структура данных
|
15 |
+
|
16 |
+
Каждая запись содержит:
|
17 |
+
- `conversations`: Список сообщений (`human`/`gpt`) в формате JSONL.
|
18 |
+
- `source`: Источник данных.
|
19 |
+
- `score`: Значение 5.0 для всех записей.
|
20 |
+
|
21 |
+
**Пример**:
|
22 |
+
{
|
23 |
+
"conversations": [
|
24 |
+
{"from": "human", "value": "Расскажи анекдот: "},
|
25 |
+
{"from": "gpt", "value": "Только заметил, что слово "п@рно" набирается самими центральными клавишами!"}
|
26 |
+
],
|
27 |
+
"source": "txt1_anekdots",
|
28 |
+
"score": 5.0
|
29 |
+
}
|
30 |
+
|
31 |
+
text
|
32 |
+
|
33 |
+
|
34 |
+
## Язык
|
35 |
+
|
36 |
+
Русский.
|
37 |
+
|
38 |
+
## Использование
|
39 |
+
|
40 |
+
Подходит для fine-tuning языковых моделей (LoRA, rsLoRA) на генерацию юмора. Рекомендуется мощное оборудование (например, A100 GPU) или ограничение данных (`split="train[:10000]"`).
|
41 |
+
|