Model Card for EXAONE-3.5-7.8B-Instruct-KoCulture-fulltrain-transformers
์ด ๋ชจ๋ธ์ LGAI-EXAONE/EXAONE-3.5-7.8B-Instruct ๋ชจ๋ธ์ Hugging Face KREW์ ํ๊ตญ์ด ์ ์กฐ์ด ๋ํ ๋ฐ์ดํฐ์ v2๋ก ํ์ธํ๋ํ ๊ฒ์ ๋๋ค. ์ต์ ํ๊ตญ์ด ์ ์กฐ์ด, ์ ํ์ด, ๋ฐ์ ์ฌ์ฉํ์ฌ ๋ณด๋ค ์์ฐ์ค๋ฝ๊ณ ํ์ค์ ์ธ ํ๊ตญ์ด ๋ํ๋ฅผ ์์ฑํ๋ ๊ฒ์ ๋ชฉํ๋ก ํฉ๋๋ค.
Model Details
Model Description
์ด ๋ชจ๋ธ์ LGAI-EXAONE/EXAONE-3.5-7.8B-Instruct
๋ฅผ ๊ธฐ๋ฐ์ผ๋ก, ํ๊ตญ์ ์ต์ ์ธ์ด ๋ฌธํ(์ ์กฐ์ด, ๋ฐ ๋ฑ)๋ฅผ ๋ ์ ์ดํดํ๊ณ ์์ฑํ๋๋ก ํนํ๋ ๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ์
๋๋ค. Hugging Face์ trl
๋ผ์ด๋ธ๋ฌ๋ฆฌ๋ฅผ ์ฌ์ฉํ SFT(Supervised Fine-tuning) ๋ฐฉ์์ผ๋ก ํ์ต๋์์ต๋๋ค. ํ์ต ๋ฐ์ดํฐ์๋ ์น๊ตฌ์ ๋ํํ๋ ์ํฉ์ ๊ฐ์ ํ์ฌ, ํน์ ์ง๋ฌธ์ ๋ํด ๋ฐ๊ณผ ์ ํ์ด๋ฅผ ํ์ฉํด ๋ตํ๋ ํ์์ผ๋ก ๊ตฌ์ฑ๋ ๋ํ ์์ด ์ฌ์ฉ๋์์ต๋๋ค.
- Developed by: Hugging Face KREW (Yongsang Yoo, Harheem Kim, Sungmin Oh)
- Model type: Causal Language Model (Decoder-only Transformer)
- Language(s) (NLP): Korean (ko)
- License: The license for this model is based on the base model's license, 'exaone'. The training dataset,
huggingface-KREW/KoCulture-Dialogues-v2
, is available under the CC BY-NC-SA 4.0 license. - Finetuned from model: LGAI-EXAONE/EXAONE-3.5-7.8B-Instruct
Model Sources
- Repository: https://huggingface.co/Yongsang/EXAONE-3.5-7.8B-Instruct-KoCulture-fulltrain-transformers
- Paper: ์ถ๊ฐ๋ ์์
- Demo: ์ถ๊ฐ๋ ์์
Uses
์ด ๋ชจ๋ธ์ ํ๊ตญ์ด ์ ์กฐ์ด์ ๋ฐ์ด ํฌํจ๋ ๋น๊ณต์์ ์ด๊ณ ๊ตฌ์ด์ ์ธ ํ ์คํธ๋ฅผ ์์ฑํ๋๋ก ์ค๊ณ๋์์ต๋๋ค.
Direct Use
๋ชจ๋ธ์ ์ฃผ์ด์ง ์ง๋ฌธ์ด๋ ๋ฌธ๋งฅ์ ๋ํด ์น๊ตฌ์ ๋ํํ๋ฏ ์ต์ ์ ํ์ด๋ฅผ ์ฌ์ฉํ์ฌ ์๋ต์ ์์ฑํ ์ ์์ต๋๋ค. ์ฑ๋ด์ด๋ ๊ฐ์ ๋น์์ ๊ฐ์ ๋ํํ AI์ ์ง์ ์ ์ฉํ์ฌ ์ฌ์ฉ์์ ์ฌ๋ฏธ์ ๊ฒฝํ์ ํฅ์์ํค๋ ๋ฐ ํ์ฉ๋ ์ ์์ต๋๋ค.
Out-of-Scope Use
- ๋ณธ ๋ชจ๋ธ์ CC BY-NC-SA 4.0 ๋ผ์ด์ ์ค๋ฅผ ๋ฐ๋ฅด๋ ๋ฐ์ดํฐ์ ์ผ๋ก ํ์ต๋์์ผ๋ฏ๋ก, ์๋ฆฌ์ ๋ชฉ์ ์ผ๋ก ์ฌ์ฉ๋ ์ ์์ต๋๋ค.
- ๋ชจ๋ธ์ด ์ ํดํ๊ฑฐ๋ ์ฐจ๋ณ์ ์ธ ์ฝํ ์ธ (๊ณต๊ฒฉ์ ์ธ์ด, ํ์ค ๋ฐ์ธ ๋ฑ)๋ฅผ ์์ฑํ๊ฑฐ๋ ํ์ฐํ๋ ๋ฐ ์ฌ์ฉ๋์ด์๋ ์ ๋ฉ๋๋ค.
- ๋ชจ๋ธ์ ์์ฑ๋ฌผ์ ์ฌ์ค์ด ์๋ ์ ์์ผ๋ฉฐ, ์ฌ์ค ํ์ธ์ด ํ์ํ ์ค์ํ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ผ๋ก ์ฌ์ฉํด์๋ ์ ๋ฉ๋๋ค.
Bias, Risks, and Limitations
- Bias: ํ์ต ๋ฐ์ดํฐ๋ ์ฃผ๋ก ์จ๋ผ์ธ ์ปค๋ฎค๋ํฐ์ ๋ฏธ๋์ด์์ ์ ๋ํ ์ ์กฐ์ด ๋ฐ ์ ํ์ด๋ฅผ ์ค์ฌ์ผ๋ก ๊ตฌ์ฑ๋์ด ์์ด, ํน์ ์ฐ๋ น๋(์: ์ ์ ์ธ๋)๋ ํน์ ์จ๋ผ์ธ ๋ฌธํ์ ํธํฅ๋ ์ธ์ด ์ฌ์ฉ์ ๋ฐ์ํ ์ ์์ต๋๋ค.
- Risks: ์ ์กฐ์ด์ ์ ํ์ด๋ ์์์ฑ์ด ๋งค์ฐ ๊ฐํ์ฌ ์๊ฐ์ด ์ง๋จ์ ๋ฐ๋ผ ์๋ฏธ๊ฐ ๋ณํ๊ฑฐ๋ ์ฌ์ฉ๋์ง ์๊ฒ ๋ ์ ์์ต๋๋ค(๋ฐ์ดํฐ ๋ ธํํ). ํํฐ๋ง ๋ ธ๋ ฅ์๋ ๋ถ๊ตฌํ๊ณ , ๋งฅ๋ฝ์ ๋ฐ๋ผ ๋ถ์ ์ ํ๊ฑฐ๋ ๊ณต๊ฒฉ์ ์ผ๋ก ํด์๋ ์ ์๋ ๋ด์ฉ์ด ํฌํจ๋ ์ํ์ด ์์ต๋๋ค.
- Limitations: ์ด ๋ชจ๋ธ์ ํ๊ตญ์ด ์ ์กฐ์ด์ ์ ์ฒด ๋ฒ์๋ฅผ ํฌ๊ดํ์ง ๋ชปํ๋ฉฐ, ํน์ ์์ ๊น์ง ์์ง๋ ๋ด์ฉ์ ๊ธฐ๋ฐ์ผ๋ก ํฉ๋๋ค. ๋ฐ์ดํฐ์ ์ ํฌ๊ธฐ๊ฐ ๋น๊ต์ ์๊ธฐ ๋๋ฌธ์ ๋ชจ๋ ์ํฉ์ ๋ํด ์๋ฒฝํ๊ฒ ์์ฐ์ค๋ฌ์ด ๋ต๋ณ์ ์์ฑํ์ง ๋ชปํ ์ ์์ต๋๋ค.
Recommendations
์ฌ์ฉ์๋ ๋ชจ๋ธ์ด ์์ฑํ๋ ๊ฒฐ๊ณผ๋ฌผ์ ํธํฅ ๊ฐ๋ฅ์ฑ๊ณผ ์์์ฑ์ ์ธ์งํ๊ณ ์ฃผ์ ๊น๊ฒ ์ฌ์ฉํด์ผ ํฉ๋๋ค. ๋น์๋ฆฌ์ ๋ชฉ์ ์ผ๋ก๋ง ์ฌ์ฉํด์ผ ํ๋ฉฐ, ์ถ์ฒ(Hugging Face KREW ๋ฐ ์๋ณธ ๋ฐ์ดํฐ ์ ๊ณต์ฒ)๋ฅผ ๋ช ํํ ๋ฐํ์ผ ํฉ๋๋ค.
How to Get Started with the Model
์๋ ์ฝ๋๋ฅผ ์ฌ์ฉํ์ฌ ๋ชจ๋ธ ์ถ๋ก ์ ์์ํ ์ ์์ต๋๋ค.
์ด ๋ชจ๋ธ์ transformers
๋ผ์ด๋ธ๋ฌ๋ฆฌ ๋ฒ์ 4.51.3 ์ด์์ด ํ์ํฉ๋๋ค. ์ํํ ์ฌ์ฉ์ ์ํด ๋ผ์ด๋ธ๋ฌ๋ฆฌ ๋ฒ์ ์ ํ์ธํ๊ณ ํ์์ ์
๊ทธ๋ ์ด๋ํด ์ฃผ์ธ์.
!pip install "transformers>=4.51.3"
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
# Hugging Face Hub์์ ํ ํฌ๋์ด์ ์ ๋ชจ๋ธ ๋ก๋
model_id = "huggingface_KREW/EXAONE-3.5-7.8B-Instruct-KoCulture-fulltrain-transformers"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
# ์ถ๋ก ์ ์ํ ์
๋ ฅ ํ
์คํธ ์ค๋น
# ํ์ต ์ ์ฌ์ฉ๋ ํ๋กฌํํธ ํ์์ ๋ฐ๋ฆ
๋๋ค.
PREFIX = "์น๊ตฌ์ ์ฑํ
์ ํ๊ณ ์๋ค๊ณ ๊ฐ์ ํ๊ณ ๋ค์ ์ง๋ฌธ์ ๋ฐ๊ณผ ์ ํ์ด๋ฅผ ํ์ฉํ์ฌ ๋๋ตํ์ธ์."
question = "๋ ์ด์ ํ์ ๋ ์ ํผ์๋ง ์กฐ์ฉํ ์์์ด?"
input_text = f"{PREFIX}: {question}"
# ๋ํ ํ
ํ๋ฆฟ ์ ์ฉ
messages = [{'role': 'user', 'content': input_text}]
chat_input = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
tokenize=False
)
# ๋ชจ๋ธ ์
๋ ฅ ์์ฑ
inputs = tokenizer(chat_input, return_tensors="pt").to(model.device)
# ํ
์คํธ ์์ฑ
outputs = self.model.generate(
**inputs,
max_new_tokens=256,
temperature=0.7,
top_p=0.8,
top_k=20,
min_p=0,
repetition_penalty=1.15,
do_sample=True,
pad_token_id=tokenizer.eos_token_id
)
# ๊ฒฐ๊ณผ ๋์ฝ๋ฉ ๋ฐ ์ถ๋ ฅ
response_ids = outputs[0][len(inputs.input_ids[0]):]
answer = tokenizer.decode(response_ids, skip_special_tokens=True)
# ์์ฑ๋ ๋ต๋ณ๋ง ์ถ์ถ
print(f"์ง๋ฌธ: {question}")
print(f"๋ต๋ณ: {answer}")
# ์์ ์ถ๋ ฅ:
# ์ง๋ฌธ: ์ ๋ ์ฌ์ง ์ฐ๋ ๊ฑธ ์ข์ํด์.
# ๋ต๋ณ: ์ฌ์ง์๊ฐ๋ ์ด์์ค๊ณ ใ
ใ
ใ
์ผ๊ฐ๋ ๊ผญ ์ฐ์ธ์!
Training Details
Training Data
์ด ๋ชจ๋ธ์ huggingface-KREW/KoCulture-Dialogues-v2 ๋ฐ์ดํฐ์
์ ์ฌ์ฉํ์ฌ ํ์ต๋์์ต๋๋ค. ์ด ๋ฐ์ดํฐ์
์ ์ต์ ํ๊ตญ์ด ์ ์กฐ์ด, ์ ํ์ด, ๋ฐ์ ํฌํจํ๋ ๋ํ ์์ผ๋ก ๊ตฌ์ฑ๋์ด ์์ต๋๋ค. ๋ฐ์ดํฐ๋ title
(์ ํ์ด), question
(์ง๋ฌธ ๋งฅ๋ฝ), answer
(์ ํ์ด๋ฅผ ์ฌ์ฉํ ๋ต๋ณ)์ ์ธ ๊ฐ์ง ํ๋๋ก ์ด๋ฃจ์ด์ ธ ์์ต๋๋ค.
Training Procedure
Preprocessing
ํ์ต ๋ฐ์ดํฐ๋ ๋ค์ ๊ณผ์ ์ ๊ฑฐ์ณ ์ฒ๋ฆฌ๋์์ต๋๋ค.
- ๊ฐ
question
ํญ๋ชฉ ์์"์น๊ตฌ์ ์ฑํ ์ ํ๊ณ ์๋ค๊ณ ๊ฐ์ ํ๊ณ ๋ค์ ์ง๋ฌธ์ ๋ฐ๊ณผ ์ ํ์ด๋ฅผ ํ์ฉํ์ฌ ๋๋ตํ์ธ์.: "
๋ผ๋ ํ๋กฌํํธ(PREFIX)๊ฐ ์ถ๊ฐ๋ฉ๋๋ค. - ์์ ๋
question
๊ณผanswer
๋user
์assistant
์ญํ ์ ๊ฐ๋ ๋ํ ํ์์ผ๋ก ๋ณํ๋ฉ๋๋ค. tokenizer.apply_chat_template
ํจ์๋ฅผ ์ฌ์ฉํ์ฌ ๋ชจ๋ธ์ด ํ์ตํ ์ ์๋ ์ต์ข ํ ์คํธ ํ์์ผ๋ก ํฌ๋งทํ ๋ฉ๋๋ค.
Training Hyperparameters
- Training regime: bf16 mixed precision
model_name
:LGAI-EXAONE/EXAONE-3.5-7.8B-Instruct
max_seq_length
: 512num_epochs
: 3per_device_train_batch_size
: 1gradient_accumulation_steps
: 64learning_rate
: 6e-5lr_scheduler_type
:linear
optim
:adamw_8bit
warmup_ratio
: 0.05weight_decay
: 0.01
Evaluation
Testing Data & Metrics
Testing Data
๋ณ๋์ ๊ฒ์ฆ ๋ฐ์ดํฐ ํ์ผ์ ์ฌ์ฉํ์ฌ ํ์ต ์ ํ ๋ชจ๋ธ์ ์๋ต์ ์ ์ฑ์ ์ผ๋ก ๋น๊ตํ์ต๋๋ค.
meme_sample_with_question.txt
usage_question.txt
Summary
์ฃผ๋ชฉํ ์ ์, ์ด๋ฒ์ ํ๊ฐ๋ EXAONE, kanana, Qwen3 ๋ชจ๋ธ๋ค์ ํ์ธํ๋ ์ด์ ๋จ๊ณ์ ์ฆ๊ฐ๋ ๋ฐ์ดํฐ์ ์ ์ฌ์ฉํ๊ธฐ ์ ์์๋ ์ ์กฐ์ด ์ฌ์ฉ๋ฅ ์ด 0%์ ๊ฐ๊น์ ๋ค๋ ๊ฒ์ ๋๋ค. ๋ฐ๋ผ์ ํ์ฌ ์ธก์ ๋ ์ ์กฐ์ด ์ฌ์ฉ ๋ฅ๋ ฅ์ ์จ์ ํ KoCulture ํ์ธํ๋์ ํตํด ์ป์ด์ง ์ฑ๊ณผ๋ผ ํ ์ ์์ผ๋ฉฐ, ์ด๋ ๋ชจ๋ธ์ด ํ๊ตญ ๋ฌธํ์ ํธ๋ ๋ํ ์ธ์ด ์ฌ์ฉ์ ํจ๊ณผ์ ์ผ๋ก ํ์ตํ์์ ๋ณด์ฌ์ค๋๋ค.
- EXAONE-3.5-7.8B-Instruct-KoCulture-fulltrain-transformers: (์ฐ์) ๋์ ์ฌ์ฉ๋ฅ ๊ณผ ํจ๊ป ์ค์ ์ฌ์ฉ ์์์ ์ ์ฌํ ์์ฐ์ค๋ฌ์ด ๋งฅ๋ฝ์์ ์ ์กฐ์ด๋ฅผ ์ฐฝ์์ ์ผ๋ก ํ์ฉํ๋ ๋ฅ๋ ฅ์ด ๋๋ณด์ ๋๋ค.
- kanana-1.5-8b-instruct-2505-KoCulture-fulltrain-transformers: (์ฐ์) ๋์ ์ฌ์ฉ๋ฅ ์ ๋ณด์ด๋ฉฐ, ๋ค์ํ ์ํฉ์ ๋ง๋ ์ ์กฐ์ด๋ฅผ ์ ํํ๊ณ ์์ฐ์ค๋ฝ๊ฒ ๊ตฌ์ฌํ์ฌ ์ค์ ์ฌ์ฉ์ ๊ฐ์ ๋งํฌ๋ฅผ ๋ณด์ฌ์ค๋๋ค.
- Qwen3-8B-KoCulture-fulltrain-transformers: (๊ฐ์ ํ์) ์ฌ์ฉ๋ฅ ์ด ๊ฐ์ฅ ๋ฎ์ผ๋ฉฐ, ์ ์กฐ์ด ์ฌ์ฉ ์ ๋ฌธ๋งฅ์ ์ ๋๋ก ํ์ ํ์ง ๋ชปํ๊ฑฐ๋ ๋ถ์์ฐ์ค๋ฌ์ด ํํ์ ์์ฑํ๋ ๊ฒฝ์ฐ๊ฐ ๋ง์ ๊ฐ์ ์ด ํ์ํฉ๋๋ค.
- gpt-4o: (๋ณดํต) ๊ฐ์ฅ ๋ฎ์ ์ฌ์ฉ๋ฅ ์ ๋ณด์์ผ๋ฉฐ, ์ ์กฐ์ด๋ฅผ ์ดํดํ๊ณ ๋ ์์ผ๋ ๋ค์ ๊ณผ์ฅ๋๊ณ ์์์ ์ธ ๋ฐฉ์์ผ๋ก ์ฌ์ฉํ์ฌ ์์ฐ์ค๋ฌ์์ด ๋จ์ด์ง๋ ๊ฒฝํฅ์ด ์์ต๋๋ค.
Generation Examples
๋ชจ๋ธ๋ช | ์ง๋ฌธ | ๋ต๋ณ |
---|---|---|
EXAONE-3.5-7.8B | ๋ ์ด๋ฒ ์ฃผ๋ง์ ๋ด์ฌํ๋ ๊ฐ๊ธฐ๋ก ํ์ด. | ํ ์ง์ง? ๋ฉ์๋ค! ์ฐจ์นด๋ ๋ช ๊ฐ ๋จน์ ๊ฑฐ์ผ? |
์์ฆ ๋๋ฌด ์ ์ด ์ ์์ ํ๋ค์ด. | ํ ๋ถ๋ฉด์ฆ์ธ๊ฐ? ์๋ฉด ๊ฟํ araboja | |
์ปคํผ๋ฅผ ์ง์ ๋ด๋ ค๋ง์๋ ๊ฒ์ ์ข์ํด. | ์ค ๊ทธ๋ผ ์ด๋ฒ์ ๋ด๊ฐ ๋ง์์ฃผ๋ ๋๋ฆฝ์ปคํผ ์ด๋? | |
์ค๋ ์ํ๋ฅผ ๋ณด๋ฌ ๊ฐ์ด. | ๊ทผ๋ฐ!!! ํ์ฝ์ ์ ์์. ํ์ง๋ง!!! ... ์ํ๋ ์ฌ๋ฐ์์. ์ง์ง... ์ฐ๋ฆฌ ๊ดํฌ ์๋ ๊ฑฐ๋ฉด ๋ ์ข์๊ฒ ๋ค! | |
Qwen3-8B | ์ฃฝ์ ๋ฐ๋ ค๋๋ฌผ์ด ๋๋ฌด ๊ทธ๋ฆฌ์. ๊ทธ๊ณณ์์๋ ์ ์ง๋ด๊ณ ์๊ฒ ์ง? | ๊ทธ ๋ฐ๋ ค๋๋ฌผ์ ๋ ์ฌ๋ฆฌ๋๊น ๊ฐ์๊ธฐ ์์์จ... ์ง์ง ์์ํ ๊ธฐ์ตํ ๊ฒ์. ์๋ ํ์ธ์, ์ฐ๋ฆฌ ๋ณผ๋งํ ๋ ์จ๊ฐ ์์ด์. |
๋๋ ์ ํญ์ ์ ํ์ ์๋ชปํ๋ ๊ฑธ๊น? | ๊ทธ๊ฑด ๋๋ฐ๋์ด์ง. ์ํฉ๋ง๋ค ๋ค ๋ค๋ฅด๊ณ , ๋๋ง์ ๊ณ ์ ํ ์ ํ๋ฐฉ์์ด ์์ ์๋ ์์ด ใ ใ ใ ๊ทธ๋ฅ ๋๋ ๋น๊ตํ์ง ๋ง์ | |
์์ฆ ์คํธ๋ ์ค ๋๋ฌธ์ ์ ์ด ์ ์์ ํ๋ค์ด. | ๊ทธ๋ด ๋ 'ํ์ง์๋ถ'๊ฐ ๋ต์ด์ง. ํ๋ณต์ ์ง์คํด๋ณด๋ ๊ฑฐ ์ด๋จ๋? | |
์ค๋ ์๋ง๋ ์ ๋ ๋ฐ์ดํธ ํ ๊ฑด๋ฐ ๋ฉ๋ด ๋ญ๊ฐ ์ข์๊น? | ์๋งํํ ๋ '์๋ง์ ํฅ๊ธฐ' ์ด๋์~ ๊ทธ๋ฅด๋ฅต ๊ฐ ๊ฐ์ฑ ๋ชจ๋ฅด์๋ฉด ๋๊ฐ์ธ์ใ ใ ใ ใ | |
kanana-1.5-8b | ๋ง์คํฌ ๋๋ฌธ์ ํธ๋ฌ๋ธ์ด ๋๋ฌด ์ฌํด ใ ใ | ๊ทธ๊ฑฐ ์ง์ง...? ๋๋ ์ ์ ๋ง๊ธฐ๊พผ๋ผ๊ณ ์๊ฐํ๋๋ฐ ๋ด ์น๊ตฌ ์ค์๋ ๊ทธ๋ฐ ์ ์์ใ ใ ใ |
์ค๋ ์ ๋ ๋ญ ๋จน์ผ๋ฉด ์ ๋จน์๋ค๊ณ ์๋ฌธ๋ ๊น? | ์นํจ ๊ฐ์์ฃ . ๋ฌด์กฐ๊ฑด ๊ฒ๋ฐ์์ด ์ธ์ ๋ ์ง๋ค์ด ์์. ์ ๊ฐ ํฝ ํด๋๋ฆผใ | |
์์ด์ ๋ ์ ์ํตํ๊ณ ์ถ์ด. | ์์ด์ ๋๋์ด์์ ์๊ฐํด๋ด. ์ง์ง ์ฝ์ง ์์ใ ใ ใ | |
์ต๊ทผ์ ์ฃผ์์ ๋ํด ๊ณต๋ถํ๊ณ ์์ด. | ์ผ์์ ์ฌ์ฅ์ผ๋ก ๋ค์ด์ค์ธ์. ์ด๊ฑฐ๋ ์ง์ง ์ํํ ์ ์์ใ ใ | |
gpt-4o | ์ ๋ ์ฌ์ง ์ฐ๋ ๊ฑธ ์ข์ํด์. | ์ค, ์ฌ์ง ์ฐ๋ ๊ฑธ ์ข์ํ๋ค๊ณ ? ๊ทธ๋ผ "์ฐฐ์นต์ฐฐ์นต"์ ๋ฉ์ถ ์ ์๊ฒ ๋ค! ๐ธ ๋์ ์ธ์์ ์ธ์คํ๊ทธ๋จ ํผ๋์ฒ๋ผ ํ๋ คํ๊ฒ ์ด! #์ฌ์ง๋ํ #์ธ์์ท์ฅ์ธ ๐ |
์์ฆ ๊ฟ์ ๋ํ ๋๊ธฐ๋ถ์ฌ๊ฐ ํ์ํด์. | "๊ฟ์ ์ด๋ฃจ์ด์ง๋ค๋๋ฐ, ๋๋ ์ด์ฐธ์ ๊ฟ์ ์ก์ผ๋ฌ ๊ฐ๋ณผ๊น? 'Just Do It!'์ฒ๋ผ ๋ง์ด์ผ. ์คํจํ ๊น๋ด ๊ฑฑ์ ๋๋ค๋ฉด, 'YOLO' ์ ์ ์ผ๋ก ํ ๋ฒ ๋์ ํด๋ณด์! ์ด์ฐจํผ ์ธ์์ ํ ๋ฒ๋ฟ์ด๋๊น!" ๐โจ | |
์ค๋ ๋ด๊ฐ ์ข์ํ๋ ์ฌ๋์ด ๋์๊ฒ ๊ณ ๋ฐฑํ์ด! | ์ฐ์, ๋ ๋ฒจ ์ ํ์ จ๋ค์! ๐ ์ด์ ๋น์ ์ ์ฌ๋์ด๋ผ๋ ํ์คํธ์ ์ง์ ํ์ต๋๋ค. ๐น๏ธ "์ฌ์ฟต" ๋ฒํผ ๋๋ฅด์ จ๋์? ๐โจ | |
์ง์ง ๋๋ฌด ํ๋ณตํด! ์์ฆ ๋ค์ด์ดํธ ์ฑ๊ณตํด์ ๊ธฐ๋ถ์ด ์ข์. | ์์ฐ! ๊ทธ๋ผ ์ด์ "ํฌ์ฐฝ" ํด๋ฝ ๊ฐ์ ์ธ๊ฐ์? ๐ ์ด์ ๋ค์ด์ดํธ๋ "์ฑ๊ณต์ "์ด๊ณ ์์ ๊ฐ์ ๋ ๋ฒจ ์ ! "๊ฐ์" ์ฌ๋ ์ค์ด๋ค! ๐ ๋ชธ๋ ๋ง์๋ ๋ชจ๋ "ํ๋ง" ๋๋ ๊ธฐ๋ถ์ด๊ฒ ์ด! ๐ Keep going, ์น๊ตฌ! ๐ชโจ |
Citation [optional]
BibTeX:
ํ์ต ๋ฐ์ดํฐ์ ์ ๋ํ ์ธ์ฉ ์ ๋ณด์ ๋๋ค.
@misc{huggingface_krew_korean_neologism_2025, title={{ํ๊ตญ์ด ์ ์กฐ์ด ๋ฐ์ดํฐ์
(Korean Neologism Dataset)}}, author={{Hugging Face KREW} and Yoo, Yongsang and Kim, Harheem and Oh, Sungmin}, year={2025}, publisher={Hugging Face KREW}, howpublished={\url{https://huggingface.co/datasets/huggingface-KREW/KoCulture-Dialogues}} }
More Information
- Hugging Face KREW Discord: https://discord.gg/bKh5M7xsXP
- Project Repository: https://github.com/Pseudo-Lab/Hugging-Face-Hub-Garden
Model Card Authors
- Yongsang Yoo (์ ์ฉ์)
- Harheem Kim (๊นํ๋ฆผ)
- Sungmin Oh (์ค์ฑ๋ฏผ)
Model Card Contact
https://github.com/Pseudo-Lab/Hugging-Face-Hub-Garden/issues
- Downloads last month
- 42