A newer version of this model is available:
haebo/meow-clovax-v3
🐾 Meow-CLOVAX-v2
Meow-CLOVAX-v2는 감정 및 동물 말투 스타일 변환을 목표로 개발된 한국어 중심의 경량 LLM입니다.
사용자의 텍스트를 다양한 감정 및 동물(고양이/강아지) 말투로 자연스럽게 변환하는 SNS형 스타일 변환 시스템을 위해 파인튜닝된 모델입니다.
🧪 본 모델은
naver-hyperclovax/HyperCLOVAX-SEED-Text-Instruct-1.5B
를 기반으로 Supervised Finetuning(SFT) 방식으로 학습되었습니다.
nick_name : haebo/Meow-HyperCLOVAX-1.5B_SFT-FFT_fp32_0629cfe
🧠 Model Details
항목 | 설명 |
---|---|
Base Model | HyperCLOVAX-SEED-Text-Instruct-1.5B |
Fine-tuning Method | Supervised Finetuning (SFT) |
Model Type | Decoder-only |
Language | Korean (primary) |
Parameters | 1.5B |
Precision | fp16 / fp32 |
Version | v2 |
Framework | Transformers |
license | hyperclovax-seed |
📦 Training Details
- Dataset: 감정 및 동물 말투에 따라 수집·합성된 style transfer 데이터셋 (비공개)
- 각 샘플은
content
,emotion
,post_type
,transformed_content
필드로 구성된 jsonl 데이터셋
- 각 샘플은
- Task: Instruct-style fine-tuning (prompt → transformed response)
- Prompt 구조:
- system: "너는 동물 유형과 감정에 맞게 문장을 자연스럽게 변환하는 전문가야."
- user: "다음 문장을 [감정] [동물] 말투로 바꿔줘.\nInput: ...\nOutput:"
- assistant: 변환문 + EOS
- Epochs: 3
- Evaluation: BLEU, KoBERTScore, Perplexity, Quality Score, Type Score, 수동 평가 등 사용
- Training Infrastructure: Google Colab Pro+ (A100)
- Instruction Infrastructure: Google Colab Pro+ (T4) / GCP T4
🎯 Intended Use
- 감정 기반 말투 변환 서비스 (예: 고양이 말투 + 화남 → “왜 건드냐옹! 안 건드렸으면 좋겠다옹!”)
- 사용자 글의 의미를 최대한 유지하는 방향으로 변환
- SNS 캐릭터 보정, 댓글 자동 응답, 감정 기반 챗봇 등에 활용 가능
- 사용자 프롬프트 스타일 변경 or 톤 조정 등에 활용
⚠️ Limitations
- 사실 기반 생성보다는 말투 스타일링에 초점을 맞춤
- 부정확하거나 비논리적인 문장을 생성할 수 있음
- 실제 감정 상태 분석은 수행하지 않음
- 정재되지 않은 입력(비문, 링크, 이모지)에 대해 이상한 문장을 생성할 수 있음
🛠️ How to Use
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "haebo/meow-clovax-v3"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
prompt = (
"<|system|>\n"
"너는 동물 유형과 감정에 맞게 문장을 자연스럽게 변환하는 전문가야.\n"
"<|user|>\n"
"다음 문장을 happy cat 말투로 바꿔줘.\n"
"Input: 오늘은 정말 좋은 하루였어!\n"
"Output:\n"
"<|assistant|>\n"
)
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=400)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
🧪 평가 기준 및 자동화
- BLEU Score: n-gram 기반 표면 유사도 (0~1, 높을수록 유사)
- KoBERTScore: 의미적 유사도(BERT 임베딩, 0.8↑ 의미 유사)
- Perplexity: 언어모델 자연스러움(60~180 구간 1.0점)
- Quality Score: 금지어, 반복, 허용 문자, 이모지 등 서비스 품질
- Type Score: 목표 동물 말투 패턴 일치(1.0: 완벽, 0.2: 혼합, 0.1: 반대, 0: 없음)
- 데이터 클랜징: 한글/영문/숫자/주요구두점/이모지만 허용, URL·불용문자·다중공백·과도반복 제거
🗂️ 데이터셋 설명
본 프로젝트의 데이터셋은 감정 및 동물 말투 스타일 변환을 위해 설계된 한국어 jsonl 포맷입니다. 각 샘플은 다음과 같은 4개 필드로 구성되어 있습니다.
필드명 | 설명 | 예시 값 |
---|---|---|
content |
원본 문장 (일상 한국어) | 오늘은 정말 좋은 하루였어. |
emotion |
감정 레이블 (영문) | happy |
post_type |
동물 유형 (영문) | cat |
transformed_content |
감정 및 동물 말투로 변환된 문장 | 오늘은 정말 좋은 하루였다냥! 😸 |
- 사용된 데이터셋
본 모델의 파인튜닝에는 여러 단계의 데이터셋을 통합·정제한 최종 데이터셋이 사용되었습니다.
본 데이터셋은 실제 유저/댓글/합성 데이터를 통합·정제하여, 다양한 감정과 동물 말투 변환에 최적화되어 있습니다.
총 샘플 수: 15,698개 (원문: 2,038개)
포함 데이터:
- dataset_0515_made (342개): 초기 유저 데이터
- dataset_0527_made (818개): 유저 게시글 기반 감정별/동물별 데이터
- dataset_0530_made (2,986개): 감정별 증폭된 게시글 기반 데이터
- dataset_0613_made (681개): 유저 댓글 입력에 대한 규칙 기반 변환(cat)
- dataset_0620_made (681개): 유저 댓글 입력에 대한 규칙 기반 변환(dog)
- dataset_0622_made (17,596개): Gemini로 생성된 합성 인풋 말투 변환
주된 구성: 유저 데이터, 댓글 데이터, 합성 데이터 문장 등 다양한 유형 포함
전처리 사항:
- 중복 제거
- 필터링 반영
감정 범위: normal, happy, sad, grumpy, curious, angry (6종)
동물 유형: cat, dog (2종)
데이터 구조:
- 각 샘플은
content
,emotion
,post_type
,transformed_content
필드로 구성된 JSONL 포맷
- 각 샘플은
특징:
- 다양한 길이/유형의 문장 포함
- content/emotion/post_type/transformed_content의 4필드로 구성
- Jsonl 형태의 데이터
예시
{
"content": "내 얘기는 듣지도 않고 자기 말만 계속하네. 너무 화나서 그냥 나와버렸다.",
"emotion": "angry",
"post_type": "dog",
"transformed_content": "흥! 내 얄미운 녀석, 또 자기 말만 하는거냐왈! 😾 너무 화가 나서 그냥 나왔다 멍!🔥"
}
- Downloads last month
- 38
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support