Saxo commited on
Commit
e54ef1f
·
verified ·
1 Parent(s): c4ffbea

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -30,7 +30,7 @@ pipeline_tag: text-generation
30
  <br>
31
  <br>
32
  <br>
33
- AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성(Saxo) 박사가 gemma-2-27b-it 베이스모델을 H100-80G 8개를 통해 SFT->DPO 파인 튜닝을 한
34
  한글 언어 모델로 한국어-중국어-영어-일본어 교차 학습 데이터와 로지컬 데이터를 통하여 한중일영 언어 교차 증강 처리와 복잡한 한글 논리 문제 역시 대응 가능하도록 훈련한 모델이며 토크나이저는 단어 확장 없이 베이스 모델 그대로 사용.
35
  특히 고객 리뷰나 소셜 포스팅 고차원 분석 및 코딩등이 강화된 모델<br>
36
  -Deepspeed Stage=3, rslora 및 BAdam Layer Mode 사용<br>
@@ -57,7 +57,7 @@ Ko-Helpfulness : 49.12<br>
57
 
58
  <br><br>
59
 
60
- Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics, fine-tuned the gemma-2-27b-it base model with SFT->DPO using four H100-80Gs.
61
  It is a Korean language model trained to handle complex Korean logic problems through Korean-Chinese-English-Japanese cross-training data and logical data, and Tokenizer uses the base model without word expansion.
62
 
63
 
 
30
  <br>
31
  <br>
32
  <br>
33
+ AI 와 빅데이터 분석 전문 기업인 Linkbricks Horizon-AI의 데이터사이언티스트인 지윤성(Saxo) 대표가 gemma-2-27b-it 베이스모델을 H100-80G 8개를 통해 SFT->DPO 파인 튜닝을 한
34
  한글 언어 모델로 한국어-중국어-영어-일본어 교차 학습 데이터와 로지컬 데이터를 통하여 한중일영 언어 교차 증강 처리와 복잡한 한글 논리 문제 역시 대응 가능하도록 훈련한 모델이며 토크나이저는 단어 확장 없이 베이스 모델 그대로 사용.
35
  특히 고객 리뷰나 소셜 포스팅 고차원 분석 및 코딩등이 강화된 모델<br>
36
  -Deepspeed Stage=3, rslora 및 BAdam Layer Mode 사용<br>
 
57
 
58
  <br><br>
59
 
60
+ CEO Yunsung Ji (Saxo), a data scientist at Linkbricks Horizon-AI, a company specializing in AI and big data analytics, fine-tuned the gemma-2-27b-it base model with SFT->DPO using four H100-80Gs.
61
  It is a Korean language model trained to handle complex Korean logic problems through Korean-Chinese-English-Japanese cross-training data and logical data, and Tokenizer uses the base model without word expansion.
62
 
63