Update README.md
Browse files
README.md
CHANGED
@@ -30,7 +30,7 @@ pipeline_tag: text-generation
|
|
30 |
<br>
|
31 |
<br>
|
32 |
<br>
|
33 |
-
AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성(Saxo)
|
34 |
한글 언어 모델로 한국어-중국어-영어-일본어 교차 학습 데이터와 로지컬 데이터를 통하여 한중일영 언어 교차 증강 처리와 복잡한 한글 논리 문제 역시 대응 가능하도록 훈련한 모델이며 토크나이저는 단어 확장 없이 베이스 모델 그대로 사용.
|
35 |
특히 고객 리뷰나 소셜 포스팅 고차원 분석 및 코딩등이 강화된 모델<br>
|
36 |
-Deepspeed Stage=3, rslora 및 BAdam Layer Mode 사용<br>
|
@@ -57,7 +57,7 @@ Ko-Helpfulness : 49.12<br>
|
|
57 |
|
58 |
<br><br>
|
59 |
|
60 |
-
|
61 |
It is a Korean language model trained to handle complex Korean logic problems through Korean-Chinese-English-Japanese cross-training data and logical data, and Tokenizer uses the base model without word expansion.
|
62 |
|
63 |
|
|
|
30 |
<br>
|
31 |
<br>
|
32 |
<br>
|
33 |
+
AI 와 빅데이터 분석 전문 기업인 Linkbricks Horizon-AI의 데이터사이언티스트인 지윤성(Saxo) 대표가 gemma-2-27b-it 베이스모델을 H100-80G 8개를 통해 SFT->DPO 파인 튜닝을 한
|
34 |
한글 언어 모델로 한국어-중국어-영어-일본어 교차 학습 데이터와 로지컬 데이터를 통하여 한중일영 언어 교차 증강 처리와 복잡한 한글 논리 문제 역시 대응 가능하도록 훈련한 모델이며 토크나이저는 단어 확장 없이 베이스 모델 그대로 사용.
|
35 |
특히 고객 리뷰나 소셜 포스팅 고차원 분석 및 코딩등이 강화된 모델<br>
|
36 |
-Deepspeed Stage=3, rslora 및 BAdam Layer Mode 사용<br>
|
|
|
57 |
|
58 |
<br><br>
|
59 |
|
60 |
+
CEO Yunsung Ji (Saxo), a data scientist at Linkbricks Horizon-AI, a company specializing in AI and big data analytics, fine-tuned the gemma-2-27b-it base model with SFT->DPO using four H100-80Gs.
|
61 |
It is a Korean language model trained to handle complex Korean logic problems through Korean-Chinese-English-Japanese cross-training data and logical data, and Tokenizer uses the base model without word expansion.
|
62 |
|
63 |
|