|
--- |
|
license: mit |
|
language: |
|
- ko |
|
- en |
|
base_model: |
|
- deepseek-ai/DeepSeek-R1-Distill-Llama-70B |
|
library_name: transformers |
|
--- |
|
# DeepSeek-llama3.3-Bllossom |
|
|
|
DeepSeek-Bllossom Series๋ ๊ธฐ์กด DeepSeek-R1-Distill Series ๋ชจ๋ธ์ language mixing, ๋ค๊ตญ์ด ์ฑ๋ฅ ์ ํ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ์ถ๊ฐ๋ก ํ์ต๋ ๋ชจ๋ธ์
๋๋ค. |
|
|
|
DeepSeek-llama3.3-Bllossom-70B๋ DeepSeek-R1-distill-Llama-70B ๋ชจ๋ธ์ ๋ฒ ์ด์ค๋ก ๊ตฌ์ถ๋ ๋ชจ๋ธ๋ก, ํ๊ตญ์ด ํ๊ฒฝ์์์ ์ถ๋ก ์ฑ๋ฅ ํฅ์์ ๋ชฉํ๋ก ๊ฐ๋ฐ๋์์ต๋๋ค. |
|
|
|
๋ณธ ๋ชจ๋ธ์ UNIVA์ Bllossomํ์ด ํฉ์์ผ๋ก ์ ์ํ ์ฒซ ๋ฒ์งธ ๋ชจ๋ธ์
๋๋ค. |
|
|
|
<div align="center"> |
|
|
|
| **Model** | **Base Model** | **Download** | |
|
| :------------: | :------------: | :------------: | |
|
| DeepSeek-qwen-Bllossom-1.5B | [DeepSeek-R1-Distill-Qwen-1.5B](https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B) | ๊ณต๊ฐ์์ | |
|
| DeepSeek-qwen-Bllossom-7B | [DeepSeek-R1-Distill-Qwen-7B](https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B) | ๊ณต๊ฐ์์ | |
|
| DeepSeek-llama3.1-Bllossom-8B | [DeepSeek-R1-Distill-Llama-8B](https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Llama-8B) | [๐ค HuggingFace](https://huggingface.co/UNIVA-Bllossom/DeepSeek-llama3.1-Bllossom-8B) | |
|
| DeepSeek-qwen-Bllossom-14B | [DeepSeek-R1-Distill-Qwen-14B](https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-14B) | ๊ณต๊ฐ์์ | |
|
| DeepSeek-qwen-Bllossom-32B | [DeepSeek-R1-Distill-Qwen-32B](https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B) | ๊ณต๊ฐ์์ | |
|
| DeepSeek-llama3.3-Bllossom-70B | [DeepSeek-R1-Distill-Llama-70B](https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Llama-70B) | [๐ค HuggingFace](https://huggingface.co/UNIVA-Bllossom/DeepSeek-llama3.3-Bllossom-70B ) | |
|
|
|
</div> |
|
|
|
|
|
|
|
|
|
## 1. Introduction |
|
|
|
DeepSeek-llama3.3-Bllossom-70B๋ DeepSeek-R1-distill-Llama-70B ๋ชจ๋ธ์ ๋ฒ ์ด์ค๋ก ๊ตฌ์ถ๋ ๋ชจ๋ธ๋ก, ๊ธฐ์กด ๋ฒ ์ด์ค ๋ชจ๋ธ์ด ์์ด์ ์ค๊ตญ์ด ์์ฃผ์ ๋ฐ์ดํฐ๋ก ํ์ต๋ ํ๊ณ๋ฅผ ๊ทน๋ณตํ๊ณ ์ ๊ฐ๋ฐ๋์์ต๋๋ค. ํนํ, ๊ธฐ์กด DeepSeek-R1-distill-Llama-70B์ ๊ฒฝ์ฐ ํ๊ตญ์ด๋ก ์ถ๋ก ์ ๋ชจ๋ธ ์ฑ๋ฅ์ด ํฌ๊ฒ ํ๋ฝํ๋ ๋ฌธ์ ๊ฐ ์์๋๋ฐ, DeepSeek-Bllossom์ ์ด ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ๋ด๋ถ ์ฌ๊ณ ๊ณผ์ ์ ์์ด๋ก ์ํํ๊ณ ์ต์ข
์ฌ์ฉ์์๊ฒ ์ ๊ณต๋๋ ์๋ต์ ์
๋ ฅ ์ธ์ด์ ๋ฐ๋ผ ์ถ๋ ฅ๋๋๋ก ์ถ๊ฐ๋ก ํ์ต๋์์ต๋๋ค. ์ด๋ฅผ ํตํด ํ๊ตญ์ด ํ๊ฒฝ์์์ ์ถ๋ก ์ฑ๋ฅ์ด ํฌ๊ฒ ๊ฐ์ ๋์์ต๋๋ค. |
|
|
|
ํ์ต์๋ ํ๊ตญ์ด, ์์ด reasoning ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉํ์์ผ๋ฉฐ, ๊ธฐ์กด DeepSeek-R1 ๋ชจ๋ธ ํ์ต์ ์ฃผ๋ก ์ฌ์ฉ๋ STEM ๋ถ์ผ ๋ฐ์ดํฐ ์ธ์๋ ๋ค์ํ ๋ถ์ผ์ ๋ฐ์ดํฐ๊ฐ ํฌํจ๋์์ต๋๋ค. ๋ฐ์ดํฐ์
์ค๊ณ์ ๋ชจ๋ธ ํ์ต ๊ณผ์ ์์ DeepSeek-llama3.3-Bllossom์ ํ๊ตญ์ด ์ฌ์ฉ ํ๊ฒฝ์์ ๋ ์ ํํ๊ณ ์ ๋ขฐํ ์ ์๋ ์ถ๋ก ๊ฒฐ๊ณผ๋ฅผ ์ ๊ณตํ๋ ๊ฒ์ ์ฃผ๋ ๋ชฉํ๋ก ๊ฐ๋ฐ๋์์ต๋๋ค. |
|
|
|
DeepSeek-Bllossom Series์ ์กฐ๊ธ ๋ ์์ 8B๋ชจ๋ธ์ ์ด๊ณณ์์ ์ฐพ์ ์ ์์ต๋๋ค. [DeepSeek-R1-distill-Llama-Bllossom-8B](https://huggingface.co/UNIVA-Bllossom/DeepSeek-llama3.1-Bllossom-8B) |
|
|
|
--- |
|
|
|
## 2. Post-training |
|
|
|
DeepSeek-llama3.3-Bllossom์ ์์ฒด์ ์ผ๋ก ์ ์ํ ๋ค์ํ reasoning ๋ฐ์ดํฐ๋ฅผ ํ์ฉํ์ฌ post-training ๊ณผ์ ์ ์งํํ์์ต๋๋ค. ์ด ๊ณผ์ ์์๋ ๋๊ท๋ชจ ๋ชจ๋ธ์ด ๋ณด์ ํ ์ฐ์ํ reasoning ๋ฅ๋ ฅ๊ณผ ํ๊ตญ์ด ์ฒ๋ฆฌ ๋ฅ๋ ฅ์ DeepSeek-R1-distill-Llama-70B ๋ชจ๋ธ์ ํจ๊ณผ์ ์ผ๋ก distillationํ๋ ๋ฐฉ๋ฒ์ ์ ์ฉํ์์ต๋๋ค. ์ด๋ฅผ ํตํด ๊ธฐ์กด ๋ชจ๋ธ์ ์ฑ๋ฅ์ ๋ณด์ํ๊ณ , ๋ณตํฉ์ ์ธ ์ถ๋ก ๋ฌธ์ ์ ๋ํด ๋ ์ ํํ๋ฉฐ ์ ๋ขฐํ ์ ์๋ ์๋ต์ ์์ฑํ ์ ์๋๋ก ์ต์ ํํ์์ต๋๋ค. |
|
|
|
--- |
|
|
|
## 3. inference |
|
|
|
```python |
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
import torch |
|
|
|
model = AutoModelForCausalLM.from_pretrained( |
|
"UNIVA-Bllossom/DeepSeek-llama3.3-Bllossom-70B", |
|
torch_dtype="auto", |
|
device_map="auto" |
|
) |
|
tokenizer = AutoTokenizer.from_pretrained("UNIVA-Bllossom/DeepSeek-llama3.3-Bllossom-70B") |
|
|
|
system=''' |
|
You are a highly capable assistant. For every user question, follow these instructions exactly: |
|
1. First, think through the problem step-by-step in English. Enclose all of your internal reasoning between <think> and </think> tags. This chain-of-thought should detail your reasoning process. |
|
2. After the closing </think> tag, provide your final answer. |
|
3. Do not include any additional text or commentary outside of this format. |
|
4. Your output should strictly follow this structure: |
|
|
|
<think> |
|
[Your detailed step-by-step reasoning in English] |
|
</think> |
|
[Your final answer] |
|
''' |
|
|
|
text="์ฒ ์, ์ํฌ, ๋ฏผ์๊ฐ 3ํ์ ๊ฒ์์์ ์ ์๋ฅผ ๋ฐ์์ต๋๋ค. ์ํฌ์ ์ ์๋ ๋ฏผ์์ ์ ์์ ๋ ๋ฐฐ์ด๋ฉฐ, ๋ฏผ์์ ์ ์๋ ์ฒ ์์ 4๋ฐฐ์
๋๋ค. ์ฒ ์๊ฐ 10์ ์ ๋ฐ์๋ค๋ฉด ์ด 3๋ช
์ ํ๊ท ์ ์๋ฅผ ๊ณ์ฐํ์ธ์." |
|
chat = [ |
|
{"role": "system", "content": system}, |
|
{"role": "user", "content": text} |
|
] |
|
|
|
prompt=tokenizer.apply_chat_template(chat, tokenize=False, add_generation_prompt=True) |
|
model_inputs = tokenizer( |
|
prompt, |
|
return_tensors="pt", |
|
add_special_tokens=True |
|
) |
|
|
|
if "token_type_ids" in model_inputs: |
|
del model_inputs["token_type_ids"] |
|
|
|
model_inputs = {k: v.to(model.device) for k, v in model_inputs.items()} |
|
|
|
generated_ids = model.generate( |
|
**model_inputs, |
|
max_new_tokens=8192, |
|
) |
|
|
|
``` |
|
|
|
## 4. ๋ชจ๋ธ ์๋ต ๋น๊ต |
|
|
|
| ์
๋ ฅ (Prompt) | DeepSeek-R1-distill-Llama-70B | DeepSeek-llama3.3-Bllossom-70B | |
|
| ------------- | ----------------------------- | -------------------------- | |
|
| **Alice, Bob, Charlie๊ฐ 3ํ์ ๊ฒ์์์ ์ ์๋ฅผ ๋ฐ์์ต๋๋ค.<br>Alice์ ์ ์๋ Bob์ ์ ์์ ๋ ๋ฐฐ์ด๋ฉฐ, Bob์ ์ ์๋ Charlie์ 4๋ฐฐ์
๋๋ค.<br>Charlie๊ฐ 10์ ์ ๋ฐ์๋ค๋ฉด ์ด 3๋ช
์ ํ๊ท ์ ์๋ฅผ ๊ณ์ฐํ์ธ์.** |<br>Charlie์ ์ ์๋ 10์ ์
๋๋ค.<br>Bob์ ์ ์๋ Charlie์ 4๋ฐฐ์ด๋ฏ๋ก, Bob์ ์ ์๋ <br>$$<br>4 \\times 10 = 40<br>$$<br>์ ์
๋๋ค.<br>Alice์ ์ ์๋ Bob์ ์ ์์ ๋ ๋ฐฐ์ด๋ฏ๋ก, Alice์ ์ ์๋ <br>$$<br>2 \\times 40 = 80<br>$$<br>์ ์
๋๋ค.<br>์ธไบบ็ ์ด ์ ์๋ <br>$$<br>10 + 40 + 80 = 130<br>$$<br>์ ์
๋๋ค.<br>ํ๊ท ์ ์๋ <br>$$<br>\\frac{130}{3} \\approx 43.33$์ ์
๋๋ค.<br>$$<br>\\boxed{43.33}<br>$$<br>Charlie์ ์ ์๋ 10์ ์
๋๋ค. | <br>Charlie์ ์ ์๋ 10์ ์ผ๋ก ์ฃผ์ด์ก์ต๋๋ค. Bob์ ์ ์๋ Charlie์ ์ ์์ 4๋ฐฐ์ด๋ฉฐ, ์ด๋ ๋ค์๊ณผ ๊ฐ์ด ๊ณ์ฐ๋ฉ๋๋ค:<br>$$<br>4 \times 10 = 40<br>$$<br>Alice์ ์ ์๋ Bob์ ์ ์์ ๋ ๋ฐฐ์ด๋ฉฐ, ์ด๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค:<br>$$<br>2 \times 40 = 80<br>$$<br>์ธ ์ฌ๋์ ์ด ์ ์๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค:<br>$$<br>10 + 40 + 80 = 130<br>$$<br>์ด ์ธ ์ฌ๋์ ํ๊ท ์ ์๋ ์ด ์ ์๋ฅผ ์ฌ๋ ์๋ก ๋๋์ด ๊ณ์ฐ๋ฉ๋๋ค:<br>$$<br>\frac{130}{3}<br>$$<br>๋ฐ๋ผ์, ์ด ์ธ ์ฌ๋์ ํ๊ท ์ ์๋ <br>$$<br>\boxed{\dfrac{130}{3}}<br>$$<br>์
๋๋ค. | |
|
| **์์๊ฐ ๋ฌดํํ๋ค๋ ์ฌ์ค์ 3๊ฐ์ง ๋ฐฉ๋ฒ์ผ๋ก ์ฆ๋ช
ํ์์ค.** | <br>ไปฅไธๆฏ็จไธ็งๆนๆณ่ฏๆ็ด ๆฐๆ ้็่ฏฆ็ปๆญฅ้ชค๏ผ<br>### ๆนๆณไธ๏ผๆฌงๅ ้ๅพ็ๅ่ฏๆณ<br>1. **ๅ่ฎพ**๏ผๅ่ฎพ็ด ๆฐๆฏๆ้็๏ผไธๆๆ็ด ๆฐไธบ $ p_1, p_2, p_3, \\ldots, p_n $ใ<br>2. **ๆ้ ๆฐ**๏ผๆ้ ไธไธชๆฐๆฐ $ N = (p_1 \\times p_2 \\times p_3 \\times \\ldots \\times p_n) + 1 $ใ<br>3. **ๅๆN็ๆง่ดจ**๏ผ<br> - ๅฆๆNๆฏ็ด ๆฐ๏ผๅNไธๅจๅๅ่ฎพ็็ด ๆฐๅ่กจไธญ๏ผไธๅ่ฎพ็็พใ<br> - ๅฆๆNๆฏๅๆฐ๏ผๅๅญๅจๆไธช็ด ๆฐ $ p $ ๆด้คNใไฝ็ฑไบN้คไปฅไปปไฝ $ p_i $ ้ฝไฝ1๏ผๆ
$ p $ ไธๅจๅๅ่กจไธญ๏ผๅๆ ท็็พใ<br>4. **็ป่ฎบ**๏ผๅ ๆญค๏ผ็ด ๆฐๅฟ
้กปๆฏๆ ้็ใ<br>### ๆนๆณไบ๏ผ่ดน้ฉฌๆฐ็ๆง่ดจ<br>1. **ๅฎไน**๏ผ่ดน้ฉฌๆฐๅฝขๅฆ $ F_k = 2^{2^k} + 1 $๏ผๅ
ถไธญ $ k $ ไธบ้่ดๆดๆฐใ<br>2. **ๅ่ฎพ**๏ผๅ่ฎพ็ด ๆฐๆฏๆ้็๏ผไธๆๆ็ด ๆฐไธบ $ p_1, p_2, \\ldots, p_n $ใ<br>3. **ๆ้ ่ดน้ฉฌๆฐ**๏ผๅฏนไบๆฏไธช $ k $๏ผๆ้ $ F_k $ใๅฆๆ $ F_k $ ๆฏ็ด ๆฐ๏ผๅไธๅจๅๅ่กจไธญ๏ผๅฆๆๆฏๅๆฐ๏ผๅ
ถ็ด ๅ ๆฐไธๅจๅๅ่กจไธญใ<br>4. **็ป่ฎบ**๏ผๅ ๆญค๏ผ็ด ๆฐๅฟ
้กปๆฏๆ ้็ใ<br>### ๆนๆณไธ๏ผๆฌงๆๅฝๆฐไธ็ด ๆฐๆ ้ๆง<br>1. **ๆฌงๆๅฝๆฐ**๏ผๆฌงๆๅฝๆฐ $ \\phi(n) $ ่กจ็คบๅฐไบ $ n $ ไธไธ $ n $ ไบ่ดจ็ๆฐ็ไธชๆฐใ<br>2. **ๅ่ฎพ**๏ผๅ่ฎพ็ด ๆฐๆ้๏ผ่ฎฐไธบ $ p_1, p_2, \\ldots, p_n $ใ<br>3. **ๆ้ ๆฐ**๏ผ่่ๅฝขๅฆ $ N = p_1^{k_1} p_2^{k_2} \\ldots p_n^{k_n} $ ็ๆฐ๏ผๅ
ถๆฌงๆๅฝๆฐไธบ $ \\phi(N) = N \\prod_{i=1}^{n} \\left(1 - \\frac{1}{p_i}\\right) $ใ<br>4. **ๅๆ**๏ผๅฆๆ็ด ๆฐๆ้๏ผ$ \\prod_{p \\text{็ด ๆฐ}} \\left(1 - \\frac{1}{p}\\right) $ ๆถๆ๏ผไฝๅฎ้
ไธ่ฏฅ็งฏๅๆฃ๏ผๅฏผ่ด็็พใ<br>5. **็ป่ฎบ**๏ผๅ ๆญค๏ผ็ด ๆฐๅฟ
้กปๆฏๆ ้็ใ<br>่ฟไธ็งๆนๆณๅ่ชไปไธๅ็่งๅบฆ่ฏๆไบ็ด ๆฐ็ๆ ้ๆง๏ผๅฑ็คบไบๆฐ่ฎบไธญ็ด ๆฐๆ ้ๆง็ๆทฑๅปๆงใ | <br>์์๊ฐ ๋ฌดํํ๋ค๋ ๊ฒ์ 3๊ฐ์ง ๋ฐฉ๋ฒ์ผ๋ก ์ฆ๋ช
ํ๊ธฐ ์ํด, ์ฐ๋ฆฌ๋ ๋ค์๊ณผ ๊ฐ์ ์ ๊ทผ ๋ฐฉ์์ ์ฌ์ฉํ ์ ์์ต๋๋ค:<br>1. **์ ํด๋ฆฌ๋์ ๋ชจ์ ์ฆ๋ช
**:<br> - **๊ฐ์ **: ์์๋ ์ ํํ ๊ฐ์ $ p_1, p_2, \\dots, p_n $์ด๋ผ๊ณ ๊ฐ์ ํฉ๋๋ค.<br> - **๊ตฌ์ฑ**: $ P = p_1 \\times p_2 \\times \\dots \\times p_n + 1 $์ผ๋ก ์ ์ํฉ๋๋ค.<br> - **๊ฒฐ๋ก **: $ P $๊ฐ ์์์ด๋ฉด, ๊ทธ๊ฒ์ ๋ชฉ๋ก์ ์๋ ์๋ก์ด ์์์
๋๋ค. ๋ง์ฝ $ P $๊ฐ ํฉ์ฑ์์ด๋ฉด, ๊ทธ๊ฒ์ ๋ชฉ๋ก์ ์๋ ์์๋ฅผ ํฌํจํด์ผ ํฉ๋๋ค. ๋ ๊ฒฝ์ฐ ๋ชจ๋ ๊ฐ์ ์ ๋ชจ์๋ฉ๋๋ค. ๋ฐ๋ผ์, ์์๋ ๋ฌดํํฉ๋๋ค.<br>2. **ํฉํ ๋ฆฌ์ผ ์ ๊ทผ๋ฒ**:<br> - **๊ฐ์ **: ์์๋ ์ ํํ ๊ฐ์ $ p_1, p_2, \\dots, p_n $์ด๋ผ๊ณ ๊ฐ์ ํฉ๋๋ค.<br> - **๊ตฌ์ฑ**: $ n! + 1 $์ ๊ณ ๋ คํ์ญ์์ค, ์ฌ๊ธฐ์ $ n $์ ๊ฐ์ฅ ํฐ ์์์
๋๋ค.<br> - **๊ฒฐ๋ก **: $ n! $์ ๋ชจ๋ $ p_i $๋ก ๋๋์ด ๋จ์ด์ง๋ฏ๋ก, $ n! + 1 $์ $ p_i $ ์ค ์ด๋ ๊ฒ๋ ํฌํจํ์ง ์์ต๋๋ค. ๋ง์ฝ $ n! + 1 $์ด ์์์ด๋ฉด, ๊ทธ๊ฒ์ $ n $๋ณด๋ค ํฐ ์๋ก์ด ์์์
๋๋ค. ๋ง์ฝ $ n! + 1 $์ด ํฉ์ฑ์์ด๋ฉด, ๊ทธ๊ฒ์ $ n $๋ณด๋ค ํฐ ์์๋ฅผ ํฌํจํด์ผ ํฉ๋๋ค. ๋ ๊ฒฝ์ฐ ๋ชจ๋ ๊ฐ์ ์ ๋ชจ์๋ฉ๋๋ค. ๋ฐ๋ผ์, ์์๋ ๋ฌดํํฉ๋๋ค.<br>3. **์ค์ผ๋ฌ์ ์ ํ ํจ์ ์ฆ๋ช
**:<br> - **๊ฐ๋
**: ์ค์ผ๋ฌ๋ ์ ํ ํจ์ $ \\zeta(s) = \\sum_{k=1}^\\infty \\frac{1}{k^s} $๊ฐ ์์์ ๋ํ ๊ณฑ์ผ๋ก ํํ๋ ์ ์์์ ๋ณด์์ต๋๋ค: $ \\zeta(s) = \\prod_{p \\text{ ์์}} \\frac{1}{1 - \\frac{1}{p^s}} $.<br> - **๊ฒฐ๋ก **: ๋ง์ฝ ์์๊ฐ ์ ํํ๋ฉด, ๊ณฑ์ ์ ํํด์ผ ํ ๊ฒ์
๋๋ค. ๊ทธ๋ฌ๋ $ s $๊ฐ 1๋ณด๋ค ํฐ ๊ฐ์ ํฅํด ์ ๊ทผํ ๋, $ \\zeta(s) $๋ ๋ฌดํ๋๋ก ๋ฐ์ฐํฉ๋๋ค. ์ด๊ฒ์ ๊ณฑ์ด ๋ฐ์ฐํด์ผ ํจ์ ์๊ตฌํ๋ฉฐ, ๋ฐ๋ผ์ ์์๋ ๋ฌดํํด์ผ ํฉ๋๋ค.<br>๊ฐ ๋ฐฉ๋ฒ์ ์์๊ฐ ๋ฌดํํ๋ค๋ ๊ฒ์ ํ์ฆํ๋ฉฐ, ์๋ก ๋ค๋ฅธ ์ํ์ ์์น์ ๊ธฐ๋ฐ์ ๋ก๋๋ค. ์ ํด๋ฆฌ๋์ ์ฆ๋ช
์ ๋ชจ์์ ์ฌ์ฉํฉ๋๋ค, ํฉํ ๋ฆฌ์ผ ์ ๊ทผ๋ฒ์ ๊ฐ๋จํ ์๋ก ์ ์ฌ์ฉํ๋ฉฐ, ์ค์ผ๋ฌ์ ์ฆ๋ช
์ ํด์์ ์๋ก ์ ๋๊ตฌ๋ฅผ ์ฌ์ฉํฉ๋๋ค. ์ธ ๋ฐฉ๋ฒ ๋ชจ๋ ์์ ๋ฌดํ์ฑ์ ๋ํ ์ดํด๋ฅผ ๊ฐํํฉ๋๋ค. | |
|
## 5. License |
|
|
|
This code repository and the model weights are licensed under the MIT License. |
|
DeepSeek-Bllossom series support commercial use, allow for any modifications and derivative works, including, but not limited to, distillation for training other LLMs. Please note that: |
|
- **DeepSeek-R1-Distill-Llama-70B** is derived from Llama3.3-70B-Instruct and is originally licensed under llama3.3 license. |
|
- **DeepSeek-llama3.3-Bllossom-70B** is derived from DeepSeek-R1-Distill-Llama-70B and is originally licensed under llama3.3 license. |
|
|
|
## 6. Contributor |
|
- **UNIVA AI Team** ([UNIVA](https://univa.co.kr), Main contributor) |
|
- ์ต์ฐฝ์ (์์ธ๊ณผํ๊ธฐ์ ๋ํ๊ต, [MLP์ฐ๊ตฌ์ค](https://sites.google.com/view/aailab) ์์ฌ๊ณผ์ ) |
|
- **์๊ฒฝํ** (KAIST, [MLP์ฐ๊ตฌ์ค](https://sites.google.com/view/aailab) ๊ต์) |
|
|
|
## 7. Contact |
|
If you have any questions, please raise an issue or contact us at [[email protected]]([email protected]). |