File size: 2,657 Bytes
d5f7809 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 |
---
license: apache-2.0
---
# S1-Base: 磐石科学基础大模型
[中文版](./README_zh.md) | [English](./README.md)
## 模型介绍
磐石科学基础大模型(S1-Base),它采用专业科学知识和数据进行训练,是服务于科学任务的通专融合的科学领域多模态大模型,应用于科学推理场景与复杂学科任务。该模型现阶段采用异构混合专家架构,能够根据用户问题自动“路由”至深度定制的语言大模型或领域专用模型(波、谱、场、蛋白质、生物序列等)。
本仓库为 S1-Base 系列中的通用科学大语言模型,它系统地学习并理解 “数理化天地生” 六大基础学科核心理论、定律与专业知识,依托 1.7 亿篇科研论文,在数百万条高质量科学推理数据上经过科学指令微调和多学科复合奖励强化学习训练得到,并通过高中、本科及硕博课程式训练策略逐步强化其学科能力。
该模型共有三个参数量级,分别是 S1-Base-8B,S1-Base-32B 和 S1-Base-671B,其中 S1-Base-8B 和 S1-Base-32B 分别基于 [Qwen3-8B](https://github.com/QwenLM/Qwen3) 和 [Qwen3-32B](https://github.com/QwenLM/Qwen3) 训练得到,S1-Base-671B 基于 [DeepSeek-R1-671B](https://github.com/deepseek-ai/DeepSeek-R1) 训练得到,均支持 32k 上下文。
## 模型权重
S1-Base 模型以 Apache 2.0 协议开源,您可以在 [Huggingface](https://huggingface.co/collections/ScienceOne-AI/s1-base-687a2373fde4791bc6c761f0) 或 [ModelScope](https://modelscope.cn/collections/S1-Base-66b70cf6e51c48) 下载模型权重。
| 模型名称 | Huggingface地址 | ModelScope地址 |
|-------------|-------------------------------------|-------------------------------------|
|S1-Base-8B | [S1-Base-8B](https://huggingface.co/ScienceOne-AI/S1-Base-8B) | [S1-Base-8B](https://modelscope.cn/models/ScienceOne-AI/S1-Base-8B) |
|S1-Base-32B | [S1-Base-32B](https://huggingface.co/ScienceOne-AI/S1-Base-32B) | [S1-Base-32B](https://modelscope.cn/models/ScienceOne-AI/S1-Base-32B) |
|S1-Base-671B | [S1-Base-671B](https://huggingface.co/ScienceOne-AI/S1-Base-671B) | [S1-Base-671B](https://modelscope.cn/models/ScienceOne-AI/S1-Base-671B) |
## 部署方式
我们推荐使用 [vLLM](https://github.com/vllm-project/vllm) 部署 S1-Base,实现高效推理与 OpenAI 兼容的 API 服务。
**快速启动命令示例:**
```bash
pip install vllm
vllm serve <your_s1_model_path> --served-model-name S1-Base-671B
```
API 请求和响应格式与 OpenAI 基本一致,详细可参考 vLLM 官方文档。 |