SilverCareAI-14B
一个为结构化健康数据分析和医疗问答而生的140亿参数专家模型
模型详情
SilverCareAI-14B 是一个基于强大的 Qwen/Qwen1.5-14B
基座模型,经过精心微调的大语言模型。它被专业地设计用于在医疗健康领域执行两大核心功能:
- 结构化健康报告生成: 模型能够出色地将结构化的、甚至是缺失不全的健康数据,转换为一份精确、全面的JSON格式报告。这包括根据预设的算法逻辑生成诊断、计算健康评分,并提供具有可操作性的健康建议。
- 医疗问答: 模型同样在一个通用的医疗问答数据集上进行了微调,使其能够作为一个知识渊博、富有同理心的医疗助手,回答用户的普适性健康咨询。
本模型的开发旨在填补原始临床数据与可操作、人类可读的洞察之间的鸿沟,使其成为健康科技应用、个人健康看板及相关研究平台的理想工具。
核心特性:
- 高保真结构化输出: 可靠地生成遵循严格预定义模式的有效JSON对象。
- 复杂指令遵循: 在一份高度详细的“规格式”系统提示词上进行微调,使其能够遵循复杂的算法逻辑进行诊断和评分。
- 稳健的缺失数据处理: 能够优雅地处理不完整的输入,它会跳过相应的分析,而非捏造信息(幻觉)。
- 强大的双语基础: 继承了其基座模型
Qwen1.5-14B
卓越的中文和英文能力。
如何使用
本模型是一个经过聊天微调的模型,期望输入遵循 ChatML 对话模板。为了获得最佳效果,使用tokenizer.apply_chat_template
至关重要。
以下是一个完整的、用于生成健康报告的Python使用示例:
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
# 使用您模型的Hugging Face ID
model_id = "yushan7kokomi/SilverCareAI-14B"
# 为了便于访问,我们使用4-bit量化加载模型
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
model_id,
device_map="auto",
torch_dtype=torch.bfloat16,
trust_remote_code=True,
load_in_4bit=True,
)
# 1. 定义系统提示词 (应与训练时使用的版本完全一致)
system_prompt = """
# [System Command: Health Report Generation Engine v2.2 - Anti-Hallucination]
# ... (此处省略完整的系统提示词内容)
"""
# 2. 准备用户输入数据
user_input_data = """
请根据以下体检数据生成健康报告JSON:
- demographics: age=45, gender=1
- vitals: blood_pressure=138/88, blood_glucose=160, bmi=30.2
- physical_status: 容易疲劳, 近期体重增加
- patient_query: 我最近经常觉得白天很疲惫...
"""
# 3. 构建messages对话列表
messages = [
{"role": "system", "content": system_prompt},
{"role": "user", "content": user_input_data}
]
# 4. 应用对话模板进行格式化
prompt_str = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
inputs = tokenizer(prompt_str, return_tensors="pt").to(model.device)
# 5. 生成回复
outputs = model.generate(
**inputs,
max_new_tokens=512,
do_sample=True,
temperature=0.1,
top_p=0.95,
eos_token_id=tokenizer.eos_token_id
)
# 6. 解码并仅提取新生成的内容
response_ids = outputs[len(inputs["input_ids"]):]
response_text = tokenizer.decode(response_ids, skip_special_tokens=True)
print(response_text)
# 期望的输出是一个纯净的JSON字符串
用途、限制与偏见
预期用途
本模型主要面向需要自动化处理和解读健康数据的开发者与研究人员。潜在用例包括:
- 驱动个人健康管理应用的后台。
- 为临床医生提供自动化生成的初步报告以供审核。
- 在健康与保健类App中提供第一线的、信息性的问答服务。
- 在医学领域,进行应用大语言模型进行结构化数据分析的研究。
范围外用途
【警告】: 本模型不是医疗专业人员,也不是诊断工具。它不提供医疗建议。其生成的输出仅用于信息处理和参考目的,绝对不能替代与合格医疗保健提供者的咨询。任何使用本模型的应用都应包含清晰、显著的免责声明。
局限性与偏见
- 事实准确性: 尽管经过微调,模型仍可能出现错误,尤其是在精确的数值边界条件下(例如,区分BMI为29.9和30.0)。在关键应用中,其输出应得到验证。
- 知识截止日期: 模型的知识仅限于其训练数据和基座模型
Qwen1.5-14B
的预训练知识。它不知道训练日期之后的最新医学进展。 - 偏见: 模型可能反映其训练数据中存在的偏见。在部署到任何面向用户的应用之前,都应仔细评估其公平性和公正性。
训练详情
SilverCareAI-14B 使用 LLaMA Factory 框架,在一个定制化的数据集上进行了微调。训练过程采用了 QLoRA 技术,在云端GPU实例(如V100/A100)上实现了高效的参数微调。
微调数据主要包括两种类型:
- 高质量的结构化健康数据记录,与其对应的JSON报告配对,旨在教会模型算法推理能力。
- 一套全面的通用医疗问答对,以增强其对话式知识。
如何引用
如果您在您的研究或应用中使用了本模型,请考虑引用:
@misc{silvercareai14b,
author = {yushan7kokomi},
title = {SilverCareAI-14B: 一个为结构化健康数据分析而生的微调语言模型},
year = {2025},
publisher = {Hugging Face},
journal = {Hugging Face repository},
howpublished = {\url{https://huggingface.co/yushan7kokomi/SilverCareAI-14B}}
}
- Downloads last month
- 13
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support