模型介绍

争议焦点提取助手,输入案情后会总结争议焦点

更多详情请访问:https://github.com/zhucl123/CourtAssistant

基本信息

  • 作者: 智法先锋 from 对外经济贸易大学
  • 类型: Text-Generation
  • 语言: 中文
  • 基底模型: Qwen2.5-7B-Instruct

模型调用

本模型已通过LLAMA.CPP量化为gguf格式,建议使用OLLAMA导入

ollama create courtAssistant <path-to-ca.mf>

或者python使用transformers调用

from transformers import AutoTokenizer, AutoModelForCausalLM

model_id = "zcl123/CourtAssistant"
file_name = "ca.gguf"

tokenizer = AutoTokenizer.from_pretrained(model_id, gguf_file=file_name, clean_up_tokenization_spaces=True)
model = AutoModelForCausalLM.from_pretrained(model_id, gguf_file=file_name)

训练信息

数据集

数据集来源自北大法宝、裁判文书网和人民法院案例库中的民事裁判文书,案由包括合同、物权、侵权等,共2053份。

其中每一份都在文中提及了法院对于争议焦点的总结部分,使用正则表达式+大模型API提取作为数据

预训练数据集结构为:

<当事人辩诉案情> <法院争议焦点>

训练方法

使用LLAMAFACTORY框架,以Qwen2.5-7B-Instruct为基底模型微调

Downloads last month
56
GGUF
Model size
7.62B params
Architecture
qwen2
Hardware compatibility
Log In to view the estimation
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for zcl123/CourtAssistant

Base model

Qwen/Qwen2.5-7B
Quantized
(173)
this model