SIP-med-LLM/SIP-jmed-llm-2-8x13b-OP-instructのバージョン1.0.0をGGUF変換し、量子化したものです。
元モデルの入手
HF形式のモデルをローカルにhf downloadし、
足りないtokeninzer.modelファイルはllm-jp/llm-jp-tokenizerの
llm-jp-tokenizer-100k.ver3.0b1.modelを移植しています。
GGUF変換
参考:Tutorial: How to convert HuggingFace model to GGUF format [UPDATED]
convert_hf_to_gguf_update.pyのmodelsに {"name": "default", "tokt": TOKENIZER_TYPE.SPM, "repo": "/LOCAL/REPOSITORY/FOLDER", },
を追加し、convert_hf_to_gguf_update.py実行。
【最新のllama.cppでは不要になりました】convert_hf_to_gguf.pyではclass LlamaModelのmodify_tensorsメソッドの
最後でレイヤー名 *gate.weightを*gate_inp.weight に再変換するロジックを追加。
python convert_hf_to_gguf.pyでGGUFへ変換しました。
iMatrix生成
iMatrixの生成は
TFMC/imatrix-dataset-for-japanese-llm
のc4_en_ja_imatrix.txtを使用しました。
原著はllama.cpp:iMatrix量子化は日本語性能にどう影響するか?
です。
モデルの詳細
モデルの詳細は量子化前のモデルの説明を参照ください。
念のため「使用目的と制限事項」のみ転記しておきます。
使用目的と制限事項
このモデルは「安全性・信頼性を持つオープンな医療 LLM の開発・社会実装」における研究開発プロトタイプとして開発されました。現段階では研究開発目的のみでの使用を想定しており、実際の臨床現場における疾患の診断や臨床意思決定支援として直接利用することは推奨されません。
制限事項
- 本モデルは研究開発段階のプロトタイプであり、実臨床における安全性・有効性の検証は十分に行われていません。
- 開発者は、本プログラムに関し、その正確性、完全性、最新性、および品質など、いかなる保証も行わず、利用者が本プログラムを利用したこと、利用できなかったことにより生じた一切の損害について責任を負いません。
- 医療行為(診断、治療方針の決定、健康への助言など)に直接適用することは推奨されません。あくまで医療専門家による適切な判断の補助となる情報提供ツールとしての利用可能性を探る研究段階にあります。
- Downloads last month
- 30
4-bit
Model tree for hiratagoh/SIP-jmed-llm-2-8x13b-OP-instruct-GGUF
Base model
SIP-med-LLM/SIP-jmed-llm-2-8x13b-OP-instruct