SIP-med-LLM/SIP-jmed-llm-2-8x13b-OP-instructのバージョン1.0.0をGGUF変換し、量子化したものです。

元モデルの入手

HF形式のモデルをローカルにhf downloadし、 足りないtokeninzer.modelファイルはllm-jp/llm-jp-tokenizerllm-jp-tokenizer-100k.ver3.0b1.modelを移植しています。

GGUF変換

参考:Tutorial: How to convert HuggingFace model to GGUF format [UPDATED]

convert_hf_to_gguf_update.pymodels {"name": "default", "tokt": TOKENIZER_TYPE.SPM, "repo": "/LOCAL/REPOSITORY/FOLDER", }, を追加し、convert_hf_to_gguf_update.py実行。

convert_hf_to_gguf.pyではclass LlamaModelmodify_tensorsメソッドの 最後でレイヤー名 *gate.weight*gate_inp.weight に再変換するロジックを追加。【最新のllama.cppでは不要になりました】

python convert_hf_to_gguf.pyでGGUFへ変換しました。

iMatrix生成

iMatrixの生成は TFMC/imatrix-dataset-for-japanese-llmc4_en_ja_imatrix.txtを使用しました。 原著はllama.cpp:iMatrix量子化は日本語性能にどう影響するか? です。

モデルの詳細

モデルの詳細は量子化前のモデルの説明を参照ください。

念のため「使用目的と制限事項」のみ転記しておきます。


使用目的と制限事項

このモデルは「安全性・信頼性を持つオープンな医療 LLM の開発・社会実装」における研究開発プロトタイプとして開発されました。現段階では研究開発目的のみでの使用を想定しており、実際の臨床現場における疾患の診断や臨床意思決定支援として直接利用することは推奨されません。

制限事項

  • 本モデルは研究開発段階のプロトタイプであり、実臨床における安全性・有効性の検証は十分に行われていません。
  • 開発者は、本プログラムに関し、その正確性、完全性、最新性、および品質など、いかなる保証も行わず、利用者が本プログラムを利用したこと、利用できなかったことにより生じた一切の損害について責任を負いません。
  • 医療行為(診断、治療方針の決定、健康への助言など)に直接適用することは推奨されません。あくまで医療専門家による適切な判断の補助となる情報提供ツールとしての利用可能性を探る研究段階にあります。
Downloads last month
30
GGUF
Model size
73B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for hiratagoh/SIP-jmed-llm-2-8x13b-OP-instruct-GGUF

Quantized
(3)
this model

Dataset used to train hiratagoh/SIP-jmed-llm-2-8x13b-OP-instruct-GGUF