Kaz-K commited on
Commit
cd5dd16
·
verified ·
1 Parent(s): ecb6624

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +76 -0
README.md ADDED
@@ -0,0 +1,76 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ language:
4
+ - ja
5
+ base_model:
6
+ - llm-jp/llm-jp-3.1-8x13b
7
+ ---
8
+ # SIP-med-LLM/SIP-jmed-llm-3-8x13b-OP-4k-base
9
+
10
+ このモデルは、<b>戦略的イノベーション創造プログラム(SIP)第 3 期課題「統合型ヘルスケアシステムの構築における生成 AI 活用」テーマ1「安全性・信頼性を持つオープンな医療 LLM の開発・社会実装」</b>において研究開発された、医療特化型 LLM のオープンソースライセンス・モデル(`Apache-2.0`)です。
11
+
12
+ #### プロジェクトページ: https://sip3.ncgm.go.jp/
13
+
14
+ ## モデルの特性
15
+
16
+ - `SIP-jmed-llm-3-8x13b-OP-4k-base` は、ベースモデルである `llm-jp/llm-jp-3-8x13b` に対して、医学分野の知識を取り扱えるようにドメイン適応目的の継続事前学習を施した大規模言語モデルです。
17
+ - 本モデルは、指示チューニングを施す前のベースモデルとして提供されています。個々の研究開発者が特定のダウンストリームタスクのための指示チューニング等を行うことによって、指示追従性や対話応答が可能になることを想定しています。
18
+
19
+ ## モデルの概要
20
+
21
+ - **ベースモデル**: [llm-jp/llm-jp-3-8x13b](https://huggingface.co/llm-jp/llm-jp-3-8x13b)に対して、SIPプロジェクトで収集した0.3T汎用コーパスで事前学習を実施したモデル
22
+ - **モデルタイプ**: トランスフォーマーベースの言語モデル
23
+ - **言語**: 日本語・英語
24
+ - **ライセンス**: Apache-2.0
25
+ - **開発者**: SIP 第 3 期 テーマ 1 研究開発チーム
26
+
27
+ ## 使用目的と制限事項
28
+
29
+ このモデルは「安全性・信頼性を持つオープンな医療 LLM の開発・社会実装」における研究開発プロトタイプとして開発されました。**現段階では研究開発目的のみでの使用を想定しており、実際の臨床現場における疾患の診断や臨床意思決定支援として直接利用することは推奨されません。**
30
+
31
+ #### 制限事項
32
+
33
+ - **本モデルは研究開発段階のプロトタイプであり、実臨床における安全性・有効性の検証は十分に行われていません。**
34
+ - 開発者は、本プログラムに関し、その正確性、完全性、最新性、および品質など、いかなる保証も行わず、利用者が本プログラムを利用したこと、利用できなかったことにより生じた一切の損害について責任を負いません。
35
+ - **医療行為(診断、治療方針の決定、健康への助言など)に直接適用することは推奨されません。あくまで医療専門家による適切な判断の補助となる情報提供ツールとしての利用可能性を探る研究段階にあります。**
36
+ - **公開しているモデルを活用して「具体的な製品」を開発される場合、その製品が医療機器プログラムとして薬機法の規制対象となる可能性があることにご留意ください。**
37
+ - プログラム医療機器の該当性に関する相談窓口:
38
+ - [独立行政法人医薬品医療機器総合機構(PMDA; Pharmaceuticals and Medical Devices Agency)](https://www.pmda.go.jp/review-services/f2f-pre/strategies/0011.html)
39
+
40
+
41
+ ## 学習データ
42
+
43
+ 本モデルは以下のデータセットを用いて、ベースモデルを追加事前学習することにより開発されました:
44
+
45
+ ### 追加事前学習用データセット
46
+
47
+ 追加事前学習用データセットとして、主に以下の内容からなる医療系コーパス(トークン数 78.3B)を用いました。
48
+
49
+ ### 文書種別
50
+
51
+ - 医学生物学論文フルテキスト
52
+ - 医学生物学論文アブストラクト
53
+ - 医療系Webクロールデータ
54
+ - 学術研究レポート
55
+ - 医学教科書
56
+ - 薬剤添付文書
57
+ - 専門機関発行文書:
58
+ - 学会発行の診療ガイドライン
59
+ - 医療機関・行政機関による医療関連文書
60
+ - 製薬企業等による医療情報・医薬品情報
61
+ - ベンチマークの学習用データセット:医師国家試験過去問(2006年から2017年までの12年分)、USMLE過去問を含む
62
+
63
+ ### 指示チューニング用データセット
64
+
65
+ 本モデルは指示チューニングを施す前のベースモデルとして提供されています。
66
+
67
+ ## 技術仕様の詳細
68
+
69
+ トークナイザーなどの詳細な技術仕様については、[llm-jp/llm-jp-3-8x13b](https://huggingface.co/llm-jp/llm-jp-3-8x13b)のページを参照してください。
70
+
71
+ ## メンテナンス情報
72
+
73
+ - リリース日: 2025 年 10 月 13 日
74
+ - 最終更新日: 2025 年 10 月 13 日
75
+ - バージョン: 1.0.0
76
+ - 問い合わせ先: [[email protected]]([email protected]) へご連絡ください。