AASJホームページ > 新着情報 > 論文ウォッチ > 3月25日 大規模言語モデルと患者さんのインターフェース(3月12日 Nature Medicine オンライン掲載論文)

3月25日 大規模言語モデルと患者さんのインターフェース(3月12日 Nature Medicine オンライン掲載論文)

2026年3月25日
SNSシェア

希少疾患の場合、専門家の数は極めて少ないため、患者さんは最先端の情報を得ることがなかなか出来なかった。ところが ChatGPT をはじめとする膨大な量のテキストを学習した大規模言語モデルの登場で、ある程度知識があれば最新の研究情報にアクセスすることができるようになった。即ち、我々のように頼まれて文献を調べ、そこから信頼できる情報を提供するという役目はほぼ終わりに近づいていると実感している。

まさに LLM により専門家の必要がなくなる例と言えるが、逆に人手が足りないという悲鳴が上がっている分野では LLM が状況を変えてくれる可能性がある。そんな領域が精神科領域で、うつ病でも、自閉症スペクトラムでも、訓練を受けて患者さんのメンタルケアを請負い、また様々な行動療法を実際に行う医療スタッフは世界中で足りていない。ただ GPT-4 や Gemini といった LLM をそのまま患者さんの相談相手にするのは問題が多い。

今日紹介する Limbic というベンチャー企業からの論文は、うつ病などを対象に、患者さんの言葉をまず受け取って感情や安全性を考慮した新しいプロンプトに変えてから、一般LLM にインプット、更にはLLM からのアウトプットも治療に適した安全な物かを検閲し、そうでない場合は治療に適した指針が出るまでこのループを繰り返すことの出来るAIを設計し、臨床的に検証した研究で、3月12日 Nature Medicine にオンライン掲載された。タイトルは「A cognitive layer architecture to support large-language model performance in psychotherapy interactions(精神療法時に、大規模言語モデルのパーフォーマンスをサポートする認知レーヤの構築)」だ。

通常 LLM を特定の目的に合わせるには、ファインチューニングやプロンプトチューニングが行われるが、この研究ではローカル AI を用いて一般LLM と患者さんのインターフェースに用いることで、臨床からの要求を包括的に満たす方向を選んでいる。

実際には53448種類のラベルのついたデータを学習させた AI を確立し、患者さんの言葉をこのモデルを通すことでまず LLM にインプットしたとき異常な答えが出ないような問いに変換し、これに薬剤や精神治療のレコード、また患者さんの感情など精神行動的パターンを統合して、500ワードほどの専門家の言葉に変換出来るようにしている。これを一般LLM にインプットするが、そのときも LLM に私は精神療法の専門家であるというカスタム指示を行った上で、インプットしている。

こうして得られた LLM のアウトプットを、やはり危険性がないか、現在行っている治療に即しているかなどをチェックして、もし問題があるともう一度プロンプトを書き直してLLMに戻すサイクルが出来るようにし、最終結果をメッセージとして患者さんに戻している。まさに医療に即したローカルAI を完成させている。

この研究では特に精神疾患の患者さんをリクルートしたわけではなく、このシステムが精神治療として使えるかどうかをテストする意味で集めており、例えば気分が安定したなどのウェルビーイングの感覚を評価して貰っている。

研究では、1)精神療法士へのコンサルテーション、2)GPT-4、Gemini、Llama等の LLM と直接対話、そして、3)ローカルAI を LLM に統合したモデルの3グループに被検者を分け、答えを評価して貰っている。さらに、専門家にも3者の答えを評価させている。

驚くのは、専門家が評価した場合、CLAと名付けられた新しいモデルが圧倒的に高い評価を得ただけでなく、直接 LLM に聞いた場合も、専門の精神療法士の答えより優れていると評価された点で、現在のLLM のレベルの高さを示している。

しかし、一般の被検者に評価させた場合、新しいCLAと精神療法士への評価は大体同じで、特に人間的絆を感じるかという点ではやはり精神療法士のほうが信頼感が持てるようだ。

最後にウェッブ上で利用して貰う形で、精神のコンサルテーションを希望する人に使って貰い評価して貰う大規模テストを行い、実際の精神的問題にも対応できることを示している。

以上が結果で、今後は特定の患者さんを対象にして治験を行うことになるが、現場の目的に合わせたローカルAI の開発が、医療の人手不足を多くク改善する可能性を持っていることがよくわかった。日本でも医療系の LLM を作成したと言ったニュースを見かけるが、LLM 自体を作り直すだけが重要ではないことがよくわかる論文だと思う。

  1. okazaki yoshihisa より:

    一般の被検者に評価させた場合、新しいCLAと精神療法士への評価は大体同じで、特に人間的絆を感じるかという点ではやはり精神療法士のほうが信頼感が持てるようだ。
    imp.
    精神科はAIに最も侵食されない科と考えられていますが、、
    果たしてどうなるんでしょうか?

    1. nishikawa より:

      私は最も役に立つ分野と考えています

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

*


reCaptcha の認証期間が終了しました。ページを再読み込みしてください。