5月11日 AIを医学専門へと育てる(4月12日 Nature オンライン掲載総説)
AASJホームページ > 2023年 > 5月 > 11日

5月11日 AIを医学専門へと育てる(4月12日 Nature オンライン掲載総説)

2023年5月11日
SNSシェア

今世界中でChat GPTなど、foundation modelと称される大量のラベルなしデータで学習させ、そのデータの相関を拾って、様々なタスクに対応できるようトランスフォームするAI手法が大きな話題になっている。これは、これまで一つ一つのデータに専門的なタグ付けという膨大な作業が必要だったAI概念を一変させた。

医学領域も例外なくfoundation modelによる変革が起こりつつある。例えばこれまで専門家の正確なタグ付け(例:右下葉に限界がはっきりした陰影があり、大葉性肺炎が疑われるなど、)を必要としたレントゲンフィルムの学習を、極端に言えば異常有り無しだけのタグ付けデータがあれば正確な診断が可能になるというスタンフォード大学からの論文が発表され、レントゲン読影をfoundation modelが自然にこなしていけることが示された。すなわち、私たちが医師に成り立ての頃に学習したのと同じように診断能力をつけていく。

専門家ではない私でも、最近の大きなトレンドを感じることが出来る。そこでいくつかの理由から、foundation modelについて自分の理解を一度まとめようと思ってきた。

まず最も大きな理由は、5年前、患者さんの質問にわかりやすく答えてくれるAIが可能か、何人かの若手情報研究者に聞いてまわったことがある。その時、簡単ではないという答えが圧倒的だったが、Chat GPTは今やそれを実現した。

例えば最近JAMA Internal Medicineに掲載された論文では、専門的ではないが一般の人が聞きそうな問題を、医師とChat GPTに投げかけて、患者さんがどちらの答えに好感を持ったか調べた論文が発表された。言うまでもなく、ChatGPTのほうが丁寧で、しかも患者の気持ちに寄り添っているという結果だった。

おそらく難病患者さんについても十分対応できるようになるだろう。この可能性を聞いて回った若手は限られていたが、現状を見るにつけ、5年前この日が来るのを予測できない若手研究者には少し失望した。

もう一つの理由は、現在行われている議論の多くが、GPTには創造性があるか、倫理性があるかなど、哲学的な話にまで発展していることだが、この議論がカントがヒュームに対して行った反論にとても似ていて、人間の理性とは何かという問題に直結しているからだ。これについては、今、「生命科学の目で読む哲学書」としてまとめている。

いずれにせよ、GPT-4などは、task agnosticと呼ばれ、特定の専門領域へと学習を方向付けることは着手されていない。しかし、私が医学に興味を持ち、医学部で学習し、その後も学習を続けて一定の専門家になるように、foundation modelも医学専門家へと育てる試みが行われるのは、医療や健康に関する消費額を考えると当然のことだ。

今日紹介するスタンフォード大学からの総説は、総合的医学AIを育てるfoundation modelの条件や、それが可能にする世界、さらにその問題についてまで論考した優れた総説で、さすがfoundation modelを最初に提案したスタンフォード大学と感心した。

順を追って紹介して行くと、ガチガチにタグ付けられたデータを必要とするこれまでの医学AIとは全く違う、例えば患者さんの経過とともに検査や画像など異なるモダリティーのデータを学習するとともに、医学を基礎づける文献、知識やグラフなどを、それぞれに表象させたトークンとして学習し、それぞれの関係性の確率をベースに、医師の必要に応じたデータをわかりやすく提示するGMAIと呼ばれるプラットフォームで、おそらく現在建設過程にあるのだと思う。先に述べたようにタグ付けが必要のない自己学習なので、極端に言えば患者さんの様々なレコードを学習するだけで、一般的医師のレベルを十分超える、能力を獲得すると考えられる。しかも、ChatGPTに見られるように、わかりやすい文章で提示したり記録したりしてくれる。

ではGAMIを医療でどう使えるのかについていくつかの例を挙げて説明している。

  1. 新しい画像について、レポートできる。例えば「この患者さんの経過で新しい病巣が発生しているか」と聞くと、画像上で新しい病巣を指しながらせつめいしてくれる。またこれに関する医療データも同時にレポートできる。
  2. 手術時に、経過のビデオをモニターしながら、言葉で手術の問題について指摘してくれる。また手術中に論文から引き出したアプローチについても教えてくれる。
  3. 手術場で役に立つと言うことは、ベッドサイドではもっと助かる。急速な悪化をモニターで検出すると、アラームだけでなく、理由も含めて警告を出し、場合によっては治療法を示唆できる。
  4. 今病院で働いている医師にとって何よりもうれしいのは、患者さんとの会話、検査データなどから、わかりやすい記録を書いてくれることだ。この結果、外来で医師がコンピュータにインプットする時間は完全削減される。例えば退院レポートなどは、勿論医師が後でチェックすることは重要だが、同じ形式で病院でレコード出来る。
  5. 医師だけでなく、患者さんの質問に対してChatGPTよりさらに詳しい、しかしわかりやすい対話が可能だ。特に、難病や希少疾患の場合はわかりやすく説明してもらえるのは重要だ。
  6. 勿論様々な文献にアクセスして引き出してくるので、ガンの遺伝子変異がわかると、蛋白構造まで示され、場合によっては新しい薬剤を使える可能性まで指示できる。

などなど、是非医師の方は自分で読んで未来を確認して欲しい。

ただ問題は、AIをビッグブラザーや神にしないためにも、しっかりと医師コミュニティーでバリデーションを行い、決して鵜呑みにしないことだ。

現在GPT-3だけで、300種類のアプリとリンクしている。おそらく、GMAIはそれぞれの医療現場での利用にあった、もっと多くのアプリとつながっていくだろう。勿論、エネルギーなど様々な問題はあるが、私はポジティブな評価をしている。

折しも、ソフトバンクが、勝ち負けではなくfondation model を日本でも始めることが重要だと述べたことが報道されていた。おそらくこの分野で我が国は大きく後れをとったのだと思う。それでも、始めることが大事だと思う。

カテゴリ:論文ウォッチ