生成AIを医療に用いる方法開発についての様々な論文がトップジャーナルに掲載されるようになってきたが、ここまで来るとあまり新味を感じない。ただ、多くの人に利用できるように学習を済ませた生成AIモデルの数が増えるのと平行して、医療や医学教育が急速に変わっていくことが予想できる。
さらに今日紹介するロンドン大学からの論文が示すように、既存のAIモデルを利用して、専門分野の画像を学習させ、チューニングすることで、例えば網膜の画像から病気をかなりの精度で予測できるモデルを簡単に作れるとすると、変革の速度は想像以上になると考えられる。論文のタイトルは「A foundation model for generalizable disease detection from retinal images(網膜が像からの病気診断を一般化できる基礎モデル)」で、9月13日 Nature にオンライン掲載された。
研究自体は他の生成AI論文と変わるところはあまりない。既に、7月14日 GoogleのPaLMをベースに医学のquestion&answerを学習させ、最後に専門家がプロットを書いた内容によるIntruction fine tuningを行うことで、米国医師国家試験に85%の回答率で通過し、さらに専門家に匹敵するチャットボットが可能なMed PaLMについて紹介した。(https://aasj.jp/news/watch/22520)。
この研究は、階層化されて集められた画像の生成AI、ImageNetに、眼科で一般的に行われる網膜画像検査のカラー画像、及びOCT(Optical coherence tomography)検査のイメージを、masked autorencoding(虫食いの画像を見せて完全画像を完成させる一種のクイズ的学習方法)と呼ばれる方法で事前学習させ、後は診断のついた画像でファインチューニングすることで、糖尿病性網膜症、緑内障などはほとんど確実に診断できる生成AIモデルが出来るという話だ。
既存の画像生成AIから専門のモデルを作れるのかといぶかしく感じられるかも知れないが、既存のAIもかなりすごい。例えばユニバーサルな画像生成AI、DALLEに、糖尿病性網膜症の眼底画像とインすると、たちまちこんな画像が出てくる。
ユニバーサルの画像AIもすごいのだ。だから、これを専門的画像だけで学習させ、少ない数の答えのわかった画像でファインチューニングするだけで、実用的な画像診断モデルができあがる。
この可能性は既に、スタンフォード大学から胸部X線写真で示され、この論文が出たときアノテーションなしにレントゲンをともかく読み込ませるtransformer/attemtopmの生成AIの力に驚いた。
以上から考えると、今回の論文は当たり前の話で、わざわざNatureが取り上げるほどかとも思ってしまうが、これまで網膜画像が診断に使われなかった、心臓疾患やパーキンソン病のような他臓器の疾患まで、網膜で診断できる可能性、及び年齢や人種に影響されにくい診断へと発展できることを示した点は重要だと思う。
ここで用いられたmasked autoencodingを用いた学習と、最後の答えを教えるチューニングのコストについて、この研究ではNNIDIAの16GのGPU一つだけ備えたPCで、かなり短期間の努力で、このぐらいの精度のモデルを形成できることを示した点でも重要だと思う。
要するに、あらゆる専門分野が、一般の生成AIとリンクされる時代がそこに来ていることが実感できた。