4月8日に病理組織像をインプットすると、病理の異常のレポートを書いてくれる、病理診断大規模言語モデル(LLM)―CONCHについて紹介したが覚えていただけているだろうか(https://aasj.jp/news/watch/24258)。実を言うと、トップジャーナルに毎日毎日 LLM の論文が発表されるため、私の頭の中でも混乱が始まり、何を紹介し何を紹介しなかったのか、わからなくなってきている。
レントゲンや内視鏡など、それまで教師付で形成されてきた AI モデルが、急速に LLM モデルに移ってきているので、当然病理組織診断でも同じ動きがあるのは当然だ。ただ、病理組織の場合、画像としては複雑で、正確な診断レポートが LLM モデルから得られるようになるにはまだまだ時間がかかることを、このとき紹介した。
今日紹介するマイクロソフトとワシントン大学からの論文は、基本的には4月に紹介した論文と目的は完全に同じだ。ただ、病理レポートを書かせるという点は後回しにして、画像を読み込んだ LLM のポテンシャルを、もう少し簡単なアウトプットを基礎に評価し、読み込んだ画像で何ができるのかを調べるのを優先した研究で、5月22日 Nature にオンライン掲載された。タイトルは「A whole-slide foundation model for digital pathology from real-world data(実際のデータから形成した、スライドグラス全体を基盤にしたデジタル病理)」だ。
4月に紹介した論文と違いの主なものは、病理組織を 252X252 のコマに分けて、それぞれのタイルをエンベッディングした後、これを統合してスライド全体レベルのエンベッディングを組み合わせる点で、具体的な処理方法はわからないが、部分的な変化と全体の変化が同時に捉えられるようにしている。
全体を見ることで、組織の中に秘められたより複雑なコンテクストが読み取れるようで、最も驚くのはガンのゲノム変異を組織からある程度予測できるという結果だ。例えば、EGF 受容体変異については AUROC 値が75%、KRASで60%、p53 変異で75%と驚く。他にも PD―L1 発現も同じレベルで予測できる。当然ガン遺伝子の変異は細胞レベルの変化を誘導し、それが組織レベルの変化につながるはずで、かなりの確率でゲノム変異を予測できる可能性はある。実際、この研究では他のモデルと今回のモデルの比較を行って、このモデルが優れていることを示しているが、そのことはこれまでの病理診断 AI も同じようにガン遺伝子変異に起因する組織変化を一定程度拾うことに成功していることになる。
おそらく優れた病理診断医の中には、組織を見るだけでガンのドライバーを予測できる人もいるはずだと思うが、感じても言うことは難しかったと思う。その意味で LLM が病理診断の可能性を広げていることになる。
後は、ガンのサブタイプで、例えば肺ガンでも非小細胞性肺ガンであるとか、浸潤性乳がんと行った診断もかなりの確率で可能になることを示している。
そして最後に、contrastive learning を用いて病理組織についての診断記述が書けるようにしているが、これまでの部分に注目する方法と異なり、こスライド全体を見渡すアテンションと、ChatGPT によるテキスト処理を合体させているのが特徴のようだ。これにより他のモデルと比べ大分パフォーマンスは上がったと結論しているが、病理医の診断レベルにはまだ行っていないと思う。
以上が結果で、AI の進歩を感じるとともに、病理診断の難しさも感じることが出来る。実際の診断現場では倍率を頻回に変えるが、このように必要に応じて部分の部分を見ると言った調べ方が自然に AI に身につくか面白い領域だと思う。