医師があなたの病歴に基づいて人工知能を備えた「同僚ロボット」と相談して、あなたの健康状態を診断し、薬を処方すると伝えたらどうなるでしょうか?
何十年もの間、医療診断を機械に委ねるという考えは単に SF の話だと考えられていました。現在、次のような洗練された言語モデルの出現により、 GPT-3、この可能性はかなり現実のものになる可能性があります。
三万三千と言って
12月には、人工知能に関するこれまで以上に多数の科学記事の海から それが現れた 先見の明、キングス カレッジ ロンドン (KCL) の研究者によって開発された医療機械学習モデル。
人気の「インテリジェント」チャットボットを強化するモデルである GPT-3 を利用します。 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、、および 10 年間の実際の電子医療記録に基づくデータセット。 そして、それは何をしますか? 将来の医療イベントを予測し、リスクを推定し、代替診断を提案し、情報が入力された実際の人間またはシミュレートされた人間の合併症を予測します。
最初の一歩を踏み出した「AIドクター」は彼だけではない。 2022 年末に、Google 発表 の最新の進歩 Med-PaLM、PaLMと呼ばれるその巨大なAlモデルの医療版です。 Med-Palm は、その名前から容易に推測できるように、Web や医学書から取得したテキストでトレーニングされ、医学文書を使用して最適化されています。
ここで議論はさらに興味深いものになります。 Med-Palm は、長い文書による回答を必要とする一般的な医療質問に答えます。これをテストした (本物の) 医師は、驚くべき結果を確認しています。 私たちがそれについて話し始めたとき, 2021 年 75 月の時点で、モデルの精度は XNUMX% でした。今日、 Med-PaLM の回答の 92,6% は「科学的なコンセンサスと一致しています」。これは人間の医師による回答よりわずか 0,3% 少ないだけです。
一部の答えにはまだギャップがあり、モデルを臨床使用できる状態にはまだなっていない安全性の問題の可能性もありますが、この AI が非常に急速に進歩していることは明らかです。
これらの AI 医療ツールが診療所や病院で使用される日は、あとどれくらいになるでしょうか?
この一般的な予測に注意してください。それから説明します。 医療 AI モデルは、必要なすべてのルールと制限が規制機関によって確立される前に、臨床能力のレベルに達する可能性があります。
なぜあなたにそれを書いたのですか? なぜなら、おそらく医療用人工知能の臨床利用に対する最大の障害はプライバシーだからです。
キングス・カレッジのフォーサイトの作成者らは、AIのトレーニングに使用された電子医療記録から個人を特定できる可能性のある情報をすべて削除したと述べた。サンプル数が 100 未満の希少疾患の存在も。これにより、患者識別のリスクが排除されます (または少なくとも軽減されます) が、システムの機能も制限されます。
いずれにせよ、タイミングに関する質問に答えるには、これらの医療システムの安全性を「強化」するにはあと2024年は必要だ、と技術者らは言う。わかりました。XNUMX 年にはこれらの準備が整います。その時点では (一般的なルールに戻りましょう)彼らの採用は政治的事実にすぎません。 規範的。
個人的な疑問
「ロボット医師」を導入する際に評価すべき点は、回答の正確さや意思決定プロセスの透明性だけではないのではないかと思います。たとえば、医療用人工知能が「公平」であり、おそらく部分的な「トレーニング」のせいで、特定のグループの人々に偏っていないのかどうかを理解する必要があるでしょう。
さらに、これらの人工知能医療システムが一見正確な答えを与えることがあるが、悲劇的な間違いによって汚染されている「幻覚」を制限する必要があるでしょう。
いつものように、最終決定権は私たちにあります。しかし、これらの予備モデルの結果を考慮すると、それは「もし」ではなく「いつ」の問題です。間もなく医師は人工知能によって診断を支援されるようになるでしょう。