あなたの医師が、病歴に基づいて人工知能を搭載した「ロボットの同僚」と相談して、あなたの健康状態を診断し、薬を処方すると言ったらどうでしょうか?
何十年もの間、医学的診断を機械に委ねるという考えは単なるSFでした。 現在、次のような洗練された言語モデルの出現により、 GPT-3、この可能性はかなり現実のものになる可能性があります。
三万三千と言って
XNUMX 月には、人工知能に関する科学記事が増えています。 それが現れた 先見の明、キングス カレッジ ロンドン (KCL) の研究者によって開発された医療機械学習モデル。
人気の「スマート」チャットボットを強化するモデルである GPT-3 を適切に使用 チャットGPT、および 10 年間の実際の電子医療記録に基づくデータセット。 そして、それは何をしますか? 将来の医療イベントを予測し、リスクを推定し、代替診断を提案し、情報が入力された実際の人間またはシミュレートされた人間の合併症を予測します。

最初の一歩を踏み出した「AIドクター」は彼だけではない。 2022 年末に、Google 発表 の最新の進歩 Med-PaLM、PaLMと呼ばれるその巨大なAlモデルの医療版です。 Med-Palm は、その名前から容易に推測できるように、Web や医学書から取得したテキストでトレーニングされ、医学文書を使用して最適化されています。
ここで、議論はさらに興味深いものになります。 Med-Palm は、長い書面による回答が必要な一般的な医学的質問に答えており、それをテストした (実際の) 医師は非常識な結果を見ています。 私たちがそれについて話し始めたとき、2021 年 75 月の時点で、モデルの精度は XNUMX% でした。 今日、 Med-PaLM の回答の 92,6% は「科学的コンセンサスと一致しています」: 人間の医師による回答よりも 0,3% 少ないだけです。
一部の応答にはまだギャップがあり、モデルを臨床使用する準備が整っていない可能性のある安全性の問題はまだありますが、この AI が急速に進歩していることは明らかです。

これらの AI 医療ツールが診療所や病院で使用される日は、あとどれくらいになるでしょうか?
この一般的な予測に注意してください。それから説明します。 医療 AI モデルは、必要なすべての規則と境界が規制機関によって設定される前に、臨床的な習熟度のレベルに達する可能性があります。
なぜ私はあなたにそれを書いたのですか? おそらく、医療用人工知能の臨床使用に対する最大の障害はプライバシーです。
King's College の Foresight の作成者は、AI のトレーニングに使用された電子カルテから個人を特定できる可能性のある情報をすべて削除したと述べています。 100サンプル未満の希少疾患の存在でさえ。 これにより、患者識別のリスクが排除されます (または少なくとも軽減されます) が、システムの機能も制限されます。
いずれにせよ、タイミングに関する質問に答えるために、技術者は、これらの医療システムの安全性を「ロックダウン」するには、さらに2024年が必要であると述べています. わかりました。XNUMX 年には、これらのガジェットの準備が整います。その時点で (一般的なルールに戻りましょう)彼らの採用は政治的事実にすぎません。 規範的。

個人的な疑問
「ロボットドクター」を使用する前に評価すべきことは、回答の正確性と意思決定プロセスの透明性だけではないと思います。 たとえば、医療用人工知能が「公正」であり、おそらく部分的な「トレーニング」が原因で、特定の人々のグループに対して偏見がないかどうかを理解する必要があります。
繰り返しになりますが、これらの人工知能医療システムが一見正確な答えを導き出すことがある「幻覚」を制限する必要がありますが、悲劇的なエラーによって汚染されています.
いつものように、最後の言葉は私たち次第です。しかし、これらの予備モデルの結果を考えると、それは「もし」ではなく「いつ」の問題です。 医師は間もなく、人工知能によって診断を支援されるようになります。