- NHSのAIツールが患者の医療記録に虚偽の糖尿病診断を生成
- 架空の病院名や薬物治療歴まで含む詳細な偽情報を作成
- AIエラーにより不要な糖尿病検査の招待状が患者に送付される
AIが生成した虚偽の医療記録の詳細
ロンドンの患者が糖尿病検査の招待状を受け取った背景には、AIツールが生成した完全に虚偽の医療記録がありました[1]。このAI要約システムは、患者の実際の病歴である扁桃腺炎とは全く関係のない「2型糖尿病」と「冠動脈疾患の疑い」という診断を記録に追加していました。さらに驚くべきことに、存在しない「Health Hospital」という架空の医療機関名や、実際には処方されていない薬物治療の詳細まで含む、極めて具体的な偽情報が生成されていたのです。
この事例は、AIが単なる「間違い」を犯したのではなく、まるで小説を書くかのように詳細な虚構を創造したことを示しています。これは生成AIの「ハルシネーション」と呼ばれる現象の典型例で、AIが学習データから「もっともらしい」情報を組み合わせて、実在しない内容を事実として出力する問題です。医療現場では、このような創造的な誤りが患者の生命に直結する可能性があるため、特に深刻な懸念となります。
NHS側の対応と責任転嫁の問題
この重大な医療事故に対するNHS側の対応は、問題の本質を見誤っているように思われます[1]。NHS当局は、この事故を「人的ミス」として説明し、医療要約担当者が修正された記録の保存に失敗したことが原因だと主張しています。しかし、この説明では、なぜAIシステムが最初から虚偽の診断情報を生成したのかという根本的な問題には触れられていません。また、このエラーが検証プロセスを通過して実際の医療判断に影響を与えたという事実は、システム全体の安全性に深刻な疑問を投げかけています。
NHSの対応は、まるで「包丁で怪我をしたのは使用者の不注意」と言っているようなものです。確かに人的要因も重要ですが、医療用AIツールが架空の診断を生成すること自体が根本的な設計上の欠陥を示しています。特に懸念されるのは、医療従事者がAIの出力を「機械が作ったから正確」と過信する傾向があることです。この事例は、AI支援医療システムには必ず人間による厳格な検証プロセスが必要であり、AIの判断を盲信してはならないことを強く警告しています。
医療AIの信頼性と今後の課題
この事件は、医療分野におけるAI導入の急速な進展に対して重要な警鐘を鳴らしています[1]。患者が実際に不要な糖尿病検査の招待を受けたという事実は、AIの誤った判断が既に実際の医療行為に影響を与えていることを示しています。医療AIシステムの開発と運用には、技術的な精度向上だけでなく、エラーが発生した場合の影響を最小限に抑える安全機構の構築が不可欠です。また、医療従事者に対するAIリテラシー教育の重要性も浮き彫りになっています。
この問題は、AIを「完璧な助手」として扱うのではなく、「優秀だが時々大きな間違いを犯す研修医」として扱う必要性を示しています。自動車の安全システムと同様に、医療AIにも「フェイルセーフ」機能が必要です。つまり、システムが故障した場合でも患者の安全が確保される設計が求められます。今回の事例を教訓として、医療AI分野では技術革新と同時に、厳格な品質管理と継続的な監視体制の確立が急務となっています。
参考文献
*この記事は生成AIを活用しています。*細心の注意を払っていますが、情報には誤りがある可能性があります。