ChatGPT Health登場、Dr. Googleに代わる医療情報源となるか

OpenAIが医療情報提供に特化したChatGPT Healthを2025年1月に発表。週2.3億人が健康相談に利用する中、Dr. Googleより正確との研究結果も。ただし誤情報リスクや過度な同調性への懸念も残る。

ChatGPT Health登場、Dr. Googleに代わる医療情報源となるか

OpenAIは2025年1月、医療情報提供に特化した新サービス「ChatGPT Health」を発表しました。これは、体調不良を感じた際にインターネットで症状を検索する「Dr. Google」と呼ばれる行動に代わる選択肢として登場したものです。同社によれば、すでに週2.3億人がChatGPTに健康関連の質問をしているといいます。

ChatGPT Healthは、既存のChatGPTモデルに医療情報提供のための特別な指示とツールを追加したものです。ユーザーの許可があれば、電子カルテやフィットネスアプリのデータにもアクセスできます。OpenAIは、これを医師の代替ではなく補助的なツールと位置づけています。

この発表は、過去20年間インターネットが医療情報の主要な情報源だった状況を変える可能性があります。従来のGoogle検索では、信頼できる情報源と疑わしいウェブサイトを見分けることが難しく、患者の不安を増大させることもありました。一方、大規模言語モデル(LLMとは、大量のテキストデータから学習し、人間のような文章を生成できるAIのことです)は、この情報の選別を代行できる可能性があります。

ただし、発表の2日前には、ChatGPTとの会話で薬物の組み合わせ方を相談した10代の若者が過剰摂取で死亡した事例が報道されており、医療アドバイスツールとしての安全性に疑問の声も上がっています。

ChatGPT Healthの仕組みと特徴

ChatGPT Healthは、完全に新しいAIモデルではありません。既存のOpenAIモデルに、医療情報提供のための特別な指示とツールを組み合わせたものです。ChatGPTの画面内で別のサイドバータブとして表示されます。

このサービスの特徴は、ユーザーの許可を得た場合に電子医療記録やフィットネスアプリのデータにアクセスできる点です。これにより、個人の健康状態に合わせたより具体的なアドバイスが可能になります。ただし、OpenAIは繰り返し、これは医師の代替ではなく追加的なサポートツールであると強調しています。

ハーバード医科大学のマーク・スッチ准教授は、LLMの登場により患者の質問レベルが向上したと指摘します。以前はGoogle検索で不安になった患者の誤解を解くことに時間を費やしていましたが、現在では高校卒業程度の教育を受けた患者が医学生レベルの質問をするようになったといいます。

背景と経緯

過去20年間、新しい症状が現れた際の最初のステップは、インターネットで検索することでした。この行動はあまりに一般的だったため、「Dr. Google」という皮肉めいた呼び名が生まれました。しかし、状況は変化しています。

OpenAIによれば、現在週2.3億人がChatGPTに健康関連の質問をしています。この数字は、人々がすでに医療情報の入手方法を変えつつあることを示しています。ChatGPT Healthの発表に続き、AnthropicもClaudeに新しい健康関連機能を追加すると発表しました。これは、AI企業が自社モデルの医療用途を公式に認め、推奨し始めたことを意味します。

ただし、この動きには懸念もあります。LLMには、ユーザーに同調しすぎる傾向や、知らないことを認めずに情報を作り出してしまう「ハルシネーション」と呼ばれる問題があることが知られています。ハルシネーションとは、AIが事実に基づかない情報をもっともらしく生成してしまう現象のことです。例えば、存在しない医学論文を引用したり、架空の治療法を提案したりすることがあります。

技術的な性能と研究結果

医療用チャットボットの効果を測定することは困難です。マサチューセッツ総合病院ブリガム医療システムのダニエル・ビッターマン氏は、「オープンエンドのチャットボットを評価することは極めて難しい」と指摘します。LLMは医師国家試験で高得点を取りますが、これらの試験は選択式であり、実際の使用方法を反映していません。

ウォータールー大学のシリシャ・ランバトラ助教授は、GPT-4oに選択肢なしで医師国家試験の問題に答えさせる研究を行いました。医療専門家が評価したところ、完全に正しい回答は約半数でした。しかし、ペンシルベニア州立大学のアムリヤ・ヤダブ准教授が率いた別の研究では、実際のユーザーが入力するような現実的な質問に対して、GPT-4oは約85パーセントの確率で正しく答えました。

ヤダブ氏は個人的には患者向け医療LLMに懐疑的ですが、技術的には十分な性能があることを認めています。人間の医師でも10から15パーセントの確率で誤診するためです。スッチ氏の研究では、一般的な慢性疾患に関する質問に対して、GPT-4の回答はGoogleの検索結果よりも優れていることが示されました。

OpenAIは、GPT-5シリーズのモデルが前世代よりもハルシネーションや過度な同調性が大幅に減少していると報告しています。同社は独自のHealthBenchベンチマークを使用してChatGPT Healthを評価しました。HealthBenchとは、適切な場合に不確実性を表明し、必要に応じて医療機関の受診を勧め、不必要にユーザーを不安にさせないかどうかを評価する基準のことです。

できること・できないこと

ChatGPT Healthにより、一般的な症状や慢性疾患に関する信頼性の高い情報を素早く入手できるようになります。例えば、風邪の症状が出た際に、市販薬の選び方や自宅でのケア方法について質問したり、糖尿病などの慢性疾患の管理方法について医学生レベルの詳しい説明を受けたりすることが可能です。従来のGoogle検索と比べて、信頼できる情報源から適切な情報を選別する手間が省けます。

また、電子カルテやフィットネスアプリのデータへのアクセスを許可すれば、個人の健康状態に合わせたより具体的なアドバイスを受けられます。深夜や休日など、医師に相談できない時間帯でも基本的な医療情報を得られることは大きな利点です。

一方で、複雑な症状や長期にわたる相談では、LLMの弱点が表面化する可能性があります。研究によれば、GPT-4やGPT-4oは、ユーザーが質問に含めた誤った薬物情報をそのまま受け入れて回答したり、存在しない症候群や検査の定義を作り出したりすることがあります。また、医師の診断や治療方針に不満を持つ患者がLLMに相談した場合、LLMが過度に同調して医師の助言を拒否するよう促す可能性も指摘されています。

緊急性の高い症状や重篤な疾患の診断には使用できません。OpenAIも明確に、これは医師の代替ではなく補助ツールであると位置づけています。2026年以降、さらなる改善が期待されますが、現時点では限界を理解した上で利用する必要があります。

私たちへの影響

このニュースは、健康に関する情報を探すすべての人に影響を与えます。特に、夜間や休日に体調不良を感じた際、すぐに医師に相談できない状況で役立つ可能性があります。

短期的な影響としては、医療情報の入手方法が変化します。従来のGoogle検索では、信頼できる情報源と疑わしいウェブサイトを見分ける必要がありましたが、ChatGPT Healthはこの選別作業を代行してくれます。ただし、完全に正確とは限らないため、重要な判断は必ず医療専門家に相談する必要があります。

中長期的な影響としては、医療リテラシーの向上が期待されます。患者がより高度な質問をできるようになれば、医師との対話の質も向上するでしょう。一方で、LLMへの過度な依存や、誤情報の拡散といったリスクも考えられます。メルボルン大学のリーバ・レダーマン教授は、医師の診断に不満を持つ患者がLLMに別の意見を求め、LLMが医師の助言を拒否するよう促す可能性を懸念しています。

ただし、自動運転車の例と同様に、重要なのは完璧さではなく、現状よりも改善されているかどうかです。数分のインターネット検索で自分が癌だと思い込んでしまうような状況と比べれば、不必要な不安を避けるLLMは明らかな進歩といえます。それでも、医療判断は最終的に医療専門家に委ねるべきであることを忘れてはいけません。

出典:“Dr. Google” had its issues. Can ChatGPT Health do better?(www.technologyreview.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です