
AIが医師の診断を支援する時代──医師の役割はどう変わるのか
📚 目次
はじめに──「AIに仕事を奪われる」という不安の正体
「AIが進歩したら、医師はいらなくなるのではないか」──こうした声を、患者さんからも医療関係者からも耳にするようになりました。将棋の世界ではAIがプロ棋士を圧倒し、法律文書の作成もAIが代替しつつあります。ならば医療も同じではないか。そう考えるのは自然なことかもしれません。
しかし、日々患者さんと向き合い、臨床の現場でAIを活用している医師の立場から言えば、答えは単純ではありません。AIが医療を大きく変えることは間違いない。しかし医師の役割はなくなるのではなく「変容」するのです。本記事では、医療AIの現状を概観し、AIがもたらす変化のなかで医師に何が求められるようになるのかをお伝えします。
第1章 医療AIは今、どこまで来ているのか
画像診断──AIが最も力を発揮している分野
医療AIが最も実用化の進んでいる分野は画像診断です。CT、MRI、X線、内視鏡画像などをAIが解析し、病変を自動的に指摘するシステムが多くの医療機関で導入されています。FDA(米国食品医薬品局)は2025年時点で950を超えるAI搭載医療機器を承認しており[1]、日本でも2022年の診療報酬改定でAIが「画像診断管理加算3」の要件に組み込まれるなど、制度面の整備も進んでいます[2]。
内視鏡画像から早期がんを検出するAI、胸部X線写真から肺炎を見つけるAI、眼底写真から糖尿病網膜症を判定するAI──これらはすでに臨床現場で医師の「もうひとつの目」として機能しています。全身CT画像を10秒以内に解析する救急向けAI「ERATS」のように、一刻を争う場面での活用も始まっています[3]。
問診・カルテ作成──事務作業からの解放
画像診断以外にも、AIの活躍の場は広がっています。診療中の医師と患者のやりとりを音声認識で自動テキスト化しカルテに反映させるシステムや、看護記録を音声入力で作成する「看護音声入力生成AI」が実運用を開始した施設もあります[3]。看護師の記録業務は一人あたり1日平均94分とされ[3]、こうした負担をAIが軽減できれば、医療者が患者さんと向き合う時間を確保できるようになります。
診断支援──「セカンドオピニオン」としてのAI
大規模言語モデル(LLM)の登場により、AIはテキスト情報の理解と生成もできるようになりました。症状や検査結果をもとに鑑別診断リストを提示したり、ガイドラインに基づく治療選択肢を提案したりするAIが試験導入されています[4]。患者がAIに症状を入力すると適切な診療科を案内するシステムも、海外では実用化が進んでいます[4]。
それでも、導入率はまだ低い
しかし現実はまだ道半ばです。2025年の調査によれば、国内医療機関の72%がAIを「まだ導入していない」と回答しています[5]。
| 医療AI分野 | 導入率(2025年) |
|---|---|
| 画像診断支援 | 13.3% |
| ゲノム医療 | 9.7% |
| 診断・治療支援 | 9.1% |
| 手術支援 | 7.3% |
| 未導入 | 72% |
地域の診療所では94.3%が未導入です[5]。最大の障壁は「費用対効果がわからない」(51%)という経済的な不透明さであり、技術よりも制度や環境の整備が課題となっています[5]。
第2章 AIにできること、AIにできないこと
AIの強み──膨大なデータ処理と一貫性
AIの強みは明確です。何万枚もの画像を疲れることなく一定の基準で判定し続けることは人間には困難ですが、AIには可能です。夜勤明けの疲労や外来の混雑に判断力が左右されることもありません。537にものぼる国内の診療ガイドラインをすべて把握し続けることは医師には不可能に近いですが、AIにはさほど困難ではありません[4]。
・膨大な画像を一定基準で判定し続ける一貫性
・疲労や時間的制約に左右されない安定した判断力
・最新のガイドラインや文献を常時反映した知識ベース
・反復的な事務作業(カルテ記載・文書作成など)の自動化
AIの限界──「文脈」を読む力、「共感」する力
一方、現在のAIには根本的な限界があります。同じ疾患でも、80歳の独居高齢者と30歳の子育て世代では最適な治療方針は異なります。患者さんの生活背景や価値観、人生の歩みを総合的に汲み取って「この方にとっての最善」を考えることは、今のAIにはできません。
さらに、AIは「説明」はできても「共感」はできません。がん告知を受けた患者さんの沈黙の意味を読み取ること、言葉にならない不安を察すること──これらは人間にしかできない営みです。
加えて「責任の所在」の問題もあります。AIの判断が誤った場合に誰が責任を取るのか。最終判断と責任を人間の医師が担う構造は当面変わりません[6]。
また、深層学習AIには「ブラックボックス」問題があります。米国デューク大学病院の敗血症予測AI「Sepsis Watch」では、AIがアラートを出しても根拠が不明瞭なため医師が適切に活用できないケースが報告されました[7]。技術的に優れたAIも、人間が信頼し活用できなければ意味がないのです。
AIは統計的パターンに基づく判断は得意ですが、個々の患者の「人生の文脈」を理解することはできません。AIの出力を過信せず、臨床的判断と組み合わせることが不可欠です。
第3章 AI時代に医師の役割はどう変わるのか
「知識の番人」から「意味の翻訳者」へ
これまで医師は専門知識の「門番」でした。しかしAIがその知識を代替できるようになった今、求められる役割は変わりつつあります。ある医学雑誌の特集では、これからの医師には「問題解決のOS(知能)」だけでなく「意味を汲み取るOS(意識)」が必要だと指摘されています[8]。
AIが「5年生存率は〇〇%」と提示したとき、その数字をそのまま伝えるだけでは不十分です。それがこの患者さんの人生にどう影響するのか、どんな選択肢があるのか──そうした「意味の翻訳」こそが、AI時代の医師の核心的な役割になります。
「チームの指揮者」としての医師
医療はすでに医師一人で完結しません。看護師、薬剤師、理学療法士、ソーシャルワーカーのチームにAIが加わる時代です。医師はAIの情報を咀嚼し、各専門職の知見と統合し、患者の意向を踏まえた方針を導く「指揮者」の能力が求められます[9]。AIを盲信するのでも否定するのでもなく、「使いこなす」力が問われるのです。
「共感者」としての医師
患者さんが最も求めるのは、正確な情報だけではありません。自分の苦しみをわかってくれる存在、つまり「共感」です[9]。AIが診断を補助してくれるからこそ、医師はその分の時間と心のリソースを患者さんとの対話に充てられます。
一方、患者さん自身がAIで情報を得る時代には、「この先生はAIが言っていたことを言わない」と疑われることもあり得ます[10]。情報を共有し、対等なコミュニケーションのなかで治療方針を決める関係性が、これまで以上に大切になります。
① 意味の翻訳者:AIのデータを患者の人生の文脈に落とし込む
② チームの指揮者:AI・多職種の情報を統合し最善の方針を導く
③ 共感者:患者の苦しみに寄り添い、ともに悩む
④ 倫理的判断者:アルゴリズムでは答えが出ない問いに向き合う
「倫理的判断者」としての医師
延命治療を続けるか、緩和ケアに切り替えるか。限られた医療資源をどう配分するか。こうした倫理的判断はアルゴリズムには委ねられません。AI時代の医師には、医学に加えて倫理学や哲学といった人文科学的素養がこれまで以上に求められるでしょう[9]。
第4章 患者さんにとって医療はどう良くなるのか
AIの導入で最も恩恵を受けるのは患者さんです。微小な病変のAI検出によりがんの早期発見率は向上し、専門医の少ない地域でもAIが画像診断を支援することで医療格差の縮小が期待されます[2]。事務作業のAI代替により待ち時間が短縮され、医師が一人ひとりにかけられる時間が増えることも大きな変化です。
・AIが「問題なし」と判断しても、体に違和感があれば必ず医師に相談しましょう
・インターネット上の一般的なAIチャットと、医療用に承認されたAIは根本的に異なります
・AIの情報はあくまで「参考」であり、最終的な判断は医師と相談のうえで行うことが大切です
第5章 未来を見据えて
医師に求められる新しいスキル
AI時代の医師には、AIの仕組みと限界を理解する「AIリテラシー」、データを患者にわかりやすく伝える「コミュニケーション能力」、そしてAIの情報・患者の訴え・社会的背景のすべてを統合する「統合的判断力」が不可欠です[6]。
医学教育も変わる必要があります。知識の暗記よりも、AIの出力を解釈する能力、患者中心のコミュニケーション、倫理的思考力の育成が柱になるべきでしょう[9]。
AI時代に求められる医師のスキル一覧(クリックして展開)
| スキル領域 | 具体的内容 |
|---|---|
| AIリテラシー | AIの仕組み・限界の理解、出力の批判的評価、適切な活用判断 |
| コミュニケーション | AIのデータをわかりやすく伝える力、共感的傾聴、Shared Decision Making |
| 統合的判断力 | AI出力・身体所見・患者の意向・社会的背景を統合した意思決定 |
| 倫理的思考力 | 正解のない問いへの向き合い方、患者の価値観の尊重、公正な資源配分 |
| 多職種連携力 | AIを含むチーム全体のマネジメント、情報共有とリーダーシップ |
社会制度としての備え
AIが関与した医療事故の責任の所在、アルゴリズムの透明性確保、患者データのプライバシー保護──こうした課題について社会全体で議論を深める必要があります[11]。AIの恩恵を大規模病院だけでなく地域医療にも届ける施策も重要です。AIが医療格差を解消するのか新たな格差を生むのかは、技術ではなく社会の選択の問題です。
おわりに──AIは「敵」ではなく「最良のパートナー」
AIは聴診器やCTスキャンと同じ「道具」です。聴診器の登場で医師が不要になったわけではなく、むしろ能力が拡張されました。AIも同様です。世界医師会(WMA)やアメリカ医師会(AMA)もAIを「Augmented Intelligence(拡張知能)」と位置づけ、医師との協働を推奨しています[12]。
・医療AIは画像診断を中心に急速に実用化が進んでいるが、国内導入率はまだ約3割にとどまる
・AIは膨大なデータ処理に優れる一方、患者の「文脈」の理解や「共感」は人間にしかできない
・AI時代の医師には「意味の翻訳者」「チームの指揮者」「共感者」「倫理的判断者」としての役割が求められる
・AIは医師の仕事を奪う「敵」ではなく、能力を拡張する「最良のパートナー」である
AIに仕事を奪われるのではなく、AIを上手に活用する医師が、そうでない医師に取って代わる──これが最も現実的な未来像でしょう。
そしてその未来で患者さんにとって大切な存在であり続けるために、医師は技術を超えた「人間としての力」──共感し、寄り添い、ともに悩む力──を磨き続けることが何より重要です。AIが優秀であればあるほど、最後に患者さんが求めるのは人間の医師の言葉であり、まなざしであり、存在そのものなのだと、日々の臨床で実感しています。

