医療AIの文化的実装 — 社会制度と文化の視点から考える導入の意義と課題 | 研究プログラム | 東京財団

東京財団

詳細検索

東京財団

医療AIの文化的実装 — 社会制度と文化の視点から考える導入の意義と課題
画像提供:Getty Images

医療AIの文化的実装 — 社会制度と文化の視点から考える導入の意義と課題

May 30, 2025

 X-2025-026 

1.はじめに
2. 医師-患者関係論から見る医療の社会的役割
3. 医療文化人類学の視点:医療を取り巻く文化的文脈
4. 医療分野におけるAIの主な応用と意義
5. 医療AIの社会文化的・倫理的課題
6.「文化的実装」としての医療AI融合
7. 今後の展望と人材育成
8. おわりに

1.はじめに

人工知能(AI)技術、特に機械学習、ディープラーニング、大規模言語モデル(LLM)は、医療分野に大きな変革をもたらす潜在力を有し、医療提供の質や患者の予後を向上させる可能性が指摘されている[1][2][3]。医療AIの歴史は1970年代後半のエキスパートシステムに遡るが、近年のビッグデータ利用と技術的進歩により実用化が飛躍的に進んでいる。サウジアラビアでは、中国企業との連携により、AI医師が患者の問診から診療提案まで行う試験的クリニックが開設したという報道もある[4]。本稿では、古典的な医師―患者関係論を振り返り、医療AIの最前線での活用状況、それに伴う社会文化的および倫理的課題、そして「文化的実装」の重要性について、医療文化人類学およびAI実装を進めている産業側の視点から論じる。

2.医師-患者関係論から見る医療の社会的役割

医療は単なる技術的行為ではなく、社会的な役割体系の中で機能している。T.パーソンズ(Talcott PARSONS)の提唱した「病人役割」論はその古典的な例である[5]。彼の理論モデルでは、医師は基本的に利他的な専門職であり、普遍化・標準化された医学知識と技術を駆使して患者を治療し、病気という社会的逸脱状態にある患者を社会に復帰させる責務を負う。一方、患者(病人)は日常生活上の通常の義務から一時的に免除される権利を得るが、自らのため、ひいては社会のために回復に努める義務を負う。このように、医師と患者がそれぞれの役割を全うすることで医療システムは維持され、ひいては社会秩序の安定に寄与するというのがパーソンズの見立てだった。医師—患者関係は単なる個人間のやりとりではなく、社会制度として規定された役割の相互作用なのである。

もっとも、パーソンズのモデルは理想化された機能主義的図式であり、その後の医療社会学では医師と患者の力関係の不均衡や、医療現場における主観的経験にも注目が集まった[6]。例えば、精神医療の領域では、医師による診断行為が患者への「逸脱者レッテル貼り」となり、かえって患者の社会復帰を阻害する側面があることが指摘された。しかしながら、パーソンズの枠組みが示したように医療が社会的制度として人々の行動を方向づける役割を持つことは現代においても重要な示唆である。医療従事者と患者はそれぞれ社会から期待される振る舞い(役割像:behaviour)を背負っており、新しい技術が導入される際にもこの役割関係にどう組み込まれるかを考える必要がある。

3.医療文化人類学の視点:医療を取り巻く文化的文脈

一方で、医療は各社会の文化的文脈の中で営まれる人間的な営為でもある。医療人類学(文化人類学の一分野)の基本的立場によれば、病気や健康、身体、生や死といった現象はすべて社会的・文化的脈絡の中で意味づけられる。そして医療における行為は、社会的・文化的要素によって大きく規定される人間の行為である[7]。いかに科学的に見える現代医療であっても、その実践には文化的価値観や象徴が織り込まれている。

例えば、医師が白衣を着用すること、病院での対面診療の重視、患者がお辞儀や敬語で医師に接する態度など、これらは日本の医療文化に根差した振る舞いと言えるだろう。医療人類学はまた、病や治療の捉え方が文化ごとに異なることを明らかにしてきた。ある社会では呪術的儀礼が治癒につながると信じられ、別の社会では最新の医療機器こそが信頼の拠り所となる。つまり「医療」という行為そのものが一枚岩ではなく、文化的多様性を持つのである。

加えて、人類学者たちは病気の経験を分析する際に、生物学的な病態そのものを指す「疾病(disease)」、患者が主観的に感じる「病い(illness)」、そして社会的に承認された病人という状態である「病気(sickness)」という区分を提唱している[8]。パーソンズの病人役割論が焦点を当てたのは主に社会的次元の「病気(sickness)」であり、そこでは患者は公式に「病人」として扱われる代わりに回復の義務を負う。しかし人類学的視点を加味すれば、その背景には患者本人の主観的体験(illness)や文化固有の病因論・治癒論、健康概念が存在することが分かる[9]

現代医療にAIが導入される意義を考える際も、このような文化的文脈を無視することはできない。技術が優れていれば即座に受け入れられるわけではなく、患者や医療者の抱く価値観や信念と調和して初めて現場に根付くのである。

4.医療分野におけるAIの主な応用と意義

AIは診断支援、特に画像診断分野で目覚ましい進展を見せており、CT、MRI、病理画像などの解析において、疾患の早期発見や精度向上に貢献している。例えば、AIアルゴリズムが乳がんを94%の感度で検出したのに対し、放射線科医の感度は88%であったとの報告があり、診断補助におけるAIの有用性が示唆される[10]。また、ウェアラブルデバイスから得られるデータを用いたデジタルバイオマーカーの探索や、生成AIによる高品質な医療画像の合成、LLMを活用した臨床記録の要約や患者とのコミュニケーション支援も期待されている。さらに、AIは創薬プロセスの加速や、在宅医療・介護分野においても、見守りやケアプラン提案などでの活用が見込まれている。

これらの技術的進展は、診断・治療の高度化、医療現場の効率化、医療アクセスの拡大という形で医療に貢献し、医療が本来的にもつ「病める人を社会に復帰させる」という社会的役割の達成を支援するものである。

5.医療AIの社会文化的・倫理的課題

一方で、医療AIの導入と普及には、以下のような社会文化的・倫理的課題がある[11]

① 信頼性、透明性、説明可能性(XAI)

AI、特にディープラーニングモデルの意思決定プロセスは「ブラックボックス」化しがちであり、判断根拠の不透明さが医療における信頼性の観点から問題となる。AIの判断根拠を人間が理解し検証できるExplainable AI(XAI)の研究開発が重要であり、これによりAIの決定に対する人間中心の説明を創出し、医療におけるAIのよりシームレスな利用促進が期待される[12]。信頼できるAIシステムは、妥当性と信頼性を基盤とし、説明責任と透明性が不可欠である。

② データの質、バイアス、公平性

AIモデルの性能は学習データの質と多様性に大きく依存し、データに含まれる既存の偏見(性別、人種、年齢など)をAIが学習・増幅することで、特定の集団に対して不公平な結果を生み出すリスクがある[13]。これは医療の質の不平等につながる可能性があるため、開発段階からのデータ検証、バイアス低減措置、そしてアルゴリズムが生む結果の継続的な監視と是正が不可欠である。

③ 責任の所在と規制・ガバナンス

AIが関与した医療判断の結果に対する責任の所在(製造業者、医療機関、医師など)を明確にすることは重要な課題である。米国FDAは医療AIデバイスの規制枠組み整備を進め、EUではAI法が導入されるなど、各国で規制アプローチが検討されているが、急速に進化する技術、特に適応型AIに対する継続的な規制の枠組み整備が求められる。この倫理的、社会的、法的側面については、学術的にも活発な議論がなされている[14]

④ 文化的受容と医師・患者関係

AI技術を医療現場に実装する際には、人間側の心理的・文化的要因への配慮が不可欠である[15]。医師がAIを臨床判断に活用するためには、その精度と信頼性に対する確信が必要であり、患者自身がAIの活用を理解し受け入れることも重要となる。AIが医療判断に関わることへの懸念(プライバシー、判断根拠の不透明さなど)に対処し、患者の信頼を得る努力が求められる。臨床医の文化的側面がAI導入に与える影響も指摘されており[16]、医療専門家のAIに対する理解や認識も重要な要素である[17]。AI導入が医師の役割や医師・患者関係に与える影響についても十分な検討が必要である。医療画像AIの受容性に関する要因分析[18]や、異なる文化圏でのAI導入経験に関する質的研究[19]も、この課題の複雑さを示している。

6.「文化的実装」としての医療AI融合

上記の議論を踏まえ、本稿が提起したい視点が「文化的実装」として医療とAIの関係を捉えるというものである。文化的実装とは、単に技術を導入するだけでなく、それを取り巻く社会文化的要因に適合させながら現場に根付かせるプロセスを意味する[20]。医療という領域は、前述のように社会制度的な制約と文化的な価値観の両面を持つため、AIの統合もこの二重の文脈に沿って設計されねばならない。具体的に言えば、医療AIの開発・導入においては初めから社会科学的知見を取り入れ、制度設計者・現場の医療者・患者と協働しながら技術を環境に合わせていくことが重要になる。

例えば、AIが診療ガイドラインを提案する機能を導入するなら、そのインターフェースは医師が日常的に利用する電子カルテシステムとシームレスに統合されている必要がある。これは技術的課題であると同時に、医師のワークフローという文化への配慮でもある。また、AIの提案する診断・治療方針がどのような形式で提示されれば医師が受け入れやすいか(箇条書きのリスク評価か、図表か、あるいは平易な文章か)は、認知科学や人間工学の知見も踏まえて検討すべきだろう。患者に対しても、診察の際に医師とAIのどちらから説明を受けるかで納得感が変わるかもしれない。あるいは、AIからの情報提供を患者が「第二の意見」として活用できるように、診療記録を患者が閲覧できる仕組みやAI解釈結果の患者向けレポートを準備するといった工夫も考えられる。

そもそも前提として、AIは、単純な診療ガイドラインの提案を超えて、新たな疾患概念、イリイチ(Ivan ILLICH)の指摘する医原病[21]ならぬAI原病(“AItrogenic disease”とでも呼ぼうか)を生みかねない。そうした概念の変化をどのように医療文化や社会文化全体の中に位置づけるべきか。

要するに、医療AIの真の価値は技術そのものの性能だけでなく、それが医療文化の中でどのように機能するかによって決定されるということである。新しい技術は既存の社会的役割体系(医師—患者関係など)や文化的規範(医療倫理や患者の価値観、健康観など)を変容させうるが、同時にそれらによって受容範囲が規定されもする。したがって、社会実装の段階から「このAI機能は医療者のどの役割を補い、患者のどのようなニーズに応えるのか」、そして「現行の制度や文化と衝突しないか、それともアップデートを促す契機となり得るか」を問い続ける必要がある。文化的実装の視座とは、技術導入を社会制度と文化の二側面から設計・評価し、単なるハードウェアやソフトウェアの配置ではなく、社会への埋め込み(embedding)として捉えることに他ならない。

このような「文化的実装」の課題認識に基づき、AIやデータ技術の医療への社会実装のための理論構築と実証を目指す研究組織の設立も見られる。デジタルバイオマーカー開発とAI技術の知見を融合し、医療現場での実践的研究を行うことを目的とした「AIと医療の関係研究所」がテックドクターにより2025年に新設され[22]、AIおよびデジタルバイオマーカーを活用した医療応用領域の理論構築、導入時の倫理的・制度的課題の整理と検証、社会実装に向けたモデル提案などに取り組んでいる。こうした取り組みは、医療とAIの融合を技術面・制度面・文化面から総合的に探求し、現場で機能する実装モデルの構築を目指すものと考えられる。

7.今後の展望と人材育成

医療AIの可能性を最大限に引き出し、責任ある形で社会実装するためには、技術開発に加え、規制、教育、インフラ整備、そして、分野横断的な連携が不可欠である。マルチモーダルAIや医療特化型LLMのさらなる発展、デジタルツインの構築などが期待される一方、AI開発者と医療従事者双方が互いの専門知識を理解し協力できる人材(AIリテラシーを持つ人材)の育成が急務である。また、製造業者、規制当局、医療システム、臨床医が責任を分担し、適切なテストと監視体制を構築することが、安全で公平な医療変革の保証に繋がる[23]。日本における医療AI研究は画像診断が中心であるが、諸外国と比較して開発が遅れているとの指摘もあり[24]、実用化に向けた取り組みの加速が望まれる。

8.おわりに

医療とAIの関係は、単なる技術導入以上に深い社会的・文化的意味を帯びている。医療AIは、診断支援、個別化医療、業務効率化など多大な恩恵をもたらす可能性を秘めている。しかし、その導入と普及は技術的側面のみならず、信頼性、公平性、説明責任、そして、文化的受容性といった複雑な課題への対応を必要とする。これらの課題を克服し、AIを責任ある形で医療に統合するためには、「文化的実装」の視点に立ち、技術開発者、医療従事者、患者、社会科学者、政策立案者など、多様なステークホルダーによる学際的なアプローチと継続的な対話が不可欠である。人間とAIが効果的に協調する未来の医療を目指し、包摂的で質の高い医療提供体制の実現に向けた努力が求められる。

医療とAIの“幸せな手のつなぎ方”を模索し、人々が安心してテクノロジーの恩恵を享受できる社会制度と文化を形作ること——それこそが我々の世代に課された使命ではないだろうか。未来の医療が、人間とAIの協働によってより包摂的で質の高いものとなることを願って、本稿の結びとしたい。

 


参考文献

[1] 生成AIの医療分野での活用に向けた3つの提言 | 研究プログラム | 東京財団
[2] Barański, J.(2024)“Intelligent revolution in medicine - the application of artificial intelligence (ai) in medicine: overview, benefits, and challenges”.Przegląd Epidemiol. Rev. 78, pp.287–302.
[3] Westphal, A. & Mrowka, R. (2025)“Special issue European Journal of Physiology: Artificial intelligence in the field of physiology and medicine.”Pflüg. Arch. Vol.477, No.4, pp.509–512.
[4] https://www.leaders-mena.com/saudi-arabia-revolutionizes-healthcare-with-first-ai-doctor-clinic/
[5] パーソンズ, T. (1951) The Social System. Free Press. The social system : Parsons, Talcott, 1902- : Free Download, Borrow, and Streaming : Internet Archive
[6] 近藤英俊(2003)「現代医療の民族誌」『假想医療人類學通信』第10号.
[7] 波平恵美子(2006)「「病の語り」について―医療人類学の立場から―」『日本保険医療行動科学会年報』第21巻, 18-26頁.
[8] Young,A.(1982),“The Anthropologies of illness and sickness,”Annual Review of Anthropology 32:257-285.
[9] 谷田部武男(1984)「社会学的概念としての健康と病気―T.パーソンズの医療社会学における『病人役割』分析の意義―」『東海女子短期大学紀要』第4号, 147-165頁.
[10] テックドクター調査報告書「総説:医療分野における人工知能(AI)活用の最前線と今後の展望」https://drive.google.com/file/d/1cy_gW4H4rVPUbSaiVDClBrYsggSPSJ3r/
[11] 前掲注1の他、井上悠輔(2021) 令和 2 年度厚⽣労働科学研究補助⾦(倫理的法的社会的課題研究事業)分担研究報告書「医療 AI の ELSI に関するレビュー論⽂等の⽂献検討」等
[12] https://www.skillupai.com/blog/tech/about-xai/
[13] Ueda, D. et.al. (2023)“Fairness of artificial intelligence in healthcare: review and recommendations.”Jpn J Radiol.https://med-ai.jp/paper/fairness-of-artificial-intelligence-in-healthcare-review-and-recommendations.html
[14] Sung J. Artificial intelligence in medicine: Ethical, social and legal perspectives. Ann Acad Med Singap. 2023 Dec 28;52(12):695-699. doi: 10.47102/annals-acadmedsg.2023272. PMID: 38920162.
[15] https://ciandt.com/jp/ja/article/ai-healthcare-fascinating-truth
[16] Krishnamoorthy S, Tr E, Muruganathan A, Ramakrishan S, Nanda S, Radhakrishnan P. “The Impact of Cultural Dimensions of Clinicians on the Adoption of Artificial Intelligence in Healthcare”. Journal of Association Physicians of India. 2022 Jan;70(1):11-12. PMID: 35062809.
[17] Weber S, Wyszynski M, Godefroid M, Plattfaut R, Niehaves B. “How do medical professionals make sense (or not) of AI? A social-media-based computational grounded theory study and an online survey”. Computational and Structure Biotechnology Journal. 2024 Feb 17;24:146-159. doi: 10.1016/j.csbj.2024.02.009. PMID: 38434249; PMCID: PMC10904922.
[18] Hua D, Petrina N, Young N, Cho JG, Poon SK. “Understanding the factors influencing acceptability of AI in medical imaging domains among healthcare professionals: A scoping review”. Artifical Intelligence Medicine. 2024 Jan;147:102698. doi: 10.1016/j.artmed.2023.102698. Epub 2023 Nov 9. PMID: 38184343.
[19] Alkaabi A, Elsori D. “Navigating digital frontiers in UAE healthcare: A qualitative exploration of healthcare professionals' and patients' experiences with AI and telemedicine”. PLOS Digital Health. 2025 Apr 8;4(4):e0000586. doi: 10.1371/journal.pdig.0000586. PMID: 40198603; PMCID: PMC11991283.
[20] 定義は著者による.
[21] Ivan Illich (1975) Medical Nemesis (London: Calder & Boyars). ISBN 978-0-7145-1096-5. OCLC 224760852
[22] テックドクター(2025)「AIと医療の関係研究所」プレスリリース テックドクター、AIと医療の融合を見据えた「AIと医療の関係研究所」を設立 | 株式会社テックドクターのプレスリリース
[23] Mahmood,U. et al.(2024)“Artificial intelligence in medicine:mitigating risks and maximizing benefits via quality assurance,quality control,and acceptance testing”.BJR/Artificial Intelligence.1,ubae003.
[24] 山根友絵, 堀元美紗子, 山口直己, 箕浦哲嗣, 藤井徹也(2021)「日本における医療分野での 人工知能(AI)活用に関する文献検討」『豊橋創造大学紀要』第25号, 61–70頁.

注目コンテンツ

BY THIS AUTHOR

この研究員のコンテンツ

0%

PROGRAM-RELATED CONTENT

この研究員が所属するプログラムのコンテンツ

VIEW MORE

DOMAIN-RELATED CONTENT

同じ研究領域のコンテンツ

VIEW MORE

INQUIRIES

お問合せ

取材のお申込みやお問合せは
こちらのフォームより送信してください。

お問合せフォーム