主页 科普资讯 今日要闻 清华大学医学院院长黄天荫: AI不会取代医生,但会改变医生
老年模式

清华大学医学院院长黄天荫: AI不会取代医生,但会改变医生

袁端端
2026年03月04日 22638

今年以来,关于AI系统是否应引入医疗机构的日常诊疗,在医疗圈和科学界不断掀起讨论。事实上,越来越多的医疗机构已经对AI敞开怀抱。

清华大学医学院院长、讲席教授黄天荫也关注到了近期一些争议。作为知名的眼科专家,他长期活跃在临床与科研一线工作。尽管承担着繁重的管理与科研任务,黄天荫仍坚持每周一天出诊。对他而言,持续面对患者,是保持临床敏感性、理解医疗真实需求的重要方式。

近年来,他也持续推动人工智能在基层医疗中的应用,带领团队开展示范项目与真实场景实践,探索AI如何真正嵌入日常医疗流程。

清华大学医学院院长黄天荫: AI不会取代医生,但会改变医生

2月11日,黄天荫及其团队关于医疗人工智能评价的研究发表于《自然·医学》。该文章指出,目前医疗AI的评估大多集中在算法准确率等技术指标上,缺乏基于真实世界患者结局和基层服务能力改善的系统证据。

AI医疗和基层医疗试点

为什么你会把AI应用的重点放在基层医疗,而不是大型医院?

黄天荫:基层医疗的问题是全球性的,尤其在发展中国家。我们的医疗体系过去是以医院和专科医生为中心,但现在情况发生了变化。

第一,人口老龄化非常快,慢病成为主要负担;第二,城乡医疗资源不均衡,大城市医疗资源承压,不能只满足所在城市需求,还得顾上二、三线城市和乡村上来的病患;第三,全科医生等医学人才不足。

所以我们必须寻找新的技术手段。人工智能不是替代医生,而是作为一个能力放大器,帮助基层医生更快获取信息、做出判断、提高效率。

AI门诊具体是什么样的?

黄天荫:AI门诊,实际上是围绕患者端、医生端和医院管理端三个系统来运行的。

对患者来说,它更像一个“智能入口”。患者可以通过AI进行初步健康咨询、预问诊和分诊,系统会收集症状信息,形成初步评估,并帮助整理既往健康资料和连续健康数据。这样,患者真正进入门诊时,医生已经对其基本情况有了较为完整的了解。

在就诊过程中,患者的问诊信息、检查结果和病历也会同步进入系统,形成持续更新的健康档案,并进行风险分析和预警。对于慢病患者,还可以提供随访和长期管理支持。

AI主要承担的是辅助和减负功能,帮助医生更快完成信息处理和临床判断,而不是替代医生作决定。这是AI的最大价值,让医生在同样时间内服务更多患者,提升基层医疗的整体能力。

AI医疗的试点实施中,你最担心什么?

黄天荫:作为医生,我最关注的始终是医疗安全性。我们最担心系统给出错误的信息或误导性的结论,对患者造成潜在风险。

但按照中国现行的监管要求,每一个最终诊断和医疗决策都需要由医生签字背书,所以AI只能作为辅助工具,而不能独立作出结论,患者安全是有保障的。

AI能做什么、不能做什么?

据你观察,AI在基层医疗中最适合处理哪些类型的问题?在哪些情况下,医生的判断仍是不可替代的?

黄天荫:目前来看,AI最适合的是标准化程度较高、病情相对简单的患者,比如常见病、慢病随访或初步筛查。

在这些场景中,诊疗路径比较明确,AI给出的判断通常与医生的结论高度一致。对于基层来说,这类应用可以帮助提高效率,让医生把更多精力放在复杂病例上。

对于复诊或情况较为复杂的患者,目前AI更多还是起辅助作用。系统可以提供参考信息,但最终判断仍然需要由医生完成。

更重要的是,医疗决策不仅是医学判断,还涉及很多个体化因素。例如患者是否愿意接受手术、是否能够承担费用、是否具备随访条件、是否需要转诊到三甲医院、是否适合进一步治疗等决策,甚至包括对治疗风险的心理接受程度。这些个体化因素,只有临床医生通过沟通才能综合评估,再作出判断。

中国的AI+医疗有哪些不足或薄弱的地方?

黄天荫:首先是资源地区分布不均,人工智能技术和算力资源主要集中在北上广等发达地区。

第二是复合型人才不足,未来需要培养一种新的医生类型——我称之为“临床-AI科学家”。

这类医生不仅具备医学背景,还接受过工程、数据科学、人工智能和实施科学方面的系统训练,能够把技术方案真正转化为临床应用。

第三是数据标准和安全共享机制仍不完善。中国医疗数据异质性高、编码体系不统一、记录规范差异大,AI模型往往难以在不同机构之间推广应用。因此,需要建立国家层面的数据标准和数据治理政策,并在确保安全与隐私的前提下,推动医疗数据在医院、地区之间的规范共享。

同时,医疗数据整理本身仍存在大量人工工作,例如多模态数据(影像、基因、行为、环境等)的清洗与整合成本较高。如果缺乏高质量、可用的数据基础,AI模型就难以真正服务更大规模的人群。

关键在于整体风险能否降低目

前AI在临床应用中仍存在准确性的问题。

黄天荫:是的,AI确实还存在一定局限,有时判断结果并不完全准确,患者和医生对它的信任也需要时间建立。但从技术发展规律来看,算法的能力很大程度上依赖真实世界数据的积累。随着应用场景增加、数据不断丰富,系统的判断能力会持续提升。

一开始,我们开设AI门诊,患者也不愿意挂号,但慢慢地有些患者开始来尝试了。我们推动AI门诊和AI医院的一个重要目标,就是把真实患者数据与专家经验结合起来,在真实环境中不断优化模型。未来的系统一定会越来越准确,也会越来越安全。

怎么理解现在大家对AI进入医疗实践的担忧和质疑?为什么不能等技术更加成熟,甚至接近“完美”之后再投入实际应用?

黄天荫:目前确实有一些质疑,这些担忧主要来自两个方面:一方面是对技术可靠性的担心,另一方面也涉及责任划分和使用习惯的问题。但如果完全等待技术“完美”之后再使用,就很难获得真实环境中的反馈和经验。

医疗领域的很多技术进步,本质上都是在严格监管和医生把关的前提下,通过实践不断改进的过程。AI也是一样,关键在于明确它的定位——作为辅助工具,而不是替代医生的决策。

我们要一边做一边用,很多医生不愿意用,我觉得也是错误的。应当在规范使用、持续评估的基础上,通过临床实践不断发现问题、优化系统,同时让工程团队更好理解医生的真实需求,技术才能真正成熟并服务于医疗。

你自己也是医生,你认为有哪些事情是AI无法替代医生的?

黄天荫:医疗工作的核心不仅是技术判断,还包括沟通、解释和情感支持。医生面对患者时,需要理解他们的心理状态、家庭情况以及对风险的接受程度,这些人文层面的支持,AI是无法替代的。

在实际工作中,医生的角色是非常综合的。很多时候,真正完成治疗的患者只是少数,更多的工作是解释病情、协调方案、帮助患者作出选择和长期管理。这些都是AI目前难以承担的责任。

目前全球都在探索医疗AI的应用边界,但一个基本原则应该明确:AI只能提供信息支持和风险提示,而最终的诊断、治疗决策和医疗责任,必须由医生承担。

同时,也需要建立相应的规范和监管框架,甚至需要一些法律,避免过度依赖或过度宣传技术。AI不应该被神化,更不能在缺乏安全评估和责任机制的情况下直接进入临床决策。技术公司无法充分了解这些问题,需要监管机构来做。

AI接入临床系统或病历系统可能带来的最大风险是什么?是否会对医疗安全产生影响?

黄天荫:不少人担忧AI进入医疗会带来新风险,但更现实的问题是:医疗本身就存在固有风险。误诊、漏诊、过度治疗等医疗差错长期存在,每年都有大量患者因医疗失误受到伤害。

公众对AI的错误更为敏感,但真正值得比较的,是整体风险能否降低。如果AI的整体判断水平优于普通医生,即便无法做到零失误,仍有可能提升医疗安全性。这与自动驾驶逻辑相似:关键不在于是否有风险,而在于哪种方式风险更低。

从这一角度看,我对AI医疗持总体乐观态度。医生群体可能在担忧,未来AI会不会取代医生,但我认为AI会重塑医生的能力结构,若医生完全拒绝理解与使用AI,反而可能在新医疗体系中处于劣势。

本期热读

相关搜索

AI医疗

家庭保健报: 时刻关注您的健康!