

当人工智能席卷全球医疗领域的时侯,国家传染病医学中心主任张文宏近日在论坛上明确反对将AI系统性引入医院日常诊疗流程,他的这番话不仅在国内激起讨论,也与当前全球医疗AI应用的主流思潮形成了耐人寻味的对照。
张文宏的担忧并非空穴来风。他以自身经验为例:让AI先做初步分析,然后用专业能力找出其中的错误?这正是一个成熟医生的工作方式。但新手医生若从一开始就依赖AI直接给出结论,跳过了艰苦的临床思维训练这一步,未来很可能就失去了判断AI对错的能力。

AI狂奔,医疗系统的前沿进展
2025年,AI在医疗领域的应用几乎呈现出爆炸式增长。美国医学会的调查显示,医生使用AI执行特定任务的比例在一年内几乎翻了一番,达到66%。哈佛医学院开发的AI系统"Dr. CaBot"甚至能详细阐述诊断推理过程,处理复杂医学案例。
在中国,AI医疗的发展同样迅猛,北京市已启动医疗领域国家人工智能应用中试基地建设。西安高新医院引入AI系统后,单张病床的周转效率提升了40%。AI辅助解读影像资料、预判急性心梗风险、帮助患者做康复训练,这些场景已经在各地医院逐步落地。
看起来,这是一幅美好的图景。技术能提高效率,减轻医生负担,让更多人享受优质医疗资源。可张文宏偏偏在此时按下了"暂停键",要求大家冷静思考。

人与机器:谁才是诊疗的主导者
清华大学院士张钹曾明确表态:"AI将深刻改变医疗行业,但在可预见的未来AI还不能完全替代医生。"这句话道出了当前医学界对AI的基本态度,辅助,而非替代。
加拿大医学专家Margot Burnell强调,AI不能取代持牌医护人员的面对面诊治。医疗的核心在于建立互信关系,同理心、理解病人目标、陪伴病人做出合适决定,这些均非AI所能胜任,中国2025年医学发展大会上,专家们也达成共识:医学人工智能应用始终要以安全可信为前提,坚持以人为本,以患者为中心、以医生为医疗决策主导。
这些观点与张文宏的担忧完全吻合。AI可以是朋友和助手,但绝不能成为医生的"拐杖",更不能让医生沦为AI的附庸。
张文宏的警示为何值得警惕
张文宏的担忧其实指向了两个关键问题。
第一,在医疗这样的重大领域,必须有人类最终把关。AI再强大,也存在"幻觉"问题,也会犯错?当AI给出错误诊断时,谁来纠正。如果医生自己都没经过完整的临床思维训练,根本无法鉴别AI的正误,那患者的生命安全由谁来保障。
医疗决策关乎人命,容不得半点含糊。FDA在推进AI医疗应用的同时,也在2022年推出"预定变更控制计划",要求开发者在上市前明确算法未来可变更的范围与验证机制,就是为了给AI划定明确边界。德勤2025年全球医疗行业展望报告显示,大多数医疗系统高管认为,有必要制定更多人工智能法规。这说明,对AI的审慎态度已经成为全球医疗界的共识。
第二,医生掌握的医疗知识越多,实践越多,反而越能更好地利用AI,而不是被AI拖累。这才是"人机协作"的正确打开方式。一个经验丰富的医生,能够迅速识别AI分析中的漏洞、补充AI无法考虑到的复杂因素,甚至利用AI的计算能力处理海量信息,为自己的判断提供支持。
但反过来说,如果医生从一开始就养成了对AI的路径依赖,放弃了主体思考,那他永远无法成长为真正的医学专家。这就像一个从小用计算器的孩子,永远学不会心算一样,医者的成长,需要千变万化的真实病例磨砺,需要在无数次的诊断错误和修正中积累经验。这个过程省不掉,也抄不了近路。
张文宏说,医者的从业历练是漫长艰辛的"打怪升级"过程。这个冷板凳、苦功夫没有捷径可走。AI可以让诊疗变得高效顺滑,但正是这种"太过高效"的技术替代,可能让医学新手失去了最宝贵的成长机会。
技术与人性的平衡点在哪里
树兰医疗的郑杰医生提出了一个有趣的观点:目前的医疗AI只是计算医学的一个"子集",是基于现有数据和认知训练出的知识大脑。而计算医学的最终目标是实现"生命仿真"。这意味着,AI在医疗领域还有很长的路要走,远未达到可以独当一面的程度。
香港大学医学院也表达了类似观点:按目前情况,AI不会取代医生,我们也不应容许这样的情况发生。
张文宏的警告,恰恰是在这个技术狂飙的时刻提醒我们:医疗的核心永远是人。AI可以处理数据、提高效率,但医疗决策的主导权必须牢牢掌握在受过系统训练、具备独立判断能力的医生手中。
世界卫生组织和各国监管机构也在积极探索AI医疗的边界。FDA在放宽部分低风险设备监管的同时,对医疗级AI设备依然保持严格监管。这种"一手放开,一手把关"的策略,正是对技术发展和患者安全的双重负责。
医学不是流水线上的产品,每个病人都是独一无二的个体,每一次诊疗都需要综合考虑无数复杂因素。AI能够提供辅助,但永远无法替代医生的临床判断、人文关怀和责任担当。
散户配资网站找加杠网提示:文章来自网络,不代表本站观点。