11月28日,清华大学临床医学科技创新大会在北京清华长庚医院召开。从AI(人工智能)赋能医院管理到AI辅助疾病诊疗,再到AI肝胆超级医生智能体、“清心”心电大模型相继发布,AI成为这场会议的高频词。
虽然已90岁高龄,中国科学院院士、清华大学人工智能研究院名誉院长张钹仍现身会场,并探讨了一个备受关注的话题——AI时代的医生。
“AI将深刻改变医疗行业,但在可预见的未来,AI还不能完全替代医生。”张钹说。
在医疗领域中,AI应用场景十分广阔。张钹举例表示,AI将问诊记录转化为规范病历,智能健康管家开展随访服务,AI辅助眼底疾病筛查,手术机器人精准切除病灶……在影像解读、文书处理、健康问答等标准化、流程化工作方面,AI优势突出,逐渐成为医生的“数字战友”。
不过当前,AI存在一些局限性。”张钹说,以大语言模型为例,其运行主要靠外部驱动而非内在主动。此外,大语言模型缺乏真正的推理与因果理解能力,其“黑箱”特性和不可解释性也不得不让人警惕。更重要的是,AI还不能做到“自我负责”。
相比之下,人类医生的行为具有内在动机,而且具备推理与理解能力,是可信的、可负责的。“正是基于此,大语言模型给出的临床诊疗意见,最终需要人类医生把关。”张钹说。
而且,医疗不只是诊疗技术的比拼,还需充满人文关怀的互动。张钹认为,面对患者的恐惧、焦虑、愤怒等情绪,AI难以共情和疏导;面对个体的特殊性和个性化需求,AI难以统筹考量并作出最佳选择。患者的情感诉求和复杂诊疗场景,是当前算法的盲点,也是人类医生的价值锚点。
那么,AI时代,医生将在哪些方面发挥作用?
张钹认为,未来,医生是临床决策者,在权衡风险、预期、生活治疗、经济压力等复杂因素后作出最终选择。同时,医生是流程设计者、沟通者,将完成治疗过程中不可或缺的部分——深度交流、价值选择和伦理判断。此外,医生也是安全监督者,在数据不完美、医疗风险高等情境下,医生将承担责任、守住边界。
“在可预见的未来,AI不会替代医生,却对医生提出了更高要求。”张钹说。
在他看来,懂AI、用AI、解释AI是未来医生的基本素养,未来医生的临床决策与系统思维能力应当更强,医生的沟通能力与人文素养将被“放大”。此外,医生的跨学科协作与流程再造能力不容忽视,法规、伦理与安全意识也要不断增强。
“在AI时代,医生还要保持自我更新能力,把AI作为‘外挂’。”张钹说,医疗知识的半衰期越来越短,新药、新指南、新证据层出不穷,“AI可以是你随身的‘更新雷达’,但最后还是要你自己判断——哪些值得用于改变自己的实践。”
“AI加速医疗变革的时代,AI与医生的关系并非替代而是‘共生’。”张钹表示,AI时代,医生能成为有判断力的决策者、有温度的沟通者、懂技术边界的践行者。(记者 代小佩)
免责声明:
本站原创内容根据公开信息整理或转载,与立场无关,我们力求信息真实、准确,但文章、所示信息、提及内容仅供参考,无法保证该等信息的准确性和完整性、及时性、有效性等,不构成任何建议,据此操作风险自担。转载的属于第三方的信息,已标注作者及来源,并不代表赞成或反对等任何观点,亦不对其真实性负责。