DeepSeek的火爆,让人工智能(artificial intelligence,英文缩写为AI)成为全民焦点。
越来越多人尝试找AI咨询健康问题。
“高烧40摄氏度,怎么办?”
“咳嗽总是好不了,是什么问题?”
“便秘能吃什么药?”
医院里,有人拿着DeepSeek开的诊断跟医生“对质”。甚至有网友自爆,已经吃下了“AI医生”开的药。
AI从科幻走进现实,走进健康领域,已成必然趋势,但也带来了新的问题与挑战。比如说,AI能取代医生吗?它们开的诊断、处方,真的靠谱吗?
我们采访到中山大学附属第三医院的副院长杨钦泰教授,他一直致力于互联网AI与医疗工作的结合,对前沿的AI技术有着敏锐的体察,就让我们一同看看AI为健康医疗带来的喜与忧。
受访专家:杨钦泰
中山大学附属第三医院副院长,耳鼻咽喉头颈外科、过敏科学科带头人,主任医师、教授、博士研究生导师,中华医学会变态反应学分会委员,中华医学会耳鼻咽喉头颈外科分会鼻科组副秘书长,广东省医学会变态反应学分会候任主任委员、耳鼻咽喉头颈外科分会副主任委员
用AI给孩子看病
却拖成肺炎?!
近日,广东汕头某医院收治了这样一个病例——
患者是一名3岁女童,因出现反复咳嗽、发热等症状,其父母通过AI问诊判断为“普通呼吸道感染”,并根据AI的指引居家用药。
然而,女童的病情却一直反反复复,持续了一个月。
万般无奈下,父母才带孩子就医,检查结果显示,女童的病情已发展为肺炎,且显示细菌合并腺病毒感染。
这显然是一个利用AI看病的失败案例。
杨钦泰教授表示,现在临床上,患者或家属利用AI问诊的情况有,但也并不算特别多。“年轻人偏多,因为年轻人更容易接受新事物,生病了就会去问一下。”
杨教授指出,像案例中的父母,仅仅利用AI咨询就轻易下结论,参考AI提供的药方自行用药,是非常不可取的。
“我们不建议病人在诊治方面,向AI提问太多,或者用这个去质疑医生的诊断。”
杨教授将AI比作一个什么都懂的孩子,它有着庞大的知识储备;然而,它又是一个什么都不懂的孩子,这些知识对他的意义是不明的。
“既是天才,也是傻子。”他如是说。
怎么理解呢?
说到底,想要利用AI获得我们所需的信息,非常考验使用者表述问题的水平。比如,利用AI问诊“看病”,自然离不开对症状的描述。
可是,缺乏医学专业背景的普通病人,在向AI提出问题时,往往是“缺胳膊少腿”的——症状描述不全面,容易放大个别不适,又会忽略很多东西。
若是面诊,专科医生会有目的性地提醒和启发患者,让对方回忆更多重要的症状、细节与病史,尤其是常被遗忘的家族病史。而AI却做不到,只会单方面接收你的表述与提问,仅对此进行思考,来提供相关信息。
不完整的症状描述,必然导向不够精准,甚至是错误的诊断与用药建议。
杨教授提醒,普通人不具备对AI诊断进行辨别的专业能力,要是一味信任,依样画葫芦,个人的健康将承受巨大的风险。
万一吃错药、出问题,也无从归责。
图源:壹图网
AI会说谎
患者却浑然不觉
实际上,AI有时候还会说谎。
AI问诊的结果常令人惊喜,不仅诊断逻辑看似严丝合缝,参考文献也列得清清楚楚。
然而,在2024年2月的一项研究中,研究者对如DeepSeek这样的大语言模型类AI在回答医学类问题时的文献溯源能力进行测试,结果发现——
AI生成的回复中,有高达50%~90%的内容并不能得到完整溯源;
即使是其中最先进的AI,也有30%的语句几乎找不到任何准确的内容溯源。
也就是说,这些内容是找不到实际出处的。
技术领域常常将这些错误称为AI“幻觉”。
简而言之,就是AI会“一本正经地胡说八道”。
AI的“幻觉”又可分为两种,事实性“幻觉”和忠实性“幻觉”。
前者,是指生成的内容与可验证的现实世界事实不一致,包括捏造事实。譬如,问及糖尿病患者能否食用蜂蜜代替糖,AI可能回答可以,因为蜂蜜是天然的,可以帮助稳定血糖水平。其实不然。
后者,则指生成的内容与用户的指令或上下文不一致。譬如,同上问题,AI可能回答蜂蜜富含维生素和矿物质,食用能提高免疫力,无事实错误但却偏题了。
深究的话,数据源、人工智能的训练过程,以及它的推理,是“幻觉”产生的三大根源。
总体来说,“幻觉”是现下人工智能的通病,且暂时未能完全排除其发生。
AI给出的诊断结果、开具的用药建议,都可能存在“幻觉”的风险,而一般人要是照本宣科,这样的风险将是致命的。
AI看病
无法替代医生面诊
杨钦泰教授告诉记者,除却使用者本身以及AI本身的局限性,AI问诊也取代不了医生问诊。
他从三方面进行解析——
AI看病维度单一,而医生面诊是多维的。
AI问诊只能根据使用者的描述,提供的检查信息,来进行思考与解答,显然并不全面、准确,而反馈也比较机械、片面、千篇一律。
相反的,就如传统中医需要望、闻、问、切,专业医生会从多维度接收、思考和判断患者提供的信息,不仅仅是询问症状,还会看患者的表现,根据双方的交流表现获知更多的信息。
医学是人文的、有温度的,AI模仿不了。
“偶尔治愈,常常帮助,总是安慰”,这句为全世界医生所谨记的行医之道,正是医学领域人文温度的体现。
“我们说,安慰剂也会有30%的疗效,”杨教授解释,“病人见到医生就觉得有救了,看到医生就感觉生命健康有了保障。这份信任不仅来源于医生的专业,还有人与人之间不限于声波、视觉、感官,甚至是无形的沟通交流,有别于冷冰冰的人工智能对问题的片面答案,带来不同的疗愈效果。”
“人工智能只能赋予医学技术上的东西,人则是赋予医学灵魂,人与人的沟通是无法被取代的。”
AI的诊断必须由人类把关。
杨教授强调,从伦理、法规、政策方面来讨论,AI都无法独立给出诊断和用药指引,结果必须由人进行把关。
这个人,只能是医生。
“人类需要永远握有把关权,除非未来人工智能已经控制了医生、控制了人类。”他笑称。
正因如此,杨教授认为,尽管AI在医疗中发挥着日益重要的作用,但面对面的临床问诊依然具有不可替代的价值。
不过,他也提到,对于影像科、病理科、检验科等以图像识别和数据分析为主的岗位,例如阅片、形态判断、细胞计数等任务,未来较有可能被AI所承担。
做诊断不合适
但不妨做健康管理
虽然不建议大家向AI问诊太多,但杨教授依然鼓励多利用AI。
怎么利用呢?
一方面,就诊前可以先利用AI对自身情况有个了解,等医生给出诊断和用药指引时,就可以在此基础上,与医生增进沟通,加深对自身健康状况与疾病的了解。
另一方面,医生给出诊断、开具药方后,可能医患交流时间太短,未能方方面面给到清晰的指引,就可以向AI提问,譬如服药的注意事项、疾病的日常保健等。
此时,你可能会有疑问,这与使用搜索引擎有何区别?
杨教授打了个比方——
我们使用百度、谷歌等搜索引擎,就像走入百货商店,琳琅满目的商品与品牌随你挑选,让人眼花缭乱,而且还有人为干预(比如广告),决策非常困难;
AI不仅拥有庞大的数据储备,还具备一定的“思考”能力:它能揣摩用户的需求,试图理解你的意图,并据此整合信息,将结果条分缕析地呈现给你。
正因人工智能的这一优势特性,我们在医生明确诊断并制定治疗方案后,可以借用AI来获得更全面、个性化的健康建议,从而更好地实现全生命周期的健康管理。
图源:壹图网
未来
医生与患者可能在虚拟空间相遇
AI虽然无法替代医生,但必将淘汰不会使用AI的医生。
AI的医疗场景应用已发展多年,如今进入深化阶段。
2024年11月,国家卫生健康委、国家中医药局、国家疾控局联合出台《卫生健康行业人工智能应用场景参考指引》,给出了80多条具体应用场景的建议。
《中国医院院长》杂志2025年2月25日报道:根据不完全统计,DeepSeek发布后的一个多月内,国内已有近100家医院宣布完成DeepSeek本地化部署,涉及北京、上海、广东、江苏、浙江、重庆、安徽、河南、湖北、湖南等20余个省份,其中以大型公立三甲医院居多。
如杨钦泰教授所在的中山大学附属第三医院,就搭建了“两朵云、一条路、一个湖”的智慧医院“新基建”体系,包括服务医院内部管理、服务医生看片、帮医生写病历、预问诊等多个系统。
展望未来,杨教授认为,医生应学会高效地运用AI,它既是老师,也是助手,更是能并肩前行的搭档。在这一过程中,医生的成长加速,医学也将因此不断进步。
另一方面,更多的医疗健康服务将转移到线上。
当然,即便在线上,也是医生与患者、人与人的交流,还有人的把关。
杨教授畅想,未来的线上医院有望构建于虚拟空间之中,医生与患者将在“元宇宙诊室”中相遇,远程诊疗也将成为医疗服务的重要组成部分。一些常见病、轻症或将通过线上平台完成初步诊断与处理,而对于复杂或严重的疾病,仍需在线下进行更充分的沟通与评估。
“线上线下一体化”将成为未来医疗模式的关键体现。
与此同时,AI将借助各类可穿戴设备,实现对个体健康状态的实时监测与管理,为全生命周期健康管理提供支持。一旦监测指标出现异常,AI可第一时间识别,并将相关信息传递给医生,由专业人员进行判断、干预并制定或调整治疗方案。
正如杨教授所说:“AI的加入,将推动医疗各方实现更高层次的融合。做到防患于未然,才能更好地守护人类健康,让人类更健康、更长寿。”
编辑:谢晓




