风城黑鹰

风城黑鹰 名博

看病千万别找”AI 医生“

风城黑鹰 (2026-02-27 05:13:32) 评论 (0)

看病千万别找”AI 医生“

常识知道,AI年代看病还是不能找AI。 最近研究也证明如此-AI替代不了医生。

根据发表在《自然·医学》(Nature Medicine)上的最新研究(2026年2月),针对 OpenAI 专门推出的消费级健康工具 ChatGPT Health 的独立评估显示:在涉及生命危险的急诊分诊中,ChatGPT Health未能识别出超过一半(51.6%)的紧急病例。更讽刺的是,在另外一些完全健康的情况下,ChatGPT Health却错误地建议 64.8% 的用户要立即去就医。

对于这一现象,有以下几点观察和评论:

1. 致命的“矛盾修辞”:逻辑正确,结论错误

研究中最令人毛骨悚然的发现是:AI 在解释中明明已经识别出了危险信号(例如呼吸衰竭的前兆),但最后的建议却是“先观察”或“预约常规门诊”。

  • 这种“认知失调”是致命的。 因为用户往往会被 AI 前半部分看似专业的医学分析所折服,从而盲目信任它后半部分的错误行动指南。在医学上,这被称为“误导性的安全感”,比完全无知更危险。如果不知道,就是不知道。

2. “教科书”与“现实世界”的断层

研究显示,ChatGPT Health 在处理“教科书式”的病例(如典型的心脏病、过敏性休克)时表现良好,但在处理“非典型”或“细微”症状时表现极差。

  • 医学的本质是临床判断,而非概率计算。 急诊室医生的价值在于通过细微的眼神、语气和多维度的症状描述来捕捉那些“看起来不像急症的急症”。目前,AI 仍然只是在进行“下一个单词”的概率预测,它缺乏对生命消逝的真正感知和风险底线。

3. “过度警惕”与“过度放松”的博弈

有趣的是,AI 在低风险情况下又表现出极度的“过度防御”,将大量健康人送往急诊。

  • 这对医疗系统是双重打击: 一方面,真正的急症患者因为听信 AI 留在家中,错失黄金救治时间;另一方面,大批受惊的健康人涌入急诊室,进一步挤兑本就紧张的医疗资源。

我们是否正在步入“算法盲信”的陷阱?

“Unbelievably dangerous”(不可思议的危险) 这个评价并不夸张。当科技公司将 LLM(大语言模型)包装成“健康助手”推向数千万用户时,他们实际上是在进行一场史无前例的公众实验。

  • 监管的滞后性: 虽然 AI 技术日新月异,但医疗监管标准仍停留在传统器械时代。如果一种药物有 50% 的概率在关键时刻失效,它绝不可能上市。但 AI 工具却能凭借“免责声明”在模糊地带运行。

  • 责任主体的缺失: 当 AI 告诉一个窒息的病人“等到明天预约”时,如果悲剧发生,法律责任该如何界定?是训练数据的偏差,还是提示词(Prompt)的问题?

建议与警示

在目前的阶段,我们必须建立一个明确的认知红线:AI 可以作为医疗百科全书参考(查资料),但绝不能作为分诊医生(定生死)。

警示信号: 如果你或你身边的人出现以下症状,请立即拨打急救电话或前往急诊室,不要浪费时间咨询任何 AI 助手:

  • 剧烈胸痛或呼吸困难。

  • 突然出现的身体一侧麻木或言语不清(中风迹象)。

  • 严重的过敏反应(皮疹伴随呼吸受阻)。

  • 无法停止的大出血或意识模糊。