72%美国医生已用AI!ChatGPT杀入诊室,不看病专干杂活

浏览17次 点赞0次 收藏0次

【导读】OpenAI向全美医生免费开放临床版ChatGPT,功能直指转诊信、保险预授权、病历文书,但医生必须得先证明自己真是医生才能入场。OpenAI这波操作,是要直接抢占全美医生的桌面。

这次,OpenAI把ChatGPT送进了美国诊室。

近日,OpenAI总裁兼联合创始人Greg Brockman官宣了一个大动作:

上线一款面向临床医生的ChatGPT:ChatGPT for Clinicians。


该产品面向美国所有通过身份验证的临床医生免费开放,覆盖人群包括医师(MD/DO)、执业护士(NP)、医师助理(PA)和药剂师。

功能拆开看,ChatGPT for Clinicians一共7个模块:

  • 免费使用前沿模型处理复杂临床问题;

  • 把转诊信、保险预授权、患者说明等常见流程做成可复用的Skills;

  • 基于数百万同行评审来源的实时带引用临床搜索;

  • 可委托的医学文献深度研究;

  • 研究临床问题时自动计入CME学分;

  • 可选HIPAA合规支持(通过BAA);

  • 对话不用于训练模型,支持多因素认证。

它是给个体临床医生用的,不需要医院统一部署,医生用NPI(国家医疗服务提供者标识符)验证身份后就能直接上手。

每一项功能都聚焦同一个场景:医生的日常工作台。

这意味着,OpenAI正式把医疗AI的战场,从「患者自己偷偷问ChatGPT」,推进到「医生在诊室里公开用ChatGPT」,推向全美医生诊室的桌面。

没有NPI,进不了门

免费入场券发了,但领之前先要「亮证」。

医生需要通过第三方机构,用NPI完成临床医生身份验证。

只有美国持证的医生(MD/DO)、NP、PA、心理学家和其他持证临床医生,才能拿到这张门票。

身份验证之外,OpenAI还给这条免费入口套了一层隐私设定:对话内容不用于训练模型;涉及受保护健康信息(PHI)的场景,合规账户可通过签署BAA获得HIPAA支持;账户层面叠加多因素认证。

OpenAI这一步看重的不是流量,而是被认证的专业用户。它想用身份换专业场景的接入权。

这一策略背后有一组数据撑着。

AMA 2026年发布的《Physician AI sentiment report》显示:

72%的美国医生表示已在临床实践中纳入至少一种AI用例,一年前这个数字还只有48%,12个月涨了24个百分点。


AMA 2026年调查显示,72%的美国医生在实践中纳入了至少一种AI用例。https://www.ama-assn.org/system/files/physician-ai-sentiment-report.pdf

OpenAI官方博客也提到,全球每周已有数百万临床医生在用ChatGPT支持临床工作,过去一年使用量翻了一倍多。

不看病

先从干杂活开始

医生到底能用ChatGPT for Clinicians干什么?

答案可能让人有些意外:排在功能列表最前面的,不是诊断,而是写转诊信这类的文书工作。

医生可以把转诊信、保险预授权申请、患者出院指导等常见流程做成可复用的Skills模板,设定一次,以后每次遇到同类任务,ChatGPT按同样步骤执行。


ChatGPT for Clinicians的Skills模块界面,已安装11个可复用临床技能,覆盖保险预授权、病历文书、ICD-10编码、患者教育材料等场景。

以临床搜索功能为例,ChatGPT for Clinicians可以基于数百万篇同行评审的医学文献,给出带引用、出处、发表日期的实时回答。

这样医生不用自己翻PubMed(医学文献检索数据库)到深夜,AI几秒钟就可以出结果。


ChatGPT for Clinicians临床搜索实际界面。医生输入具体病例后,系统返回带引用来源的循证评估,引用来自American Family Physician等同行评审期刊。

深度医学研究,医生可以把文献综述任务直接丢给ChatGPT,设定信任的期刊来源,引导研究方向,几分钟内拿到一份完整的、引用充分的报告。

甚至连继续医学教育(CME)学分,ChatGPT for Clinicians也考虑到了。医生在ChatGPT里研究临床问题时,符合条件的循证综述可以自动计入CME学分,不用单独上课,不用额外填表。

OpenAI选的切入点,全部是医生最痛恨的行政文书噩梦,它们吃掉了医生大量的时间和精力,却几乎不产生直接的诊疗价值。

这次,OpenAI选的切入点看起来并不炫酷,但可能是医疗AI第一个真正能大规模落地的场景。

既当裁判又参赛

OpenAI的「产品+基准」组合拳

产品做了,怎么证明好用?OpenAI的办法是:自己建一套评测标准。

同步发布的还有一个叫HealthBench Professional,是去年HealthBench的升级版,从面向普通健康对话的评估,进一步聚焦到临床医生在日常工作中向ChatGPT提出的真实任务。

数据集包含525个最终任务,从15079个候选示例池中筛出,每个任务来自医生在ChatGPT for Clinicians中的真实对话,由3名以上医生参与评分标准编写和多轮裁定。

约三分之一的案例来自医生的「红队测试」,故意刁难模型、专找弱点。困难案例的占比是普通分布的3.5倍。


HealthBench Professional各模型得分对比

ChatGPT for Clinicians中的GPT-5.4得分59.0,基础版GPT-5.4得分48.1,Claude Opus 4.7得分47.0,Gemini 3.1 Pro得分43.8,人类医生成绩43.7分。

再加另一组数字:发布前医生顾问在日常工作中测试了6924段对话,覆盖临床照护、病历文书和研究,99.6%的回答被评为安全且准确。

在355个由三名独立医生指定标准引用来源的子集中,ChatGPT for Clinicians引用这些来源的频率高于人类医生。

这些测试成绩和数据虽然很亮眼,但一个事实必须清楚:出题的是OpenAI,参赛选手包括OpenAI的模型,最高分还是OpenAI的产品。

这就像一家公司自己设计了招聘考试,然后宣布自家员工考了第一名。

即使考试设计很严谨(多医生裁定、红队测试、高难度筛选),但「自评」和「他评」之间的公信力差距不能忽略。

好消息是,Stanford的MedHELM和MedMarks等第三方评测中,OpenAI的模型同样排在前列,多少补上了一部分独立验证的缺口。

隐私、责任、幻觉

三道没跨过去的坎

成绩再好,医生也不会因为一张跑分表就把信任交出去。

AMA同一份调查揭示了另一面:医生对AI最大的三个顾虑,是数据隐私、安全有效性验证、以及出了错谁负责

先看隐私。

OpenAI承诺对话不用于训练模型,账户支持多因素认证。但HIPAA合规不是默认开启的,需要通过BAA才能获得支持,前提是医生有权为其账户签署BAA。很多日常临床任务可以不涉及PHI,但一旦涉及,合规流程并不是开箱即用的。

再看责任。


OpenAI发布的「Keeping Patients First」政策蓝图,明确AI应加强医患关系,最终责任归人类医生。https://cdn.openai.com/pdf/keeping-patients-first.pdf

OpenAI在同步发布的政策蓝图「Keeping Patients First」中明确写道:AI应加强临床人员与患者之间的关系,人类从业者仍承担最终责任。

意思是:AI可以帮你写,出了事还要你担责

如果ChatGPT生成的转诊信里有一个错误的药物剂量,签名的医生要承担后果。

最后是幻觉问题。

6924段对话测试中,99.6%被评为安全准确。这个数字看起来很高,但在医疗场景下,0.4%的错误率意味着每250个回答里可能有一个不安全或不准确

对每天处理几十个查询的忙碌临床医生来说,这个概率不能忽略。

而且这个99.6%是发布前由OpenAI合作的医生顾问测试得出的,不是大规模真实临床环境下的数据。

AI可以写错一封邮件,但在医疗场景下,错误的代价不一样。

医生不会被替代

但工作方式正在被重写

回头看ChatGPT for Clinicians这步棋,它要解决的不是替医生看病,而是重写医生每天花最多时间的「非诊断工作」。

转诊信、保险预授权材料、病历文书草拟、临床搜索、跨期刊文献综述……产品页Skills模块下挂着的任务清单,基本就是美国医生吐槽了十几年的那些日常杂活。

路线很清楚:先动最重、最枯燥、最容易自动化的行政文书,再慢慢往临床推理、决策支持、教育学分这些更核心的场景上走。

不涉及诊断、处方和最终治疗决策。

从ChatGPT到ChatGPT for Healthcare再到ChatGPT for Clinicians,OpenAI杀入医疗的路线图已经摊开了。

第一步,ChatGPT:让患者自助查健康问题;

第二步,ChatGPT for Clinicians:让个体医生免费用上专业工具;

第三步,ChatGPT for Healthcare:让医院和医疗系统大规模部署。

今年1月,波士顿儿童医院、Cedars-Sinai医学中心、斯坦福儿童健康、纪念斯隆凯特琳癌症中心,这些美国顶级医疗机构已经在跑ChatGPT for Healthcare。

Clinicians瞄准的是那些所在医院还没统一部署AI的个体医生。


https://openai.com/zh-Hans-CN/index/openai-for-healthcare/

OpenAI还透露,接下来将与Better Evidence Network合作,在当地法规允许的前提下向美国以外的临床医生试点开放。

72%的美国医生已经在用AI,使用量一年翻了一倍。而且,这个趋势不会逆转。

AI不会替代医生,但五年后的医生工作方式,肯定和今天一定不一样,比如可能是这样的:

每天两小时的文书工作变成十分钟;查文献从翻半天期刊变成一句prompt;写转诊信,从对着模板改半小时,变成审核AI的初稿……

OpenAI这次推出的ChatGPT for Healthcare,正是要从接管文书工作开始,逐渐成为每个医生工作台上的「第二大脑」。

至于这个赌注最终是改善了医疗还是引发了新问题,答案不在硅谷,而是在诊室里。

参考资料:

https://x.com/gdb/status/2047145125604995280%20

https://openai.com/index/making-chatgpt-better-for-clinicians/

https://www.ama-assn.org/system/files/physician-ai-sentiment-report.pdf%20

https://cdn.openai.com/pdf/keeping-patients-first.pdf%20

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里查看更多信息!本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它往往能得到较好的回响。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。