求医3年无果,ChatGPT诊断出4岁男孩病因,大模型开始入局医疗

.. 文|周愚

编辑|邓咏仪 尚恩

ChatGPT又立大功了!

据外媒Today报道,一位母亲考特尼病急乱投医,向ChatGPT分享了儿子亚历克斯症状的有关信息后,意外之喜出现了——ChatGPT精准地发现孩子可能罹患脊髓栓系综合征

而在这之前,考特尼已经带着亚历克斯四处求医三年,陆续问诊了17名医生,他们分别来自牙科、儿科、耳鼻喉、成人内科、肌肉骨骼等各个科室,却始终查不出孩子的病因

亚历克斯。图源:today.com

事情要从2020年新冠疫情封锁期间说起,当时4岁的亚历克斯收到了母亲送的跳跳屋玩具,谁也没有想到这会开启他三年饱受病痛折磨的日子。

起初,亚历克斯只是不停地磨牙,而后考特尼又逐渐发现孩子的发育速度明显减缓,甚至出现左右脚不平衡的情况——「他会先用右脚向前走,然后拖着左脚往前。」

与此同时,亚历克斯还开始遭受愈发严重的头痛,这让亚历克斯每天不得不以服用布洛芬为生。

「我们看了这么多的医生,一度长时间待在急诊室里。我一直在努力。我几乎(在电脑上)浏览了一整夜,经历了这所有事情。」当ChatGPT给出诊断意见后,这位母亲接受媒体采访时的感动、喜悦溢于言表。

原来,在许多脊柱裂患儿中,孩子的背部都有一个可见的开口。然而,亚历克斯所患的却是隐匿性脊柱裂,封闭而难以发现。这也是为什么之前的17位医生,无一人发现。

报道一出,网友们便开始纷纷热议,大部分网友喜闻乐见大模型在医疗领域的这种应用:"无法负担医疗费用和在贫困国家的人们将会大大受益于此。"

图源:X(推特)

更有网友补充道,意义不止于此——这对罕见病、疑难杂症很有帮助

图源:X(推特)

当然,一些网友谨慎的质疑也不无道理:「如果没有人类专家的交叉确认,我们要如何确定ChatGPT的诊断是正确的?」

图源:X(推特)

不过,用大模型看病早已不是什么个例。今年以来,大语言模型的概念持续走高,国内外科技巨头们也纷纷将大模型运用于「AI+医疗」之中。

「百模大战」之下,医疗大模型也正热闹

科技巨头涌入医疗大模型

这无疑是振奋人心的消息。此前的「AI+医疗」大多落地在医疗影像领域,但随着大语言模型的技术突破,临床中产生的巨量繁杂的医疗数据也有了用武之地。ChatGPT等大模型拥有更全面的知识体系,可以帮助发现许多人类医生忽略的细节。

据不完全统计,国内外如谷歌、英伟达、亚马逊、腾讯、百度、京东等科技巨头,都已经率先开始了医疗大模型的布局。

据悉,今年4月以来,谷歌就已经开始在美国一些顶尖私立医院实测其第二代医疗大模型——Med-PaLM 2。该模型由DeepMind的医疗健康团队,基于PaLM 2微调得来,使用者可以直接输入一张X光片,Med-PaLM 2就会对患者的病情进行诊断和分析。

图源:Google Research

与此同时,该模型也成为了在美国医疗执照考试中达到专家水平的首个大模型。根据一份内部邮件,谷歌认为Med-PaLM 2在「就医渠道较为有限」的国家尤其有用。

谷歌官网介绍,在一组对照实验中,Med-PaLM 2的答案甚至在九项指标中的八项都要优于医生给出的答案。

图源:Google Research

另外,英伟达早在2021年就开始与Schrodinger战略合作,试图提升其计算平台的速度和精确度,加速开发新的治疗方法。2个月前,英伟达又投资5000万美元,推进生物和化学领域AI基础模型的开发训练。

放眼国内,医疗大模型的商业化探索也正如火如荼地展开。

9月8日,腾讯健康对外公布了其医疗大模型,产品矩阵包括智能问答、家庭医生助手、数智医疗影像平台等多个应用场景 AI 产品矩阵。而早在2020年7月,腾讯自主研发的首个AI驱动的药物发现平台云深智药(iDrug)就正式对外发布。

图源:腾讯AI Lab-iDrug

今年7月,科大讯飞、京东等公司也动作频频。科大讯飞表示,「讯飞医疗」基于星火认知大模型,全面升级了医疗诊后康复管理平台,要将「专业的诊后管理和康复指导延伸到院外」。

京东健康也于7月13日,对外发布了「京医千询」医疗大模型,为远程医疗服务提供技术底座。

纵观各家企业的医疗大模型布局,我们也不难发现,大模型已经深入了医疗领域的各个角落,除了AI问诊,大模型在医疗影像、临床决策辅助、医院管理、药物研发等不同应用场景还有「一百种可能」。

大模型的出现,似乎也成为了某些「AI+医疗」应用场景的救命稻草。

当国内AI制药融资金额在2022年腰斩,财报开始露出难色时,ChatGPT为代表的大模型,似乎又给这个行业带来了新的躁动,智能涌现此前也对AI制药有过分析。

AI幻觉、数据隐私,还是老大难

一面是头部公司积极布局,开始商业化探索;但另一面,以世界卫生组织为代表的许多社会组织和个人,也在积极呼吁,对AI医疗服务采取」非常谨慎」的态度。

今年5月,世界卫生组织就在声明中强调:「仓促采用未经检验的AI系统可能会导致医务人员的错误,对患者造成伤害,损害人们对人工智能的信任,进而可能影响(或延迟)AI技术在全球的长期惠益何应用。」

图源:世卫组织

对于大模型在医疗领域的质疑,首先是可靠性的问题。任何医疗行为都直接关乎于人的生命安全,因此必须确保AI所提供的信息是准确且安全的,容错率更低。

然而,截止目前,AI显然做不到这一点。在与ChatGPT等大模型交流时,AI幻觉仍然时有发生。例如,在向ChatGPT提问有关流感的问题时,它可能会给出几篇标题听起来真实,但实际并不存在的论文。

这显然是不可接受的。毕竟,谁也不想过去的「网上问病,癌症起步」再次上演。尽管ChatGPT等大模型拥有巨量的知识,可能不像人类医生一样存在盲点,但目前来看,大模型也只能成为医生和临床诊断的助手,而不是替代医生。

美国医学协会主席杰西·埃伦菲尔德在回应媒体采访时,就强调说:「正如我们要求证明新药和生物制剂是安全有效的一样,我们也必须确保AI医疗保健应用的安全性和有效性。」

除此之外,由于医疗信息自身的敏感性,数据安全与隐私这个老问题,医疗大模型依然逃不开。

有别于通用大模型基于海量互联网来训练的方式,医疗大模型所需的数据大多是私有且涉及个人隐私的。

要想保障训练数据安全,目前主要的应对方法是通过技术手段进行加密处理,将医疗数据加密处理后上传大模型,再将结果解密传回。

但这也有个问题,就是如果管理规范不完善,也可能导致加密数据被非法使用或泄露。

长按添加「智涌」小助手入群,添加请备注:公司+职务


想在手机阅读更多中国内地资讯资讯?下载【香港硅谷】Android应用
分享到Facebook
技术平台: Nasthon Systems