求醫3年無果,ChatGPT診斷出4歲男孩病因,大模型開始入局醫療

文|周愚

編輯|鄧詠儀 尚恩

ChatGPT又立大功了!

據外媒Today報道,一位母親考特尼病急亂投醫,向ChatGPT分享了兒子亞歷克斯癥狀的有關信息后,意外之喜出現了——ChatGPT精準地發現孩子可能罹患脊髓栓系綜合征

而在這之前,考特尼已經帶着亞歷克斯四處求醫三年,陸續問診了17名醫生,他們分別來自牙科、兒科、耳鼻喉、成人內科、肌肉骨骼等各個科室,卻始終查不出孩子的病因

亞歷克斯。圖源:today.com

事情要從2020年新冠疫情封鎖期間說起,當時4歲的亞歷克斯收到了母親送的跳跳屋玩具,誰也沒有想到這會開啟他三年飽受病痛折磨的日子。

起初,亞歷克斯只是不停地磨牙,而後考特尼又逐漸發現孩子的發育速度明顯減緩,甚至出現左右腳不平衡的情況——「他會先用右腳向前走,然後拖着左腳往前。」

與此同時,亞歷克斯還開始遭受愈發嚴重的頭痛,這讓亞歷克斯每天不得不以服用布洛芬為生。

「我們看了這麼多的醫生,一度長時間待在急診室里。我一直在努力。我幾乎(在電腦上)瀏覽了一整夜,經歷了這所有事情。」當ChatGPT給出診斷意見后,這位母親接受媒體採訪時的感動、喜悅溢於言表。

原來,在許多脊柱裂患兒中,孩子的背部都有一個可見的開口。然而,亞歷克斯所患的卻是隱匿性脊柱裂,封閉而難以發現。這也是為什麼之前的17位醫生,無一人發現。

報道一出,網友們便開始紛紛熱議,大部分網友喜聞樂見大模型在醫療領域的這種應用:"無法負擔醫療費用和在貧困國家的人們將會大大受益於此。"

圖源:X(推特)

更有網友補充道,意義不止於此——這對罕見病、疑難雜症很有幫助

圖源:X(推特)

當然,一些網友謹慎的質疑也不無道理:「如果沒有人類專家的交叉確認,我們要如何確定ChatGPT的診斷是正確的?」

圖源:X(推特)

不過,用大模型看病早已不是什麼個例。今年以來,大語言模型的概念持續走高,國內外科技巨頭們也紛紛將大模型運用於「AI+醫療」之中。

「百模大戰」之下,醫療大模型也正熱鬧

科技巨頭湧入醫療大模型

這無疑是振奮人心的消息。此前的「AI+醫療」大多落地在醫療影像領域,但隨着大語言模型的技術突破,臨床中產生的巨量繁雜的醫療數據也有了用武之地。ChatGPT等大模型擁有更全面的知識體系,可以幫助發現許多人類醫生忽略的細節。

據不完全統計,國內外如谷歌、英偉達、亞馬遜、騰訊、百度、京東等科技巨頭,都已經率先開始了醫療大模型的布局。

據悉,今年4月以來,谷歌就已經開始在美國一些頂尖私立醫院實測其第二代醫療大模型——Med-PaLM 2。該模型由DeepMind的醫療健康團隊,基於PaLM 2微調得來,使用者可以直接輸入一張X光片,Med-PaLM 2就會對患者的病情進行診斷和分析。

圖源:Google Research

與此同時,該模型也成為了在美國醫療執照考試中達到專家水平的首個大模型。根據一份內部郵件,谷歌認為Med-PaLM 2在「就醫渠道較為有限」的國家尤其有用。

谷歌官網介紹,在一組對照實驗中,Med-PaLM 2的答案甚至在九項指標中的八項都要優於醫生給出的答案。

圖源:Google Research

另外,英偉達早在2021年就開始與Schrodinger戰略合作,試圖提升其計算平台的速度和精確度,加速開發新的治療方法。2個月前,英偉達又投資5000萬美元,推進生物和化學領域AI基礎模型的開發訓練。

放眼國內,醫療大模型的商業化探索也正如火如荼地展開。

9月8日,騰訊健康對外公布了其醫療大模型,產品矩陣包括智能問答、家庭醫生助手、數智醫療影像平台等多個應用場景 AI 產品矩陣。而早在2020年7月,騰訊自主研發的首個AI驅動的藥物發現平台雲深智葯(iDrug)就正式對外發佈。

圖源:騰訊AI Lab-iDrug

今年7月,科大訊飛、京東等公司也動作頻頻。科大訊飛表示,「訊飛醫療」基於星火認知大模型,全面升級了醫療診后康復管理平台,要將「專業的診后管理和康復指導延伸到院外」。

京東健康也於7月13日,對外發佈了「京醫千詢」醫療大模型,為遠程醫療服務提供技術底座。

縱觀各家企業的醫療大模型布局,我們也不難發現,大模型已經深入了醫療領域的各個角落,除了AI問診,大模型在醫療影像、臨床決策輔助、醫院管理、藥物研發等不同應用場景還有「一百種可能」。

大模型的出現,似乎也成為了某些「AI+醫療」應用場景的救命稻草。

當國內AI製藥融資金額在2022年腰斬,財報開始露出難色時,ChatGPT為代表的大模型,似乎又給這個行業帶來了新的躁動,智能湧現此前也對AI製藥有過分析。

AI幻覺、數據隱私,還是老大難

一面是頭部公司積極布局,開始商業化探索;但另一面,以世界衛生組織為代表的許多社會組織和個人,也在積極呼籲,對AI醫療服務採取」非常謹慎」的態度。

今年5月,世界衛生組織就在聲明中強調:「倉促採用未經檢驗的AI系統可能會導致醫務人員的錯誤,對患者造成傷害,損害人們對人工智能的信任,進而可能影響(或延遲)AI技術在全球的長期惠益何應用。」

圖源:世衛組織

對於大模型在醫療領域的質疑,首先是可靠性的問題。任何醫療行為都直接關乎於人的生命安全,因此必須確保AI所提供的信息是準確且安全的,容錯率更低。

然而,截止目前,AI顯然做不到這一點。在與ChatGPT等大模型交流時,AI幻覺仍然時有發生。例如,在向ChatGPT提問有關流感的問題時,它可能會給出幾篇標題聽起來真實,但實際並不存在的論文。

這顯然是不可接受的。畢竟,誰也不想過去的「網上問病,癌症起步」再次上演。儘管ChatGPT等大模型擁有巨量的知識,可能不像人類醫生一樣存在盲點,但目前來看,大模型也只能成為醫生和臨床診斷的助手,而不是替代醫生。

美國醫學協會主席傑西·埃倫菲爾德在回應媒體採訪時,就強調說:「正如我們要求證明新葯和生物製劑是安全有效的一樣,我們也必須確保AI醫療保健應用的安全性和有效性。」

除此之外,由於醫療信息自身的敏感性,數據安全與隱私這個老問題,醫療大模型依然逃不開。

有別於通用大模型基於海量互聯網來訓練的方式,醫療大模型所需的數據大多是私有且涉及個人隱私的。

要想保障訓練數據安全,目前主要的應對方法是通過技術手段進行加密處理,將醫療數據加密處理後上傳大模型,再將結果解密傳回。

但這也有個問題,就是如果管理規範不完善,也可能導致加密數據被非法使用或泄露。

長按添加「智涌」小助手入群,添加請備註:公司+職務

分享到Facebook
技術平台: Nasthon Systems