
來源:科技日報
記者:張佳欣
美國西奈山伊坎醫學院一項最新研究發現,無論是放射科醫生還是多模態大語言模型(LLM),都難以輕易區分由人工智能(AI)生成的深度僞造X光影像與真實醫學影像。研究人員表示,這一發現凸顯了AI生成醫學影像可能帶來的醫療安全與網絡安全風險。相關論文發表於最新一期《放射學》雜誌。

圖片來源:pixabay
“深度僞造”是指看似真實但實際上由AI生成或篡改的視頻、照片、圖像或音頻。AI生成的X光片真實度極高,能以假亂真,可能被用於醫療欺詐,例如僞造骨折影像用於訴訟取證。如果黑客入侵醫院系統並植入合成醫學影像,還可能篡改診斷結果,甚至破壞電子病歷系統的可信度。
在這項回顧性研究中,來自美國、法國、德國、土耳其、英國和阿聯酋6個國家12家醫療中心的17名放射科醫生參與測試。研究共分析264張X光影像,分爲兩組:第一組數據包含多個解剖部位的真實影像以及由ChatGPT生成的影像;第二組數據爲胸部X光片,其中一半爲真實影像,另一半由斯坦福醫學院研究人員開發的開源生成式AI擴散模型RoentGen生成。
結果顯示,在未被告知研究目的的情況下,僅有41%的醫生主動識別出AI生成圖像。在明確告知後,醫生區分真實與僞造影像的平均準確率爲75%。
與此同時,GPT-4o(OpenAI)、GPT-5(OpenAI)、Gemini 2.5 Pro(谷歌)以及Llama 4 Maverick(Meta)四種多模態大模型也進行了識別測試,其準確率在57%—85%之間。即便是參與生成這些深度僞造影像的GPT-4o模型本身,也無法識別全部僞造影像。
研究人員總結稱,AI生成的醫學影像往往存在一些“過於完美”的特徵,例如骨骼表面過於光滑、脊柱過直、肺部過度對稱、血管分佈過於均勻,以及骨折斷面異常整齊等。
爲降低風險,研究團隊建議,應在醫學影像中嵌入不可見數字水印、增加加密簽名等技術手段,以防止影像被篡改,同時加強醫學影像AI鑑別能力培訓。
☟




