本文的語音檔收錄在林教授的科學養生保健YouTube頻道。歡迎瀏覽訂閱。如果您希望收到最新發表的通知,請設定“All”。

我在2024-12-26發表AI診療:垃圾進→垃圾出, 五天前(2025-8-15)讀者Elliot在回應欄裡寄來一篇剛發表的醫學論文A Case of Bromism Influenced by Use of Artificial Intelligence(受AI影響的溴中毒案例)。

AI診療:垃圾進→垃圾出這篇文章裡我有說,AI所提供的資訊是否準確,是取決於輸入的資料是否準確,而這又是取決於輸入者的認知是否正確。所以,讀者Elliot之所以會寄來這篇論文,顯然是要呼應我「垃圾進垃圾出」的說法,而也就是因為這樣,我在看完論文後,也就只是給他按個贊,沒有做進一步的行動。可是,真沒想到,隔天晚上我看台灣的電視新聞竟然也在報導這篇醫學論文。所以,隔天一大早我就上網查看台灣媒體對這個中毒案例的興趣到底有多高,而結果還真看到不少報導,例如《自由時報》的AI害的!誤信ChatGPT戒鹽建議 美男子中毒住院3週。(註:這個標題裡的「戒鹽建議」是錯誤的。「戒氯建議」才是正確。更準確的說法是「用溴化鈉取代氯化鈉」)

其實,有關AI在醫療應用上的問題,稍早前(2025-8-4)有一項研究做了另一個面向的探討,請看Does ChatGPT Ignore Article Retractions and Other Reliability Concerns?(ChatGPT 是否忽略了文章撤回和其他可靠性問題?)。

這項研究發現,ChatGPT在提供參考文獻時並未能察覺論文已被撤稿(retracted)或正在被重新審視。也就是說,ChatGPT所提供的科學資訊有可能已經失效或即將失效。

事實上,有關這個問題,我在AI診療:垃圾進→垃圾出這篇文章裡已經有說:「由於資料的蒐集、整理、分析、判斷、和輸入是需要時間,所以AI目前並無法提供最新的資訊(例如剛發表的論文)。所以,就目前而言,我自認能提供比AI更新、更精準的醫療資訊。」

在這篇文章裡我也有說:『AI的「準」是最難辦到的,因為它是取決於許多「人」的因素。用一個最簡單的比喻來說好了,如果一條質料是否被採納的決定權是在美國總統手裡,那AI就會告訴你「漂白水可以治療新冠肺炎」。』

也就是說,我早就預言「聽信AI而中毒的案例」,而AI之所以會衍生出這樣的問題,關鍵就是在於「垃圾進垃圾出」。

我另外還有五篇今年發表的文章也見證了「垃圾進垃圾出」這個現象:

2025-2-3發表的甜點應該飯後馬上吃嗎?AI給互打答案:讀者Bear來函跟我說他詢問ChatGPT和 google 的Gemini同一個問題,結果卻得到了兩個完全相反的答案。我就利用這個機會跟所有的讀者說,Bear的這個經驗正好驗證了我所說的「AI的回答是否準確是取決於輸入的資料是否準確,而這又是取決於輸入者的認知是否正確」。

2025-5-15發表的AI跟我道歉:網紅騙局拍成電影,有用嗎(下):在上一篇文章我討論了一部名叫「蘋果醋」的電影以及它所揭露的一個網紅製造的騙局。真正讓我感到興趣的是,十年來有沒有任何一個網紅因為這個騙局的被揭露而受到影響。所以,我就想試試AI有沒有比我更厲害,能找到「受害」的網紅,結果竟然是把AI逼得跟我說道歉。

2025-5-29發表的zone 2:溫和運動的炒作代名詞:所謂的「2 區運動」並沒有被科學定義,但為了不以偏概全,我還是決定請教AI。AI開門見山就說「是的,2區運動確實是基於科學原理,並且有著堅實的運動生理學基礎。」然後它繼續解釋並提供了5條參考資料。這5條資料裡有4條是個人的網路文章。儘管這些文章的標題裡或內容裡帶有Science這個字,但它們卻完全沒有提出zone 2的科學論文。AI提供的第五條參考資料是耶魯大學發表的文章,但這篇文章裡面根本連zone這個字都沒出現過。所以,AI之所以會說zone 2是基於科學, 很顯然是因為餵資料的人是自以為zone 2是基於科學,而這就是我說過的「垃圾進垃圾出」。

2025-6-4發表的白宮糗事:引用幽靈論文:美國各大媒體都在報導一件白宮和衛生部的糗事,例如(1)紐約時報:白宮健康報告包含虛假參考資料。MAHA委員會發布的一份兒童健康報告提到了一些不存在的科學論文,(2)CNN:川普政府關於兒童健康的 MAHA 報告充滿了有缺陷的參考資料,包括一些不存在的研究,(3)USA Today:MAHA 報告有缺陷的參考資料以及不存在的研究可能是AI生成的。

2025-8-18發表的生飲橄欖油的十大好處?洪醫師的迷魂湯處方:洪醫師提出了生飲橄欖油的十大好處,而每一個好處他都有出示一篇論文來作為佐證。可是,我到公共醫學圖書館PubMed搜索這10篇論文,卻只搜到一篇。而其他9篇都是「幽靈論文」。一位讀者在回應欄裡留言:很大可能就是CHATGPT生成的虚构文献。另一位讀者也留言:今年四月Springer Nature出版了一本機器學習的教科書,不久後被發現書中引用大量不存在的文獻,而作者面對質疑時,用了LLM常見的模稜兩可的答覆,既不承認也不否認自己用了LLM寫書。

綜上所述,我要再次強調,AI的回答是否準確是取決於輸入的資料是否準確,而這又是取決於輸入者的認知是否正確。所以,搞了個半天,最終還是要靠您自己來判斷是否應該「聽信AI」。