讀者羅先生在2024-12-14利用本網站的與我聯絡詢問:台灣醫療屆正在極力發展AI診療,但略懂AI 生成的人都知道,人工智慧是「餵食」一大堆資訊(含高等論文及可能的錯誤理論),讓AI 吞食後,隨機抓取邏輯連結提供答案,只要USER 否決這答案,AI 就會另外抓取其它連結再次提供答案,一直以“試錯”方式來迎合USER胃口,這對疾病診斷上似乎會有極大誤診的機會,請教教授:您對以AI做疾病診斷與治療建議的信任度如何取捨?會不會因不同醫師的個人偏好,而採取AI的不同診療及用藥建議?風險責任屬誰??
我先說一件我親身經歷的「AI驚魂記」。
去年6月12日,台灣的《國家實驗研究院 科技政策研究與資訊中心》來函:『國科會著手規劃開發適合我國語言特性之生成式AI對話引擎,…,您經營之「科學的養生保健」網站之內容,對於我國生成式AI發展有不可或缺之重要性,將有助於生成式AI學習醫學新知並排除偏誤或假訊息,誠摯邀請您共襄盛舉,攜手合力推進臺灣生成式AI之發展。』
我立刻回函表示樂意共襄盛舉。7月4日我收到《臺版生成式AI機器學習資料授權契約》,其中的第六條是:甲方擔保授權標的,…。乙方如因此遭受損害,甲方應負賠償之責;若屬甲方未善盡管理責任所致,應由甲方自負賠償之責。
也就是說,有人要借我的車免費使用,而「條件」是,他要是出了車禍,我不但要賠償給他,還要賠償給第三方。
所以,您說,像這樣邏輯錯亂欺人太甚的機構,能開發出值得信賴的生成式AI對話引擎嗎?

羅先生所說的『人工智慧是「餵食」一大堆資訊…這對疾病診斷上似乎會有極大誤診的機會』,其實就是所謂的「垃圾進→垃圾出」,而如何降低這種風險,已經在醫學界討論了很久、很廣泛、也很深入。例如下面這幾篇論文:
2023-2-16:Garbage in, Garbage out—Words of Caution on Big Data and Machine Learning in Medical Practice(垃圾進,垃圾出-醫療實踐中大數據和機器學習的警語)
2023-11-29:Artificial Intelligence and the potential for Garbage In, Garbage Out(人工智慧和垃圾進、垃圾出的潛在性)
2024-12-1:Taking the Garbage Out: Addressing AI Bias in Quality Measurement(剔除垃圾:解決品質測量中的人工智慧偏差)
2024-12-7:Bias in medical AI: Implications for clinical decision-making(醫療人工智慧的偏見:對臨床決策的影響)
2024-8-12:A Federated Registration System for Artificial Intelligence in Health(一個醫療的人工智慧聯合註冊系統)
其實,一個生成式AI的優劣是決定在三個因素:大、快、準,而「準」是最重要的。比如一個籃球員,個子很大,速度也很快,但射籃缺乏準頭,那他的身價當然就會遠低於一個個子較小但射籃奇準的球員。
但偏偏「準」是最難辦到的,因為它是取決於許多「人」的因素。用一個最簡單的比喻來說好了,如果一條質料是否被採納的決定權是在美國總統手裡,那AI就會告訴你「漂白水可以治療新冠肺炎」。請看大主教的新冠神水。
我之所以會用這麼一個極端的例子,主要是要凸顯「人」的介入是無可避免的。尤其是歷史一再證明,政治永遠是凌駕在科學之上的。請看瘦肉精:科學似乎總算贏了一局,以及衛生部會內鬥嗎。
好,我現在來回答羅先生的三個問題:
問1:您對以AI做疾病診斷與治療建議的信任度如何取捨?
答1:我曾說過,大多數人是從電視和社交平台(YouTube、 FB、 IG、 X)獲取飲食、診斷與治療的建議,但這些建議九成以上是錯誤的。請看
現在在谷歌搜索,最先出來的是AI提供的資料,而這些資料幾乎都是歸納整理自PubMed的論文,或是信譽度較高的醫療機構,例如Mayo Clinic。我從沒看過谷歌AI所提供的資料是來自自家人YouTube,更不用說是來自其他社交平台了。也就是說,谷歌AI對於資料來源的選擇跟我是大致相同。但是,由於資料的蒐集、整理、分析、判斷、和輸入是需要時間,谷歌AI目前還無法提供最新的資訊(例如剛發表的論文)。所以,就目前而言,我自認能提供比谷歌AI更新、更精準的醫療資訊。當然,谷歌AI對於任何問題的即時回答,是我無法做到的。
問2:會不會因不同醫師的個人偏好,而採取AI的不同診療及用藥建議?
答2:當然會。AI只是提供資料。至於如何診療及用藥,最後的決定權還是在醫師手裡。
問3:風險責任屬誰??
答3:最簡單的答案就是「根據合約」。如果我準備要付費來使用某家公司的AI,那我當然會先確定該公司有擔保資料的正確性。如果沒有合約,例如不用付費的谷歌或ChatGPT,那它們都是有免責聲明的,所以責任當然是在使用者身上。
AI 有很多種模型跟相對應的訓練方式,例如生成式模型跟電腦視覺模型。讀者羅先生說得的 AI 是生成式模型,例如 ChatGPT,有幻覺的缺點。依我所知, 醫療 AI 很大一部分用的是視覺模型來判斷疾病,這種準確率很高,可以到90幾%。但也就侷限在醫療部分場域。
讚Liked by 1 person
“視覺模型來判斷疾病,這種準確率很高,可以到90幾%”
是的,例如在放射線科領域裡的X-光、MRI等等。
但,羅先生說的 AI ,的確是生成式模型。
讚讚
對於比較複雜的科學問題,AI回答煞有介事,並且列出參考論文。真的點進去讀論文,往往發現AI回答是錯的,它只看到和問題相關的字句,但它不了解真正的意思。一篇研究論文的某句話是什麼意思,要先知道這個研究的脈絡才能了解。目前AI只會找字句,還讀不懂論文。
讚Liked by 1 person
對我來說,AI能提供一些方向和軌跡,但深入的探索還是要靠自己。
讚讚
不同的AI也有分好壞。最近上班時有一個人來,說到因為有橋本氏甲狀腺炎所以在吃硒。因為當時記得教授在這裡談到吃多了硒的負作用不可逆,所以趕快問她這個是哪裡聽來的。結果電腦一打開,Microsoft Bing的AI就跳出一段總結,裡面還有兩個citation, 說補硒對甲狀腺有幫助。這個人自己也是有醫學常識的人(是開救護車的EMT), 但是也是被這個總結唬得一愣一愣的。兩個citation 都是 “Doctor" Isabella Wentz (藥理學博士,不是醫生,也沒做跟甲狀腺有關的研究)自己發表出來的,看似論文的廣告。Wentz 自稱是甲狀腺研究的白老鼠,可是自己賣這些“超級甲狀腺保健品”已經賺的盆滿缽滿了。
很多不明究理的人真的會被冠有AI兩字的任何東西深信不疑。(故事中的這個人還好,看到就說再也不吃了。)但是一般市井小民絕對不會像到被人捧的跟神一樣的東西會騙人。也不會想到AI跟AI裡面其實也有差。有些垃圾還要比別人的垃圾再垃圾一點。
讚Liked by 1 person
這個例子顯示Bing的餵養人早就存了偏見,這就是生成式AI最大的問題。
讚讚
引用通告: CGM個人化營養:垃圾進→垃圾出 | 科學的養生保健
垃圾進垃圾出,看到這句話我就進來了,AI相關科系會很有感,現在AI的發展還沒到可以"認知"語言,頂多就是"使用"(沒一個真的通過圖靈測試,但凡你問題難一點就現出原形),除非理論突破,或者出現像turbo code那種,有方法沒理論,不知道為什麼有用,但的確很好用____而現在AI顯然沒發展到這地步,其次,AI取代人類還有關鍵問題,道德義務的歸屬跟法律責任,出問題不能只靠丟包,以前一個蘿蔔一個坑,誰出事誰負責,AI出事誰負責,寫程式的?提供數據的?自己認栽?_____目前的普遍用丟包的,就像特斯拉的自動駕駛,發展到現在還是會跟你說,你要負責第一線情況,出事有可能賠償你,但沒辦法幫你承擔肇事的法律責任
讚讚
讚讚
引用通告: 醫療AI 反而耗費更多資金和人力 | 科學的養生保健
AI的邏輯判斷畢竟是由人類賦予,如同父母的教導會影響子女的思想及行爲一般,在使用上仍然需要自身判斷能力輔助,不能盲目盡信。
關於教授您提到的國科會所提供的契約內容,其中或許有所誤會。
從您擷取的部分文字推測,國科會(應該是乙方?)是希望教授您(應該是甲方?)擔保所提供的資料正確性以及沒有侵害第三方的權利。以教授您所舉的例子,比較像是:有人要借您的車使用,但「條件」是,您要擔保車子是您本身所有,不是偷盜犯罪的贓物,而且車子的功能在您所知範圍內,一切功能正常,否則要是因此出了車禍或被告,您必須要負擔賠償責任。
如果是上述的情形,應該還算合理,畢竟之前也發生幾次政府機構委託外部單位承包專案,但發生爭議的事件(如:集集石虎列車彩繪車廂設計爭議案),雖然承辦人員也難辭其咎,不過希望在合約內先約定清楚,避免爭議,也是無可厚非。
讚讚
不,您說的完全不合邏輯。要知道,國科會既然是來要我免費讓他們使用我的文章,那,他們就應該自己判斷我的文章是否有您所說的那些問題。
反過來說,如果國科會是出錢購買我的產品(文章),那當然我就要保證產品沒有瑕疵。
您所舉那個例子(彩繪車廂設計),顯然是個商業行為,這跟我的情況是截然不同。
既然是來免費借用,怎麼可以叫出借的人負責?這是荒天之奇譚。
讚讚
如果是希望教授「免費」提供文章使用,那國科會在責任分擔上的思考確實就有進一步商榷的空間了
讚讚
用那個借車的比喻進一步說明:
如果你是到一家租車公司租車,那租車公司當然有義務要保證車子是安全無虞。
但如果你是主動去跟一個陌生人(或朋友)借車(不是租車),那你就得自己判斷車子是否安全無虞,承擔任何可能發生的風險。
讚讚
民法第411條(瑕疵擔保責任)
贈與之物或權利如有瑕疵,贈與人不負擔保責任。但贈與人故意不告知其瑕疵或保證其無瑕疵者,對於受贈人因瑕疵所生之損害,負賠償之義務。
要確立「贈與人故意不告知」比較困難,國科會必須舉證教授是故意的。但是如果教授直接在授權合約敘明「保證無瑕疵」,那萬一出事教授就麻煩了,直接拒絕是對的。
讚Liked by 1 person
引用通告: 甜點應該飯後馬上吃嗎?AI給互打答案 | 科學的養生保健
引用通告: zone 2:溫和運動的炒作代名詞 | Professorlin.com 科學的養生保健
AI年代的"Vibe Medicine" #犀利的黑色幽默 #AI中毒
讚Liked by 1 person
A Case of Bromism Influenced by Use of Artificial Intelligence | Annals of Internal Medicine #潛在風險 #臨床案例 #溴中毒
https://doi.org/10.7326/aimcc.2024.1260
讚Liked by 1 person
https://professorlin.com/2025/08/20/%e8%81%bd%e4%bf%a1ai%e8%80%8c%e4%b8%ad%e6%af%92%ef%bc%9a%e6%87%89%e9%a9%97%e3%80%8c%e5%9e%83%e5%9c%be%e9%80%b2%e5%9e%83%e5%9c%be%e5%87%ba%e3%80%8d/
讚讚
引用通告: 聽信AI而中毒:應驗「垃圾進垃圾出」 | Professorlin.com 科學的養生保健
FYI,「AI心理諮商/療法:垃圾進,走不出」Prof Joe Pierre (UCSF) on AI-induced psychosis (14 parts) #現今與未來的難題
讚讚