讀者羅先生在2024-12-14利用本網站的與我聯絡詢問:台灣醫療屆正在極力發展AI診療,但略懂AI 生成的人都知道,人工智慧是「餵食」一大堆資訊(含高等論文及可能的錯誤理論),讓AI 吞食後,隨機抓取邏輯連結提供答案,只要USER 否決這答案,AI 就會另外抓取其它連結再次提供答案,一直以“試錯”方式來迎合USER胃口,這對疾病診斷上似乎會有極大誤診的機會,請教教授:您對以AI做疾病診斷與治療建議的信任度如何取捨?會不會因不同醫師的個人偏好,而採取AI的不同診療及用藥建議?風險責任屬誰??

我先說一件我親身經歷的「AI驚魂記」。

去年6月12日,台灣的《國家實驗研究院 科技政策研究與資訊中心》來函:『國科會著手規劃開發適合我國語言特性之生成式AI對話引擎,…,您經營之「科學的養生保健」網站之內容,對於我國生成式AI發展有不可或缺之重要性,將有助於生成式AI學習醫學新知並排除偏誤或假訊息,誠摯邀請您共襄盛舉,攜手合力推進臺灣生成式AI之發展。』

我立刻回函表示樂意共襄盛舉。7月4日我收到《臺版生成式AI機器學習資料授權契約》,其中的第六條是:甲方擔保授權標的,…。乙方如因此遭受損害,甲方應負賠償之責;若屬甲方未善盡管理責任所致,應由甲方自負賠償之責。

也就是說,有人要借我的車免費使用,而「條件」是,他要是出了車禍,我不但要賠償給他,還要賠償給第三方。

所以,您說,像這樣邏輯錯亂欺人太甚的機構,能開發出值得信賴的生成式AI對話引擎嗎?

羅先生所說的『人工智慧是「餵食」一大堆資訊…這對疾病診斷上似乎會有極大誤診的機會』,其實就是所謂的「垃圾進→垃圾出」,而如何降低這種風險,已經在醫學界討論了很久、很廣泛、也很深入。例如下面這幾篇論文:

2023-2-16:Garbage in, Garbage out—Words of Caution on Big Data and Machine Learning in Medical Practice(垃圾進,垃圾出-醫療實踐中大數據和機器學習的警語)

2023-11-29:Artificial Intelligence and the potential for Garbage In, Garbage Out(人工智慧和垃圾進、垃圾出的潛在性)

2024-12-1:Taking the Garbage Out: Addressing AI Bias in Quality Measurement(剔除垃圾:解決品質測量中的人工智慧偏差)

2024-12-7:Bias in medical AI: Implications for clinical decision-making(醫療人工智慧的偏見:對臨床決策的影響)

2024-8-12:A Federated Registration System for Artificial Intelligence in Health(一個醫療的人工智慧聯合註冊系統)

其實,一個生成式AI的優劣是決定在三個因素:大、快、準,而「準」是最重要的。比如一個籃球員,個子很大,速度也很快,但射籃缺乏準頭,那他的身價當然就會遠低於一個個子較小但射籃奇準的球員。

但偏偏「準」是最難辦到的,因為它是取決於許多「人」的因素。用一個最簡單的比喻來說好了,如果一條質料是否被採納的決定權是在美國總統手裡,那AI就會告訴你「漂白水可以治療新冠肺炎」。請看大主教的新冠神水

我之所以會用這麼一個極端的例子,主要是要凸顯「人」的介入是無可避免的。尤其是歷史一再證明,政治永遠是凌駕在科學之上的。請看瘦肉精:科學似乎總算贏了一局,以及衛生部會內鬥嗎

好,我現在來回答羅先生的三個問題:

問1:您對以AI做疾病診斷與治療建議的信任度如何取捨?

答1:我曾說過,大多數人是從電視和社交平台(YouTube、 FB、 IG、 X)獲取飲食、診斷與治療的建議,但這些建議九成以上是錯誤的。請看

名人發佈的飲食資訊,能信嗎?

YouTube 將刪除錯誤醫療信息,例如維他命 C抗癌

現在在谷歌搜索,最先出來的是AI提供的資料,而這些資料幾乎都是歸納整理自PubMed的論文,或是信譽度較高的醫療機構,例如Mayo Clinic。我從沒看過谷歌AI所提供的資料是來自自家人YouTube,更不用說是來自其他社交平台了。也就是說,谷歌AI對於資料來源的選擇跟我是大致相同。但是,由於資料的蒐集、整理、分析、判斷、和輸入是需要時間,谷歌AI目前還無法提供最新的資訊(例如剛發表的論文)。所以,就目前而言,我自認能提供比谷歌AI更新、更精準的醫療資訊。當然,谷歌AI對於任何問題的即時回答,是我無法做到的。

問2:會不會因不同醫師的個人偏好,而採取AI的不同診療及用藥建議?

答2:當然會。AI只是提供資料。至於如何診療及用藥,最後的決定權還是在醫師手裡。

問3:風險責任屬誰??

答3:最簡單的答案就是「根據合約」。如果我準備要付費來使用某家公司的AI,那我當然會先確定該公司有擔保資料的正確性。如果沒有合約,例如不用付費的谷歌或ChatGPT,那它們都是有免責聲明的,所以責任當然是在使用者身上。