當我們看到 AI 偶爾給出錯誤、矛盾或甚至是虛假訊息時(我們稱之為「幻覺」),這不只是單純的技術錯誤,其根源就在我們人類自己的知識體系中。

答案就在於:訓練 AI 的人類語料本身就沒有共識。

你認為的 AI 錯誤,其實是某些人腦中的真實。

大型語言模型(LLM)從數以萬億計的網路文本、書籍和論文中學習。這個龐大的數據庫,並非只包含無爭議的「真理」,而是充滿了人類知識的所有面向:科學定論、宗教信仰、民間傳說,以及大量「不見得所有人都認同」的資訊。

舉個例子:當你問 「人類會不會有前世記憶?」 時,AI 的語料庫中同時存在:

1. 科學共識的聲音: 認為意識源於大腦活動,死亡後意識隨之消散,缺乏證據支持記憶的延續。

2. 特殊研究的證據: 關於兒童自發性前世記憶的數千個案例,指出現象難以用傳統方式解釋。

3. 宗教與哲學的觀點: 堅信輪迴和前世記憶是真實存在的。

(這個例子算是比較溫和的。如果想要,還可以問出一些更尖銳的問題。)

AI 並沒有人類的「信念」或「判斷力」。它會根據這些矛盾的資訊來生成回答,如果某個錯誤或缺乏共識的觀點在語料庫中佔了足夠的份量,AI 就有可能將多種矛盾的資訊「縫合」在一起,產生邏輯不通但語法流暢的內容。

「過度自信」地呈現某個非主流或錯誤的觀點,將其誤認為真理。

AI 的錯誤,不只是技術上的 Bug,更是人類知識不確定性在機器上的投影。它提醒我們,知識並非一個完美的單一體系,而 AI 只是誠實地反映了我們世界中那些尚未解決的歧異與矛盾。