記者楊艾庭/綜合報導
AI(人工智慧)的話是否全都可信?在日常生活中,人們會與各種AI對話引擎互動,例如語音型智慧助理Google Assistant、Apple Siri、Amazon Alexa,或是文字型聊天機器人ChatGPT與Google Bard等。這些對話引擎中,有些可能會從學習資料提取到錯誤資訊(如網路謠言),而有些可能因生成式AI的特性而會自己無中生有地產出不實回應。不過,由於人們的記憶力有限,不是所有接受到的資訊都會成為記憶,而唯有成為記憶的資訊才會影響日常生活中的決策。因此,即便AI對話引擎會散播不實資訊,但這些資訊會多大程度「成為記憶」卻從未被量化地研究過。
臺灣大學心理學系副教授黃從仁、研究生鄭羽嵐及美國藝術與科學院院士Suparna Rajaram教授,在國科會「前瞻及應用科技處」與臺大「人工智慧與機器人研究中心」所支持的實驗研究中發現,「人類與會提供不實資訊的人型機器人交流後,會將約7至8成機器人所提供的不實資訊錯誤地指認為真實資訊。」值得注意的是,因為聳動資訊本就容易讓人印象深刻,此研究刻意採用不帶情緒或價值的中性資訊作為實驗材料,但仍觀察到有很高比例的不實資訊形成假記憶。此研究成果刊登在2023年11月20日出版的頂尖國際期刊《美國心理學家》American Psychologist,來對大眾與AI對話引擎的開發者提出警告。
此研究亦發現,這種從機器到人的「假記憶傳染」似乎是很難避免的。在另一組實驗中,機器人與人類交流前,就曾一次性告知有可能會提供錯誤資訊,或是數次在提供特定錯誤資訊前,做出自己不太確定答案的警告。然而,人們在與機器人交流過後的記憶測驗中,需在曾被數次特定警告的情況下,整體假記憶的比例才有些微減少。
進一步的分析則釐清這些假記憶減少的原因,是由於人們對機器人所說的內容提高戒心,而不是對被警告過的特定資訊。這個現象的成因是人們普遍相信有完美記憶的機器人能提供正確的資訊,而且人類有限的記憶容量會優先被用來記住資訊的內容而非對資訊的標註 (如其內容來源或是否有被警告過)。基於這些成因的普適性,這個現象也被預期發生在其他的人機互動情境,並令人擔憂ChatGPT介面中的「ChatGPT may produce inaccurate information about people, places, or facts.」是否為脫責但無效的警語。
根據這項研究,人們應對聊天機器人的輸出內容抱持適度戒心。此外,聊天機器人應儘量不要輸出錯誤的資訊。要達成此目標,技術上有幾種不同的實作方式,例如透過人工檢核的方式剔除學習資料中的錯誤資訊,或是讓聊天機器人透過網路搜尋來先對答案進行事實查核。若機器人無法確認自己答案的真確性,應該直接回答不知道而非聊勝於無地回應。這些以人為本的設計,才能讓人類在使用聊天引擎時能「役物/誤,而不役於物/誤。」