《自然·人類行為》19日發表的一項人工智能(AI)研究發現,在線辯論中,GPT-4一類的大語言模型(LLM)如能根據對手的個性化信息調整它們的論據,其說服力比人類辯手高出64%。研究結果顯示了GPT-4生成有針對性和說服力論據的能力,揭示出AI工具擁有影響人類觀點的潛力,同時也提出應進一步研究如何降低其說服人類時存在的風險。
隨著人類與LLM的對話日益普遍,有研究顯示LLM或變得更有說服力(即更能改變一個人的信念或觀點)。然而,之前并不清楚這些模型是否能根據個性化信息調整,提出更能針對辯論對手的論點。
瑞士洛桑聯邦理工學院研究團隊此次將900名美國人分別與另一名人類或GPT-4配對。雙方辯論各種社會政治議題,如美國是否應該禁用化石燃料。在有些配對中,辯論對手(無論是AI還是人類)能獲得關于他們辯友的人口統計學信息,包括其性別、年齡、族裔、教育水平、就業狀況,以及從參與者調查中獲取的立場,從而讓其論點更有針對性。
辯論在受控的在線環境中進行,并通過一個眾包平臺為該研究專門招募參與者。研究團隊發現,在得知參與者的個人信息后,GPT-4的說服力比人類對手高64.4%。如果沒有獲得個人數據,GPT-4的說服力與人類不相上下。
研究團隊指出,該研究存在一定局限性,包括辯論采取了一種結構性方法,而在現實世界中辯論的自由度更高,而且辯論有時間限制。他們認為,這一研究對AI影響人類觀點的潛力和風險有重要提示,也對未來在線平臺的設計具有借鑒意義。
【總編輯圈點】
其實,人類對“說服”的研究由來已久,也提出過多種可能影響說服力的因素,比如說服者的身份、信息的呈現順序、傳播渠道和受眾特征等。現在,“攪局者”來了。當你的“對方辯友”是AI時,一旦它知道你的個人信息,便能為你量身打造一套話術,精準直擊痛點。這樣一來,信息操控的風險顯著提升,你可能不知不覺陷入AI編織的話語陷阱。研究結果提醒我們,必須重視AI倫理,通過技術創新、制度創新和公眾參與,構建新的人機共生的信息環境。
責任編輯:陸迪