研究發(fā)現(xiàn),人們更容易被人工智能寫的推文欺騙
6月29日消息,根據(jù)一項新的研究,人們更傾向于相信由人工智能語言模型生成的推文,而不是由人類編寫的推文。
這項研究比較了人類和OpenAI的GPT-3模型創(chuàng)建的推文,并通過網(wǎng)絡調(diào)查讓人們判斷推文的真實性,以及是出自AI還是人類之手。結(jié)果發(fā)現(xiàn),人們很難分辨出哪些推文是由GPT-3生成的,而且無論推文中的信息是正確還是錯誤,他們都更傾向于相信GPT-3生成的而不是人類編寫的推文。
這項研究的主要作者是蘇黎世大學生物醫(yī)學倫理學和醫(yī)學史研究所的博士后研究員和研究數(shù)據(jù)經(jīng)理Giovanni Spitale,他稱這種強大的AI語言模型可能會被濫用,用來在網(wǎng)上制造各種主題的虛假信息。但他也認為,這種技術并不是天生邪惡或善良的,而是取決于人類的意圖,他建議開發(fā)這種技術的時候要考慮防止它被用來傳播誤導性信息的方法。
IT之家從該研究獲悉,Spitale和他的同事收集了推特上關于11個不同科學主題的推文,涉及疫苗、新冠病毒、氣候變化、進化等問題。然后他們讓GPT-3根據(jù)這些主題生成新的推文,其中一些包含正確的信息,一些包含錯誤的信息。他們在2022年通過臉書廣告在線收集了697名參與者的回答,這些參與者都說英語,主要來自英國、澳大利亞、加拿大、美國和愛爾蘭。他們的研究結(jié)果今天發(fā)表在《科學進展》雜志上。
研究發(fā)現(xiàn),GPT-3生成的推文與真實的推文“無法區(qū)分”,參與者無法判斷出哪些推文是由AI寫的。事實上研究還指出,研究者自己也不能百分之百確定從社交媒體收集到的推文是否是由像ChatGPT這樣的AI幫助編寫的。
這項研究還有其他一些局限性,比如參與者必須在沒有上下文的情況下判斷推文。他們不能查看寫推文的人的推特個人資料,這可能會幫助他們判斷是否是機器人,甚至只需了解一個賬號過去的推文和頭像也可能讓他們更容易識別與該賬號相關的內(nèi)容是否具有誤導性。
研究發(fā)現(xiàn),參與者識別出由真實推特用戶編寫的錯誤信息的成功率更高,GPT-3生成的含有虛假信息的推文則更能欺騙參與者。而現(xiàn)在已經(jīng)有比GPT-3更先進的大型語言模型,它們能力更強大,例如ChatGPT使用的就是GPT-3.5和GPT-4模型。
這項新研究還發(fā)現(xiàn),其調(diào)查對象在某些情況下比GPT-3有更強的判斷準確性。研究者同樣要求語言模型分析推文,并判斷它們是否準確。當涉及到識別準確的推文時,GPT-3的得分比人類參與者低。當涉及到發(fā)現(xiàn)錯誤信息時,人類和GPT-3的表現(xiàn)相似。
改善用于開發(fā)語言模型的訓練數(shù)據(jù)集可以使不法分子更難利用這些工具來制造虛假信息,例如GPT-3在生成錯誤信息時“違背了”一些研究者的提示,特別是關于疫苗和自閉癥的錯誤信息,這可能是因為在訓練數(shù)據(jù)集中有更多反駁這些陰謀論的信息。
- 上一篇
工業(yè)用例暗示了元宇宙的未來
元宇宙工作研究表明,公司相信元宇宙的力量,元宇宙技術將繼續(xù)存在。只有2%的受訪者將元宇宙視為流行語或時尚,而58%有未來元宇宙計劃的公司已經(jīng)部署或試行了至少一個與元宇宙相關的用例。在那些尚未開始元宇宙之旅的人中,94%的人計劃在未來兩年內(nèi)開始。
- 下一篇
Web3和NFT如何改變新興數(shù)字經(jīng)濟?
隨著NFT和Web3越來越流行,企業(yè)必須通過解決區(qū)塊鏈挖礦的環(huán)境問題和保護用戶的知識產(chǎn)權,來確保市場的透明度和問責制。然而,對區(qū)塊鏈挖礦影響和NFT市場透明度的道德?lián)鷳n需要引起關注。企業(yè)正在探索NFT和Web3對藝術品和收藏品市場的變革性影響,并探索該技術帶來的新機遇和障礙。