大型語(yǔ)言模型要避免的六個(gè)陷阱
從安全和隱私問(wèn)題到錯(cuò)誤信息和偏見(jiàn),大型語(yǔ)言模型帶來(lái)了風(fēng)險(xiǎn)和回報(bào)。
最近人工智能(AI)取得了令人難以置信的進(jìn)步,這主要是由于開(kāi)發(fā)大型語(yǔ)言模型的進(jìn)步。這些都是文本和代碼生成工具的核心,例如ChatGPT、Bard和GitHub的Copilot。
這些模式正在被所有部門(mén)采用。但是,它們是如何被創(chuàng)造和使用的,以及它們?nèi)绾伪粸E用,仍然令人擔(dān)憂(yōu)。一些國(guó)家已經(jīng)決定采取激進(jìn)的方法,暫時(shí)禁止特定的大型語(yǔ)言模型,直到適當(dāng)?shù)姆ㄒ?guī)到位。
以下來(lái)看看基于大型語(yǔ)言模型的工具在現(xiàn)實(shí)世界中的一些不利影響,以及減輕這些影響的一些策略。
1.惡意的內(nèi)容
大型語(yǔ)言模型可以在很多方面提高生產(chǎn)力。它們能夠解釋人們的請(qǐng)求并解決相當(dāng)復(fù)雜的問(wèn)題,這意味著人們可以把平凡、耗時(shí)的任務(wù)交給最喜歡的聊天機(jī)器人,然后簡(jiǎn)單地檢查結(jié)果。
當(dāng)然,權(quán)力越大,責(zé)任越大。雖然大型語(yǔ)言模型可以創(chuàng)建有用的材料并加快軟件開(kāi)發(fā),但它們也可以快速訪(fǎng)問(wèn)有害信息,加速壞人的工作流程,甚至生成惡意內(nèi)容,如網(wǎng)絡(luò)釣魚(yú)電子郵件和惡意軟件。當(dāng)進(jìn)入門(mén)檻低到只需編寫(xiě)一個(gè)構(gòu)造良好的聊天機(jī)器人提示符時(shí),“腳本小子”一詞就有了全新的含義。
雖然有一些方法可以限制訪(fǎng)問(wèn)客觀上危險(xiǎn)的內(nèi)容,但它們并不總是可行或有效的。就像聊天機(jī)器人這樣的托管服務(wù)而言,內(nèi)容過(guò)濾至少可以幫助沒(méi)有經(jīng)驗(yàn)的用戶(hù)減慢速度。實(shí)現(xiàn)強(qiáng)大的內(nèi)容過(guò)濾器應(yīng)該是必要的,但它們并不是無(wú)所不能的。
2.提示注射
特制的提示符可以迫使大型語(yǔ)言模型忽略?xún)?nèi)容過(guò)濾器并產(chǎn)生非法輸出。這個(gè)問(wèn)題普遍存在于所有l(wèi)lm,但隨著這些模型與外部世界的聯(lián)系,這個(gè)問(wèn)題將被放大;例如,作為ChatGPT的插件。這可以使聊天機(jī)器人“eval”用戶(hù)生成的代碼,從而導(dǎo)致任意代碼的執(zhí)行。從安全的角度來(lái)看,為聊天機(jī)器人配備這種功能是非常有問(wèn)題的。
為了幫助緩解這種情況,了解基于llm的解決方案的功能以及它如何與外部端點(diǎn)交互是很重要的。確定它是否已連接到API,是否正在運(yùn)行社交媒體帳戶(hù),或者是否在沒(méi)有監(jiān)督的情況下與客戶(hù)交互,并相應(yīng)地評(píng)估線(xiàn)程模型。
雖然提示注入在過(guò)去可能看起來(lái)無(wú)關(guān)緊要,但這些攻擊現(xiàn)在可能會(huì)產(chǎn)生非常嚴(yán)重的后果,因?yàn)樗鼈冮_(kāi)始執(zhí)行生成的代碼,集成到外部API中,甚至讀取瀏覽器選項(xiàng)卡。
3.隱私資料/侵犯版權(quán)
訓(xùn)練大型語(yǔ)言模型需要大量的數(shù)據(jù),有些模型的參數(shù)超過(guò)5000億個(gè)。在這種規(guī)模下,了解出處、作者身份和版權(quán)狀態(tài)是一項(xiàng)艱巨的任務(wù),如果不是不可能的話(huà)。未經(jīng)檢查的訓(xùn)練集可能導(dǎo)致模型泄露私有數(shù)據(jù)、錯(cuò)誤地歸因于引用或剽竊受版權(quán)保護(hù)的內(nèi)容。
關(guān)于大型語(yǔ)言模型使用的數(shù)據(jù)隱私法也非常模糊。正如我們?cè)谏缃幻襟w上了解到的那樣,如果某樣?xùn)|西是免費(fèi)的,那么很可能用戶(hù)就是產(chǎn)品。值得記住的是,如果人們要求聊天機(jī)器人在我們的代碼中找到錯(cuò)誤或編寫(xiě)敏感文檔,我們就會(huì)將這些數(shù)據(jù)發(fā)送給第三方,他們最終可能會(huì)將其用于模型培訓(xùn)、廣告或競(jìng)爭(zhēng)優(yōu)勢(shì)。人工智能提示的數(shù)據(jù)泄露在商業(yè)環(huán)境中尤其具有破壞性。
隨著基于大型語(yǔ)言模型的服務(wù)與Slack和Teams等工作場(chǎng)所生產(chǎn)力工具集成在一起,仔細(xì)閱讀提供商的隱私政策、了解人工智能提示的使用方式,并相應(yīng)地規(guī)范大型語(yǔ)言模型在工作場(chǎng)所的使用,這一點(diǎn)至關(guān)重要。在版權(quán)保護(hù)方面,我們需要通過(guò)選擇加入或特殊許可來(lái)規(guī)范數(shù)據(jù)的獲取和使用,而不妨礙我們今天擁有的開(kāi)放和基本上自由的互聯(lián)網(wǎng)。
4.錯(cuò)誤信息
雖然大型語(yǔ)言模型們可以令人信服地假裝聰明,但他們并不真正“理解”他們生產(chǎn)的東西。相反,他們的貨幣是單詞之間的概率關(guān)系。他們無(wú)法區(qū)分事實(shí)和虛構(gòu)——一些輸出可能看起來(lái)非??尚?,但結(jié)果是一個(gè)自信的措辭不真實(shí)。這方面的一個(gè)例子是ChatGPT篡改引文,甚至整篇論文,正如一位Twitter用戶(hù)最近直接發(fā)現(xiàn)的那樣。
大型語(yǔ)言模型工具在大量的任務(wù)中可以證明是非常有用的,但人類(lèi)必須參與驗(yàn)證其響應(yīng)的準(zhǔn)確性、益處和總體合理性。
對(duì)于LLM工具的輸出,應(yīng)該始終持保留態(tài)度。這些工具在大量任務(wù)中非常有用,但人類(lèi)必須參與驗(yàn)證其響應(yīng)的準(zhǔn)確性、益處和總體合理性。否則,我們會(huì)失望的。
5.有害的建議
在網(wǎng)上聊天時(shí),越來(lái)越難以分辨你是在和人說(shuō)話(huà)還是在和機(jī)器說(shuō)話(huà),一些實(shí)體可能會(huì)試圖利用這一點(diǎn)。例如,今年早些時(shí)候,一家心理健康科技公司承認(rèn),一些尋求在線(xiàn)咨詢(xún)的用戶(hù)在不知情的情況下與基于gpt3的機(jī)器人而不是人類(lèi)志愿者進(jìn)行了互動(dòng)。這引起了人們對(duì)在精神衛(wèi)生保健和任何其他依賴(lài)于解釋人類(lèi)情感的環(huán)境中使用大型語(yǔ)言模型的倫理?yè)?dān)憂(yōu)。
目前,幾乎沒(méi)有監(jiān)管監(jiān)督來(lái)確保公司在沒(méi)有最終用戶(hù)明確同意的情況下不能以這種方式利用人工智能。此外,對(duì)手可以利用令人信服的人工智能機(jī)器人進(jìn)行間諜活動(dòng)、詐騙和其他非法活動(dòng)。
人工智能沒(méi)有情感,但它的反應(yīng)可能會(huì)傷害人們的感情,甚至導(dǎo)致更悲慘的后果。認(rèn)為人工智能解決方案可以負(fù)責(zé)任地、安全地充分解釋和回應(yīng)人的情感需求是不負(fù)責(zé)任的。
在醫(yī)療保健和其他敏感應(yīng)用中使用大型語(yǔ)言模型應(yīng)受到嚴(yán)格監(jiān)管,以防止對(duì)用戶(hù)造成任何傷害的風(fēng)險(xiǎn)。基于llm的服務(wù)提供商應(yīng)該始終告知用戶(hù)AI對(duì)服務(wù)的貢獻(xiàn)范圍,并且與bot交互應(yīng)該始終是一種選擇,而不是默認(rèn)設(shè)置。
6.偏見(jiàn)
人工智能解決方案的好壞取決于它們所接受的訓(xùn)練數(shù)據(jù)。這些數(shù)據(jù)通常反映了我們對(duì)政黨、種族、性別或其他人口統(tǒng)計(jì)數(shù)據(jù)的偏見(jiàn)。偏見(jiàn)會(huì)給受影響的群體帶來(lái)負(fù)面影響,在這種情況下,模型會(huì)做出不公平的決定,而且可能既微妙又可能難以解決。在未經(jīng)審查的互聯(lián)網(wǎng)數(shù)據(jù)上訓(xùn)練的模型總是會(huì)反映出人類(lèi)的偏見(jiàn);不斷從用戶(hù)交互中學(xué)習(xí)的模型也容易被故意操縱。
為了減少歧視的風(fēng)險(xiǎn),大型語(yǔ)言模型服務(wù)提供商必須仔細(xì)評(píng)估他們的培訓(xùn)數(shù)據(jù)集,以避免任何可能導(dǎo)致負(fù)面后果的不平衡。機(jī)器學(xué)習(xí)模型也應(yīng)該定期檢查,以確保預(yù)測(cè)保持公平和準(zhǔn)確。
大型語(yǔ)言模型完全重新定義了我們與軟件交互的方式,為我們的工作流程帶來(lái)了無(wú)數(shù)的改進(jìn)。然而,由于目前缺乏針對(duì)人工智能的有意義的法規(guī),以及針對(duì)機(jī)器學(xué)習(xí)模型的安全性缺乏,廣泛而倉(cāng)促的大型語(yǔ)言模型實(shí)施可能會(huì)出現(xiàn)重大挫折。因此,必須迅速監(jiān)管和保護(hù)這項(xiàng)寶貴的技術(shù)。?
- 上一篇
什么是5G時(shí)代的邊緣計(jì)算?
5G 的出現(xiàn)大大降低了設(shè)備相互連接的延遲,但僅靠這種網(wǎng)絡(luò)還不足以滿(mǎn)足當(dāng)今的需求。 這就是邊緣計(jì)算技術(shù)的用武之地:使數(shù)據(jù)處理更接近數(shù)據(jù)生成的地方。
- 下一篇
人工智能和大數(shù)據(jù)在能源效率中的作用
面對(duì)減少氣體排放和發(fā)展更可持續(xù)、更生態(tài)的經(jīng)濟(jì)模式的驚人需求,新技術(shù)正變得越來(lái)越突出。因此,企業(yè)和機(jī)構(gòu)正在實(shí)施人工智能和大數(shù)據(jù)等技術(shù),以改進(jìn)替代方案。
相關(guān)資訊
- 帶你了解邊緣云到底是什么云?
- 人工智能如何通過(guò)遠(yuǎn)程患者監(jiān)測(cè)來(lái)
- 十大抱抱臉(Hugging Face)數(shù)據(jù)集
- 數(shù)據(jù)網(wǎng)格可以改進(jìn)數(shù)字產(chǎn)品開(kāi)發(fā)的
- 將塑造2023年的6大企業(yè)技術(shù)
- 確保無(wú)損視頻傳輸:關(guān)鍵因素、技術(shù)
- 企業(yè)是否準(zhǔn)備好保護(hù)其云計(jì)算操作
- 注意交通可達(dá)性差距:設(shè)計(jì)可達(dá)性?xún)?yōu)
- 利用大數(shù)據(jù)分析徹底改變旅游業(yè)
- 2022年金融科技發(fā)展服務(wù)領(lǐng)先趨勢(shì)