什么是生成人工智能 (AI)?
去年被證明是技術形成的一年。企業(yè)越來越多地接觸到不同形式和自動化的應用——從機器學習到自然語言處理(NLP)——同時現在還必須考慮道德和法律影響。整個企業(yè)都在進行對話,系統(tǒng)現在足以自動化一些核心后臺功能。
然而,最令人興奮的發(fā)展之一是以生成人工智能(AI)的形式出現,它因ChatGPT和DALL·E 2等而聞名。創(chuàng)造力的名稱。生成式AI可以生成圖像和文字,甚至可以模仿人類的聲音,引發(fā)了圍繞倫理影響以及AI是否有可能取代人類核心創(chuàng)造性功能的廣泛討論。不過,這在很大程度上取決于現有的特定工具,以及產品的質量以及人們是否愿意注意潛在的缺點。
生成式人工智能的起源是什么?
盡管生成式人工智能在去年隨著MidJourney等技術的廣泛使用而流行起來,但圍繞這項技術的討論已經持續(xù)了更長時間。早在2012年,荷蘭研究人員就撰寫了有關生成式人工智能的哲學基礎的文章。不到三年前,Indium Software也發(fā)布了一份白皮書,其中強調了生成式人工智能不僅可以如何創(chuàng)造性地使用,而且還強調了高摩擦工作場所,如衛(wèi)生保健。
對于許多人來說,這是創(chuàng)造力和技術的自然演變。這些功能傾向于演變成引擎,這些引擎可以吸引我們現在看到的那種吸引力,這種想法是這樣的。這不僅適用于那些高度沉浸在IT或企業(yè)世界中的人,也適用于對這個以前不透明的過程感到好奇的普通社交媒體用戶。憑借這項技術的發(fā)展勢頭,最近Grand View Research的研究結果顯示,到2030年,生成人工智能市場將接近1090億美元(約合914億英鎊)也就不足為奇了。
生成式人工智能是如何工作的?
生成AI是一個可以采用幾種形式的過程,但其核心意味著使用神經網絡等工具——以生成對抗網絡(GAN)、轉換器、變分自動編碼器和擴散模型的形式來獲取輸入的創(chuàng)意數據并吐出新的創(chuàng)作。我們在這里廣泛使用創(chuàng)意一詞,不僅指您的朋友試圖用最少的資源來提升他們的圖形設計游戲,還指商業(yè)環(huán)境中可用的創(chuàng)新用途。
與試圖對信息進行分類的AI形式相反,生成AI依賴于試圖理解數據集結構并生成可能相關或匹配的示例的建模。這里發(fā)揮作用的兩種主要神經網絡形式——GAN和Transformer——工作方式略有不同??偟膩碚f,前者涉及從圖像和文本創(chuàng)建視覺和多媒體內容,而后者則使用互聯網上的信息生成文本輸出。
生成人工智能的一些例子是什么?
現在有一系列由神經網絡提供支持的工具,從Midjourney和DALL·E 2等基于圖像的工具到GPT-3和LaMDA等基于文本的系統(tǒng),以及即將推出的GPT-4。還有微軟開發(fā)的VALL-E,這是一個用來生成語音的工具。
除了嘗試制作圣誕賀卡之外,Open AI的DALL·E 2和ChatGPT等工具還被用來探索它們對其他創(chuàng)意工作的影響。使用Lensa AI在社交媒體上增加了人工智能生成的個人資料圖片,而YouTube用戶已經嘗試使用GPT-3等工具為流媒體服務生成視頻內容。例如,Corridor Digital反復探索生成式人工智能如何通過模仿特效來擾亂視頻制作。
生成式人工智能有什么好處?
生成式AI如此受歡迎的部分原因在于其引人注目的輸出、易用性和創(chuàng)造奇跡的能力。也許有人正在尋找AI輔助版本的拼貼畫來激發(fā)他們的創(chuàng)作過程,或者他們可能對AI模型對辭職信有何建議感到好奇。對于那些在2023年尋求新挑戰(zhàn)的人來說,他們可能會依靠機器來更好地宣傳自己的技能和能力。有些人可能只是想知道如果他們最喜歡的兩位藝術家合作會發(fā)生什么。
Indium Software在更實用且道德上更不可疑的層面上建議,生成人工智能可用于醫(yī)療保健領域,使圖像更有用。與此同時,自動化公司Fireflies ai建議生成式人工智能可以有效地用于大規(guī)模物流規(guī)劃和機場身份驗證等方面。盡管如此,這些用例中的每一個都會產生比其解決的問題更多的問題。毫無疑問,為這些工具提供動力和使用它們將涉及大量數據——那么這些數據將存儲在哪里呢?敏感用例還存在隱私問題和網絡安全問題。
圍繞生成式AI的主要擔憂是什么?
已經被廣泛討論的生成人工智能的一個風險是有可能加劇deepfakes的興起。這些圖像或視頻的創(chuàng)建方式是逼真地模仿一個人,通常是名人,但也可能是杰出的商業(yè)領袖,以這種方式可以欺騙他人。
人們普遍擔心技術進步會使這種威脅變得非常復雜,尤其是在生成人工智能可以被武器化的方式上。例如,實時deepfakes現在正成為更嚴重的威脅。像微軟的VALL-E這樣的工具——一種人工智能驅動的系統(tǒng),只需三秒的輸入音頻就可以模仿人類的聲音——可能會引發(fā)網絡犯罪的新時代。
最近出現了關于在代碼中使用AI助手工具如何帶來重大安全風險的報告。高度重視創(chuàng)造力的生成式人工智能可能會帶來類似的問題。有很多這樣的例子,有人向MidJourney這樣的工具輸入了提示,然后在角落里看到了一個扭曲的版權標志。這些工具并不是特別挑剔,MidJourney首席執(zhí)行官David Holz向Fobes承認,他們的產品所訓練的作品并沒有征求藝術家的許可。
另一個問題與教育有關。各級教師——從早年學習到行業(yè)認證——都擔心ChatGPT和GPT-4等未來迭代會影響資格的獲得方式。如果你用谷歌搜索“AI剽竊追蹤器”,你可能會得到與你對工具本身的預期一樣多的結果。有些人認為作弊一直是可能的,手頭工具的數量和質量無關緊要,但隨著情況的不斷發(fā)展,這種擔憂仍然值得注意。
雖然人們很容易將生成式人工智能視為一種惡毒的力量,但考慮到它在創(chuàng)意產業(yè)和經濟的各個部分造成的早期混亂,這并不意味著它不能被馴服并用于生產用例。也就是說,有很多問題需要首先解決,監(jiān)管是目前的熱門話題。例如,人工智能權利法案是在美國起草的,作為塑造未來監(jiān)管的框架。毫無疑問,任何未來的AI法規(guī)都將旨在圍繞生成AI的使用制定一套規(guī)則和規(guī)定,以確保它以盡可能少的危害帶來最大程度的利益。