針對生成式AI制定企業(yè)使用政策的六個優(yōu)秀實踐
生成式AI是最近頗引人注目的一種AI技術(shù),它使用非監(jiān)督和半監(jiān)督式算法從現(xiàn)有材料(如文本、音頻、視頻、圖像和代碼)中生成新的內(nèi)容。這個AI分支的用途正在呈現(xiàn)出爆炸式的增長,企業(yè)組織正在使用生成式AI更好地服務(wù)于客戶、更多地利用企業(yè)現(xiàn)有數(shù)據(jù)、提高運營效率,以及許多其他用途。
但就像其他新興技術(shù)一樣,生成式AI并非沒有重大風(fēng)險和挑戰(zhàn)。根據(jù)Salesforce最近對高級IT領(lǐng)導(dǎo)者進行的一項調(diào)查顯示,有79%的受訪者認為,生成式AI技術(shù)可能存在安全風(fēng)險,73%的受訪者擔(dān)心生成式AI可能存在偏見,59%的受訪者認為生成式AI的輸出內(nèi)容不準確。此外,還需要考慮法律問題,特別是外部使用的生成式AI生成的內(nèi)容真實準確、內(nèi)容受版權(quán)保護或者來自競爭對手。
例如,ChatGPT本身會告訴我們,“我的回復(fù)是根據(jù)從大型文本數(shù)據(jù)集中學(xué)習(xí)的模式和關(guān)聯(lián)性生成的,并且我沒有能力驗證數(shù)據(jù)集中所有引用來源的準確性或可信度。”
僅法律風(fēng)險就十分廣泛,根據(jù)非營利性Tech Policy Press組織稱,這些風(fēng)險包括合同、網(wǎng)絡(luò)安全、數(shù)據(jù)隱私、欺詐性貿(mào)易行為、歧視、虛假信息、道德、知識產(chǎn)權(quán)和驗證相關(guān)的風(fēng)險。
事實上,你所在的組織可能已經(jīng)有很多員工正在測試使用生成式AI了,并且隨著這項活動從試驗轉(zhuǎn)向現(xiàn)實生活,在意外后果發(fā)生之前采取積極主動的措施是非常重要的。
谷歌公司首席決策科學(xué)家Cassie Kozyrkov表示:“如果AI生成的代碼奏效的話,那么它水平很高。但這并不總是有效的,所以在將它復(fù)制粘貼到其他重要地方之前,不要忘記測試ChatGPT的輸出內(nèi)容。”
企業(yè)使用政策和相關(guān)培訓(xùn)可以幫助員工了解這項技術(shù)存在的一些風(fēng)險和陷阱,并提供規(guī)則和建議以幫助他們了解如何充分利用該技術(shù),從而不讓組織陷入風(fēng)險的情況下實現(xiàn)商業(yè)價值最大化。
考慮到這一點,以下有六個最佳實踐可以用于制定企業(yè)使用生成式AI的政策。
確定你的政策范圍——企業(yè)制定使用政策的第一步是考慮其范圍。例如,這會涵蓋所有形式的AI還是僅針對生成式AI?僅針對生成式AI可能是一種很有用的方法,因為這解決了包括ChatGPT在內(nèi)的大型語言模型,而不必影響其他眾多AI技術(shù)。如何為針對更廣泛的領(lǐng)域建立AI治理政策則是另一回事,網(wǎng)上有數(shù)百種這樣的資源。
讓整個組織的所有相關(guān)利益相關(guān)者都參與進來——這可能包括人力資源、法律、銷售、市場營銷、業(yè)務(wù)開發(fā)、運營和IT。每個團隊都可能會有不同的用途,內(nèi)容如何被使用或者誤用產(chǎn)生的后果也可能不盡相同。讓IT和創(chuàng)新團隊參與進來,說明該政策不僅僅是從風(fēng)險管理角度制定的一種限制措施,而是一系列平衡的建議,旨在最大限度地提高生產(chǎn)效率和業(yè)務(wù)利益,同時管理業(yè)務(wù)風(fēng)險。
考慮生成式AI的現(xiàn)有和未來使用方式——與所有利益相關(guān)者展開合作,逐條列出目前正在應(yīng)用的所有內(nèi)部和外部用例,以及針對未來設(shè)想的用例,其中每一項都有助于為政策制定提供信息,并確保覆蓋了相關(guān)領(lǐng)域。例如,如果你已經(jīng)看到提案團隊(包括承包商)正在嘗試使用生成式AI起草內(nèi)容,或者產(chǎn)品團隊正在生成創(chuàng)意營銷內(nèi)容,那么你就知道,可能會因為輸出了潛在侵犯他人知識產(chǎn)權(quán)而產(chǎn)生后續(xù)知識產(chǎn)權(quán)方面的風(fēng)險。
處于不斷發(fā)展的狀態(tài)——在制定企業(yè)使用政策時,重要的是要全面思考并涵蓋進入系統(tǒng)的信息、生成式AI系統(tǒng)的使用方式,以及從系統(tǒng)中輸出的信息隨后是如何被使用的。關(guān)注內(nèi)部和外部用例以及兩者之間的一切。通過要求所有AI生成的內(nèi)容都貼上標簽,從而確保透明度并避免與人類生成的內(nèi)容相互混淆,即使是內(nèi)部使用,這項措施也可能有助于防止意外地將該內(nèi)容重新用于外部使用,或者防止在未經(jīng)核實的情況下根據(jù)你認為真實準確的信息采取行動。
在整個組織內(nèi)廣泛分享——由于政策通常很快就會被遺忘甚至無人閱讀,因此圍繞政策提供適當(dāng)?shù)呐嘤?xùn)和教育是非常重要的,這其中可以包括制作培訓(xùn)視頻和主持現(xiàn)場會議。例如,和IT、創(chuàng)新、法律、營銷和提案團隊或者其他相關(guān)團隊的代表進行現(xiàn)場問答,可以幫助員工了解未來的機遇和挑戰(zhàn)。一定要列舉出大量的例子來幫助讓聽眾身臨其境,比如當(dāng)重大法律案件突然出現(xiàn)時,可以作為例子被引用。
對文檔進行動態(tài)更新——和所有政策文檔一樣,你需要讓文檔保持動態(tài)更新,根據(jù)新的用途、外部市場條件和發(fā)展要求以合適的節(jié)奏對其進行更新。讓所有利益相關(guān)者“簽署”該政策或?qū)⑵浼{入由CEO簽署的現(xiàn)有政策手冊中,表明這些政策已經(jīng)獲得了高層的批準并且對組織很重要。你的政策應(yīng)該只是你更廣泛治理方法的一個組成部分,無論是針對生成式AI,還是普遍的AI技術(shù)或者技術(shù)治理。
這不是法律上建議,你的法律和人力資源部門應(yīng)該在批準和傳播政策方面發(fā)揮主導(dǎo)作用。但希望這能夠給你提供一些參考意見。就像十年前的企業(yè)社交媒體政策一樣,現(xiàn)在花時間在這方面上,未來幾年將有助于你減少意外的發(fā)生和不斷變化的風(fēng)險。
- 上一篇
現(xiàn)在自我調(diào)節(jié)是人工智能的控制標準
你是否擔(dān)心人工智能發(fā)展過快,可能會產(chǎn)生負面后果?你希望有一部國家法律來規(guī)范它嗎?如今,沒有新的法律來限制人工智能的使用,通常自我監(jiān)管成為采用人工智能的公司的最佳選擇——至少目前是這樣。
- 下一篇
商業(yè)建筑進入物聯(lián)網(wǎng)應(yīng)用階段
據(jù)數(shù)據(jù)表明,2022年,商業(yè)智能建筑中安裝的物聯(lián)網(wǎng)(IoT)連接設(shè)備數(shù)量將超過15億。這約占全球連接設(shè)備安裝總數(shù)的11.8%。預(yù)測2023年至2028年期間,商業(yè)智能建筑中使用的設(shè)備數(shù)量將以13.7%的復(fù)合年增長率增長,預(yù)計到2028年將達到32.5億臺。