如何預防人工智能項目中常見的法律糾紛
人工智能 (AI) 的增加使用正在徹底改變企業(yè)的運營方式,并對傳統(tǒng)上現(xiàn)代化進程緩慢的行業(yè)產生顛覆性影響。為企業(yè)投資人工智能的好處是顯而易見的。人工智能可以提高生產力并增加新的熟練程度和可擴展性,并且可以進行定制以創(chuàng)造特定于行業(yè)的價值。
盡管有這些好處,但在技術項目中使用人工智能可能會導致復雜且有時意想不到的爭議。這些項目通常是隨項目進展而發(fā)展的定制協(xié)議。因此,當項目遇到困難時,要確定哪里出了問題并確定人工智能在引起爭議的問題中可能發(fā)揮的作用可能具有挑戰(zhàn)性。
增加了人工智能硬件的復雜性
如今,機器學習正被用于更多種類的技術項目中。深度學習系統(tǒng)使用神經網絡,需要大量的技術資源來運行、訓練和生成決策、預測和發(fā)現(xiàn)類比。
傳統(tǒng)系統(tǒng)和標準圖形處理單元不太可能跟上對 AI 工具和服務不斷增長的需求——增加了對希望使用 AI 的客戶和供應商投資專門設計的 AI 硬件的需求,例如 Graphcore 的最近發(fā)布的“Bow”人工智能芯片據(jù)稱能夠將機器學習任務的性能提高 40%。
對專業(yè)硬件的需求可能會增加與利用人工智能相關的成本,并且還會增加發(fā)生爭議的可能性,因為在制造、運輸和安裝階段出現(xiàn)問題的機會更多。這很容易導致關鍵項目里程碑的實現(xiàn)延遲,進而可能觸發(fā)延遲付款等補救措施,在最極端的情況下,還會終止合同。
技術項目通常會涉及多個利益相關者。實施人工智能解決方案所需的額外步驟的結果是,很難確定誰應對故障和延遲負責,無論是供應商、客戶、第三方還是兩者兼而有之。如果從一開始就沒有很好地界定各方的角色和責任,就會引發(fā)一系列糾紛。
這些通常是違反與供應商和客戶之間的協(xié)議有關的合同糾紛,以及可能與簽訂制造、運輸和安裝專門設計的人工智能硬件的第三方簽訂的各種合同。
確定責任
雖然人工智能系統(tǒng)使用的映射過程是自動化的,但設計、初始訓練數(shù)據(jù)和通過系統(tǒng)訓練模型的進一步數(shù)據(jù)由人工操作員控制。因此,人類可以看到人工智能工具開始使用的數(shù)據(jù)(輸入),以及工具產生的結果(輸出)。
介于兩者之間的情況通常被稱為“黑匣子問題”——在添加輸入數(shù)據(jù)后,更改底層 AI 系統(tǒng)可能非常困難,而且通常不會透明或解釋如何或為什么模型產生了特定的輸出。
這種缺乏透明度可能會造成復雜的責任問題,尤其是目前部署在技術項目中的主要人工智能工具和服務具有足夠的自主性,可以在沒有太多人工干預的情況下運行。因此,當人工智能系統(tǒng)故障直接導致?lián)p失發(fā)生時,要確定誰承擔責任要困難得多,故障可能是由于技術故障或模型設計和訓練方式中的人為錯誤造成的。
人類參與創(chuàng)建人工智能工具或服務意味著人類偏見很可能會反映在輸入數(shù)據(jù)、訓練數(shù)據(jù)和人工智能系統(tǒng)產生的輸出中。算法偏差可能出現(xiàn)在許多不同的環(huán)境中,并可能導致各種形式的歧視。
在金融服務環(huán)境中,人工智能系統(tǒng)的偏見可能導致資產估值錯誤,進而導致錯失投資機會。使用面部識別技術引起的歧視也有幾個引人注目的例子,其中性別和種族等特征以及社會評分系統(tǒng)的使用是該技術的使用和感知準確性所固有的。
管理人工智能解決方案合同中的風險
客戶和供應商必須清楚項目的主要目標,以及使用人工智能實現(xiàn)這些目標的方式,這一點至關重要。締約方應確保有一個全面的協(xié)議來管理項目并在出現(xiàn)問題時提供確定性,特別是在任何責任限制方面。
協(xié)議至少應包括涵蓋機密性、責任、數(shù)據(jù)保護和知識產權的詳細條款。在沒有專門的人工智能立法的情況下,這些領域目前可以自由協(xié)商。然而,應該注意的是,合同標準正在制定中——例如,知識產權條款將始終聲明供應商擁有人工智能中的知識產權,而客戶擁有使用它的許可。
通過確保各方清楚各自的角色和誰承擔風險,可以緩解與專門設計的人工智能硬件相關的問題。該協(xié)議還應規(guī)定支持項目的治理結構,并明確第三方關系和依賴關系將如何管理以及由誰管理。
人工智能的使用意味著典型的責任框架可能不適合。簽約在技術項目中使用人工智能工具或服務的各方應確保從一開始,協(xié)議就包含人工智能特定的保證、賠償和限制條款。
這些術語應針對將部署 AI 工具或服務的特定環(huán)境進行定制。該術語越籠統(tǒng),就越難確定是否滿足特定標準并確定責任。由于輸出與最初的人工輸入(前面提到的黑盒問題)過于脫節(jié),在涉及人工智能的情況下,通用服務標準(例如合理的技能和護理)不太可能是足夠的。
因此,締約方將需要起草創(chuàng)造性保證,例如,規(guī)定人工智能工具的行為方式應與具備適當能力和經驗的人在提供服務時運用合理技能和謹慎行事的方式相同。
同樣,人工智能解決方案的購買者可能希望包含用于訓練人工智能的數(shù)據(jù)集沒有歧視性、不違反數(shù)據(jù)保護原則或人工智能不會侵犯第三方知識產權的保證。
在合同談判階段應仔細審查責任限制和賠償條款,以確保在人工智能發(fā)生災難性故障導致重大第三方索賠的情況下,一方不會承擔不成比例的責任。
這些問題與人工智能的用途高度相關,因此締約方應與其利益相關者、顧問、律師和其他專家接觸,以幫助他們駕馭這一復雜領域。
締約方還需要了解與算法偏差相關的風險,并應尋求建立內部指導方針、流程和控制措施,以最大限度地減少和解決有偏見的人工智能系統(tǒng)可能導致的歧視和數(shù)據(jù)隱私風險。有效的內部治理框架可以幫助從初始數(shù)據(jù)集中識別任何不合理的偏差,也可以標記任何歧視性輸出。
不斷變化的監(jiān)管格局
盡管人們普遍認為需要人工智能監(jiān)管,但目前還沒有就如何實現(xiàn)這一點達成廣泛共識。
2021 年 4 月,歐盟委員會發(fā)布了人工智能法規(guī)草案。歐盟沒有選擇涵蓋所有人工智能系統(tǒng)的全面監(jiān)管,而是選擇采用基于風險的方法來區(qū)分人工智能的不可接受風險、高風險和低風險使用。
監(jiān)管干預的程度取決于人工智能工具或服務屬于哪一類風險??蛻艉凸潭紤煜しㄒ?guī)草案,并確定他們是否正在使用或打算使用具有不可接受風險的人工智能(因此禁止使用人工智能工具或服務),或者他們是否可能受到以下因素的影響提供高風險人工智能系統(tǒng)的要求。
未能解釋法規(guī)草案可能會導致違規(guī)處罰,最高可達全球年營業(yè)額的 6% 或 3000 萬歐元(2960 萬美元),以較高者為準。
條例草案的地域范圍集中在人工智能系統(tǒng)的影響是否發(fā)生在歐盟內部,而不是人工智能提供者或用戶的位置。
今年 7 月,英國政府發(fā)布了一份政策文件,題為“建立一種支持創(chuàng)新的方法來監(jiān)管人工智能”。本文以英國的國家人工智能戰(zhàn)略為基礎,闡述了政府對英國未來人工智能監(jiān)管的建議 英國的人工智能監(jiān)管方法旨在展示政府在脫歐后支持創(chuàng)新的監(jiān)管立場,因為它的目標是相稱,輕觸和前瞻性,希望這將推動創(chuàng)新和投資的發(fā)展。
雖然歐盟的人工智能法規(guī)草案將人工智能的使用按風險級別分類,但英國并未尋求對人工智能的特定用途進行分組,而是選擇依賴六項核心原則,這些原則將要求人工智能開發(fā)人員和用戶
- 確保安全使用人工智能;
- 確保人工智能在技術上是安全的并按設計運行;
- 確保人工智能具有適當?shù)耐该鞫群涂山忉屝裕?/li>
- 考慮公平;
- 確定負責人工智能的法人;和
- 闡明尋求補救或可競爭性的途徑。
此外,與歐盟采用的集中式方法相比,英國的提案將允許不同的監(jiān)管機構,例如 Ofcom、競爭市場管理局(CMA)和信息專員辦公室(ICO),來解釋和實施六項核心原則,并采用量身定制的方法來解決人工智能在一系列行業(yè)中日益增長的使用。
人工智能系統(tǒng)的開發(fā)人員和供應商還應該了解數(shù)字監(jiān)管合作論壇 (DRCF) 最近發(fā)表的關于算法處理的論文(其中包括人工智能應用程序,例如由機器學習驅動的應用程序)。
該論文指出,雖然算法處理有可能帶來顯著的好處,但如果不負責任地管理,它也會帶來一些風險。為了管理這些潛在危害,DRCF 建議可以通過增加使用監(jiān)管沙箱(例如金融行為監(jiān)管局 (FCA) 的數(shù)字沙箱)來實現(xiàn)更加親力親為的合作干預策略。
在這種策略被證明無效的情況下,該文件建議監(jiān)管機構可以訴諸權力,對那些不遵守規(guī)定并造成傷害的人采取執(zhí)法行動。
因此,簽約在技術項目中使用人工智能工具或服務的各方應努力了解最新的人工智能監(jiān)管發(fā)展,以確保他們了解自己的角色和責任,并了解他們可能面臨的監(jiān)管干預水平。
總之,通過采取上述步驟,認識到并減輕技術項目中使用人工智能的潛在風險的客戶和供應商,很可能會獲得人工智能的諸多好處。那些未能盡早采取行動以合同方式保護自己的人很容易發(fā)現(xiàn)自己陷入與本文中類似問題的技術糾紛,以及更多特定于項目的糾紛。
同樣,各方必須在項目的早期階段考慮人工智能監(jiān)管的各種提議,以確定適用的監(jiān)管框架,并評估是否需要進行合同變更以解釋人工智能監(jiān)管的發(fā)展。