為什么人工智能治理對(duì)于構(gòu)建更可信、更可解釋的人工智能很重要
隨著政府和企業(yè)快速采用人工智能工具,人工智能倫理將觸及社會(huì)的許多方面。然而,根據(jù)報(bào)告,78%的公司表示他們“沒有能力確保使用新人工智能系統(tǒng)的道德影響”,只有38%的公司采取了數(shù)據(jù)偏差檢測(cè)和緩解措施。
與顛覆性技術(shù)的通常情況一樣,人工智能發(fā)展的速度已經(jīng)迅速超過了監(jiān)管的速度。但是,在采用人工智能的競(jìng)賽中,許多公司開始意識(shí)到監(jiān)管機(jī)構(gòu)正在迎頭趕上。一些公司已經(jīng)因?yàn)殚_發(fā)或僅僅使用有偏見的人工智能算法而被提起訴訟。
企業(yè)正感受到人工智能監(jiān)管的壓力
今年,AI責(zé)任指令該法案將使起訴公司造成的傷害變得更容易,這是阻止公司開發(fā)和部署有害人工智能的更廣泛努力的一部分。該法案在擬議的人工智能法案上增加了額外的一層,這將要求對(duì)人工智能的“高風(fēng)險(xiǎn)”使用進(jìn)行額外的檢查,例如在警務(wù)、招聘或醫(yī)療保健中的使用。本月早些時(shí)候公布的這項(xiàng)法案很可能在未來幾年內(nèi)成為法律。
雖然有些人擔(dān)心人工智能責(zé)任指令會(huì)抑制創(chuàng)新,但其目的是讓人工智能公司承擔(dān)責(zé)任,并要求他們解釋他們的人工智能系統(tǒng)是如何構(gòu)建和訓(xùn)練的。未能遵守規(guī)定的科技公司將面臨全歐洲范圍的集體訴訟。
雖然在采取保護(hù)性政策方面動(dòng)作較慢,但也公布了一份藍(lán)圖AI權(quán)利法案本月早些時(shí)候概述了消費(fèi)者如何應(yīng)該免受有害人工智能的侵害:
- 人工智能應(yīng)該是安全有效的
- 算法不應(yīng)該歧視
- 數(shù)據(jù)隱私必須得到保護(hù)
- 消費(fèi)者應(yīng)該知道人工智能何時(shí)被使用
- 消費(fèi)者應(yīng)該能夠選擇不使用它,而是與人交談
但是有一個(gè)問題。“重要的是要認(rèn)識(shí)到人工智能權(quán)利法案不是有約束力的立法”。這是一系列建議,政府機(jī)構(gòu)和科技公司可能會(huì)自愿遵守,也可能不會(huì)遵守。這是因?yàn)樗怯砂讓m科學(xué)技術(shù)政策辦公室創(chuàng)建的,該機(jī)構(gòu)為總統(tǒng)提供建議,但不能推動(dòng)實(shí)際的法律。
不管有沒有嚴(yán)格的人工智能法規(guī),許多公司和機(jī)構(gòu)已經(jīng)面臨不道德人工智能實(shí)踐的訴訟。
公司需要關(guān)心的不僅僅是法律費(fèi)用。公眾對(duì)人工智能的信任正在減弱。無(wú)論一家企業(yè)是否在關(guān)于有偏見的人工智能的指控的法律斗爭(zhēng)中失敗,像這樣的事件對(duì)公司聲譽(yù)的影響可能是破壞性的。
盡管這讓人工智能的未來變得黯淡,但一切還沒有結(jié)束。IBM的全球人工智能采用指數(shù)發(fā)現(xiàn)85%的IT專業(yè)人士同意,消費(fèi)者更有可能選擇一家對(duì)其人工智能模型如何構(gòu)建、管理和使用透明的公司。
采取措施采用道德人工智能實(shí)踐的企業(yè)可能會(huì)獲得回報(bào)。那么,為什么這么多人遲遲不采取行動(dòng)呢?
問題可能是,盡管許多公司希望采用符合道德的人工智能實(shí)踐,但許多公司不知道從哪里開始人工智能治理
人工智能治理是定義政策和建立問責(zé)制的過程,以指導(dǎo)人工智能系統(tǒng)在組織中的創(chuàng)建和部署。
在治理之前,人工智能領(lǐng)域的人們直接從實(shí)驗(yàn)轉(zhuǎn)向生產(chǎn),但后來他們意識(shí)到,好吧,等一下,這不是我期望系統(tǒng)做出的決定。為什么會(huì)這樣,他們無(wú)法解釋為什么人工智能會(huì)做出某些決定。
人工智能治理實(shí)際上是確保公司知道他們的算法在做什么——并有文檔支持它。這意味著跟蹤和記錄算法是如何訓(xùn)練的,訓(xùn)練中使用的參數(shù),以及測(cè)試階段使用的任何指標(biāo)。
有了這一點(diǎn),公司就可以很容易地了解他們的人工智能系統(tǒng)的表面下發(fā)生了什么,并允許他們?cè)趯徲?jì)的情況下輕松地提取文檔。這種透明度也有助于打破公司內(nèi)部的知識(shí)孤島。
如果一名數(shù)據(jù)科學(xué)家離開了公司,而您沒有將過去的信息插入流程中的這個(gè)鉤子,這將非常難以管理。那些調(diào)查系統(tǒng)的人不會(huì)知道發(fā)生了什么。因此,這種文檔化的過程只是提供了關(guān)于正在發(fā)生的事情的基本理性,并使向組織內(nèi)的其他部門(如風(fēng)險(xiǎn)經(jīng)理)解釋它變得更容易。
雖然法規(guī)仍在制定中,但現(xiàn)在采用人工智能治理是邁向面向未來的重要一步:
來得又快又有力?,F(xiàn)在,人們出于事后審計(jì)的目的,制作手動(dòng)文檔。相反,現(xiàn)在開始記錄可以幫助公司為任何即將到來的法規(guī)做好準(zhǔn)備。
創(chuàng)新與治理之爭(zhēng)
公司可能會(huì)面臨快速創(chuàng)新和率先上市的日益激烈的競(jìng)爭(zhēng)。那么,花時(shí)間進(jìn)行人工智能治理不會(huì)減緩這一進(jìn)程并扼殺創(chuàng)新嗎?
人工智能治理不會(huì)阻止創(chuàng)新,就像剎車會(huì)阻止人們開車一樣:“汽車?yán)镉袪恳刂葡到y(tǒng),汽車?yán)镉袆x車。所有這些都是為了讓你走得更快,更安全。這就是我對(duì)人工智能治理的看法。這真的是為了從你的人工智能中獲得最大價(jià)值,同時(shí)確保在你創(chuàng)新時(shí)有護(hù)欄幫助你。”
這符合采用人工智能治理的最大原因:它具有商業(yè)意義。沒有人想要有缺陷的產(chǎn)品和服務(wù)。設(shè)置清晰透明的文檔標(biāo)準(zhǔn)、檢查點(diǎn)和內(nèi)部審查流程以減少偏見,最終可以幫助企業(yè)創(chuàng)造更好的產(chǎn)品并加快上市速度。
仍然不確定從哪里開始?
就在這個(gè)月,這家科技巨頭推出了IBM人工智能治理,這是一個(gè)一站式解決方案,適用于那些努力更好地了解這些系統(tǒng)背后發(fā)生的事情的公司。該工具使用自動(dòng)化軟件與公司的數(shù)據(jù)科學(xué)平臺(tái)合作,開發(fā)一致且透明的算法模型管理流程,同時(shí)跟蹤開發(fā)時(shí)間、元數(shù)據(jù)、部署后監(jiān)控和定制工作流。這有助于減輕數(shù)據(jù)科學(xué)團(tuán)隊(duì)的壓力,讓他們專注于其他任務(wù)。該工具還幫助業(yè)務(wù)領(lǐng)導(dǎo)始終了解他們的模型,并在審計(jì)時(shí)支持適當(dāng)?shù)奈臋n。
對(duì)于正在整個(gè)組織中使用人工智能并且不知道首先關(guān)注什么的公司來說,這是一個(gè)特別好的選擇。

- 上一篇
應(yīng)用人工智能和人工智能的發(fā)展階段
就目前而言,應(yīng)用人工智能(也可能被稱為“企業(yè)人工智能”)主要是在現(xiàn)實(shí)世界的應(yīng)用中使用機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型。這就是“工業(yè)化機(jī)器學(xué)習(xí)”,使在不同的應(yīng)用程序和環(huán)境中訓(xùn)練、部署、集成和更新ML模型變得更容易。
- 下一篇
如何解決AI的“常識(shí)”問題
近年來,深度學(xué)習(xí)在人工智能的一些最具挑戰(zhàn)性的領(lǐng)域取得了長(zhǎng)足的進(jìn)步,包括計(jì)算機(jī)視覺、語(yǔ)音識(shí)別和自然語(yǔ)言處理.然而,一些問題仍然沒有解決
相關(guān)資訊
- 企業(yè)擁抱人工智能的關(guān)鍵原因
- 云導(dǎo)航如何選擇合適的供應(yīng)商
- 如何更有效地利用大數(shù)據(jù)優(yōu)化智能
- 流式圖計(jì)算在螞蟻大數(shù)據(jù)場(chǎng)景的應(yīng)
- 從物聯(lián)網(wǎng)到威脅互聯(lián)網(wǎng)
- 人工智能、區(qū)塊鏈、物聯(lián)網(wǎng)和5G的
- 量子機(jī)器學(xué)習(xí)為投入實(shí)際應(yīng)用做好
- OpenAI提供新的微調(diào)和定制選項(xiàng)
- 扎克伯格:希望借助數(shù)字助理、智能
- 入侵和攻擊模擬在數(shù)據(jù)保護(hù)中扮演