解決人工智能偏見的重要步驟
我們之前提到過,偏差是機(jī)器學(xué)習(xí)中的一個(gè)大問題,必須加以緩解。人們需要采取重要步驟來幫助減輕未來的影響。
無論人們認(rèn)為自己在文化、社會(huì)或環(huán)境方面的意識(shí)如何,偏見都是每個(gè)人的固有特征。我們自然會(huì)被證實(shí)我們自己信念的事實(shí)所吸引。我們中的大多數(shù)人傾向于相信年輕人會(huì)比年長的同事更好地完成某些任務(wù),反之亦然。無數(shù)研究表明,外貌迷人的求職者比外貌不佳的求職者更有可能被錄用。清單還在繼續(xù)。
作為人類,我們不能自信地說我們的決策是沒有偏見的。這個(gè)問題的根本原因是偏見在不知不覺中蔓延,讓我們無力判斷我們所做的決定是否有偏見。
這就是為什么有偏見的人工智能算法的概念不應(yīng)該令人驚訝,因?yàn)槿斯ぶ悄芟到y(tǒng)的全部意義在于復(fù)制人類的決策模式。為了制作一個(gè)功能性的人工智能系統(tǒng),開發(fā)人員用無數(shù)真實(shí)的人如何解決特定問題的例子來訓(xùn)練它。
例如,為了構(gòu)建一個(gè)可以幫助對求職申請進(jìn)行分類的人工智能系統(tǒng),工程師會(huì)向算法展示許多接受和拒絕簡歷的例子。然后人工智能系統(tǒng)會(huì)找出影響決策的主要因素,開發(fā)人員會(huì)測試系統(tǒng)的準(zhǔn)確性,并進(jìn)行部署。在這個(gè)簡化的例子中,可能會(huì)出現(xiàn)兩個(gè)問題:一開始,人力資源專家的決策可能存在偏見,并且訓(xùn)練數(shù)據(jù)集可能無法代表特定的性別、年齡、種族等。例如,可能是,從歷史上看,一家公司一直無意中只雇用男性擔(dān)任前端開發(fā)人員職位,這促使人工智能將女性排除在外,甚至沒有機(jī)會(huì)接受采訪。這使我們想到了消除AI偏見的第一種方法。
數(shù)據(jù)公平
人工智能在解決許多挑戰(zhàn)方面發(fā)揮了重要作用。但是,其背后的數(shù)據(jù)必須結(jié)構(gòu)良好且盡可能無偏見。
在大多數(shù)情況下,AI不公平的最大原因在于訓(xùn)練數(shù)據(jù),尤其是對于缺乏經(jīng)驗(yàn)的開發(fā)人員或小公司而言。獲得足夠多樣化的數(shù)據(jù)集,考慮到每個(gè)人口統(tǒng)計(jì)數(shù)據(jù)或任何其他關(guān)鍵屬性,這是數(shù)據(jù)科學(xué)家夢寐以求的。這就是為什么您應(yīng)該將AI開發(fā)視為您的訓(xùn)練數(shù)據(jù)存在固有偏見,并在流程的每個(gè)階段都考慮到這一點(diǎn)。
艾倫圖靈研究所引入了一種名為“反事實(shí)公平”的方法,旨在揭示數(shù)據(jù)集問題。讓我們回到我們的例子中,一家公司雇用了一名使用AI的前端開發(fā)人員。在這種情況下,為了確保算法的公平性,開發(fā)人員需要進(jìn)行一個(gè)簡單的測試,讓AI系統(tǒng)評估兩個(gè)具有相同技能和經(jīng)驗(yàn)的候選人,唯一的區(qū)別是性別或任何其他非必要變量。公正的AI會(huì)給這兩個(gè)候選人同樣的評分,而不公平的AI會(huì)給男性更高的分?jǐn)?shù),這表明需要進(jìn)行調(diào)整。
該研究所制定了一套指導(dǎo)方針,旨在幫助人工智能開發(fā)人員確保模型的公平性。在Itransition,我們相信此類舉措將在解決人工智能偏見方面發(fā)揮越來越重要的作用。
對抗性學(xué)習(xí)
除了有缺陷的數(shù)據(jù)集外,偏見也會(huì)在模型學(xué)習(xí)階段悄悄出現(xiàn)。為了緩解這種情況,許多開發(fā)人員現(xiàn)在選擇對抗訓(xùn)練方法。這意味著除了您的主要模型(例如,對應(yīng)用程序進(jìn)行排序的模型)之外,您還應(yīng)用了另一個(gè)模型,該模型試圖根據(jù)主要模型的結(jié)果找出敏感變量(年齡、性別、種族等)。如果主模型是無偏差的,那么對抗模型將無法確定敏感屬性。數(shù)據(jù)科學(xué)家認(rèn)為這種技術(shù)是最有效和易于使用的技術(shù)之一,與傳統(tǒng)的重新稱重不同,對抗性學(xué)習(xí)可以應(yīng)用于大多數(shù)建模方法。
拒絕基于選項(xiàng)的分類
最后,還有許多后處理技術(shù)可以幫助減輕偏差。這種方法的吸引力在于,工程師和數(shù)據(jù)科學(xué)家都不需要為調(diào)整模型或更改數(shù)據(jù)集而煩惱,因?yàn)橹恍枰薷哪P洼敵觥?/p>
基于拒絕選項(xiàng)的分類是最流行的后處理技術(shù)之一。本質(zhì)上,通過拒絕模型最不自信的預(yù)測來減少偏差。例如,我們可以將置信度閾值設(shè)置為0.4。如果預(yù)測確定性為0.39或更低,系統(tǒng)會(huì)將輸出標(biāo)記為有偏差。
團(tuán)隊(duì)多元化
駕馭AI領(lǐng)域取決于對業(yè)務(wù)環(huán)境的了解比人們普遍認(rèn)為的要多。毫無疑問,數(shù)據(jù)科學(xué)與數(shù)字運(yùn)算密切相關(guān),但了解這些數(shù)字背后的原因同樣重要。即便如此,數(shù)據(jù)科學(xué)家的無意識(shí)偏見也會(huì)在偏見如何影響他們的算法方面發(fā)揮關(guān)鍵作用。這就是為什么打擊人工智能中的偏見往往與雇用不同種族、性別和背景的人密切相關(guān)。
為了實(shí)現(xiàn)更周到的招聘,公司需要采用更客觀的面試技巧。尤其是大企業(yè),太多的面試僅限于傳統(tǒng)的簡歷篩選。具有前瞻性和創(chuàng)新性的公司現(xiàn)在將基于現(xiàn)實(shí)世界項(xiàng)目的數(shù)據(jù)分析作為他們面試過程的核心。他們不僅評估候選人在科學(xué)方面執(zhí)行數(shù)據(jù)分析的能力,而且還確保他或她能夠在商業(yè)環(huán)境中解釋發(fā)現(xiàn)。
由于AI是許多業(yè)務(wù)轉(zhuǎn)型背后的驅(qū)動(dòng)力,因此我們必須建立明確的框架來解決AI中的偏見。認(rèn)識(shí)到我們無法完全消除偏見也很重要。然而,在算法中控制偏見比在人類中更容易實(shí)現(xiàn)。
- 上一篇
隨著AI技術(shù)的發(fā)展保持競爭力的5個(gè)技巧
人工智能技術(shù)市場正在顯著增長。僅去年一年,全球企業(yè)在人工智能上的支出就超過600億美元,預(yù)計(jì)需求將繼續(xù)增長。企業(yè)花費(fèi)大量時(shí)間和資源進(jìn)行營銷以在競爭中脫穎而出。雖然營銷仍然相關(guān)且必不可少,但人工智能技術(shù)提供了無限的機(jī)會(huì)...
- 下一篇
什么是用于視頻會(huì)議的最佳AI驅(qū)動(dòng)應(yīng)用程序?
人工智能正在幫助促進(jìn)業(yè)務(wù)的許多方面。在大流行期間,許多公司被迫比以往任何時(shí)候都更加依賴人工智能技術(shù),因?yàn)樗麄儽仨氄业叫碌姆椒▉砉膭?lì)社會(huì)疏遠(yuǎn)。即使大流??行開始消退,許
相關(guān)資訊
- 邊緣計(jì)算在建筑中的應(yīng)用價(jià)值有哪
- AI時(shí)代:洞察未來,重新定義人類與技
- 分布式時(shí)代已至,數(shù)據(jù)如何更有價(jià)值
- 如何在不同的云基礎(chǔ)架構(gòu)中確保一
- 數(shù)據(jù)分析,高手只比你多做了這一步
- 人工智能驅(qū)動(dòng)的員工監(jiān)控軟件解決
- 揭秘物聯(lián)網(wǎng)網(wǎng)關(guān):物聯(lián)網(wǎng)無縫通信背
- 人工智能可以取代司法系統(tǒng)中的工
- 對抗性機(jī)器學(xué)習(xí)的權(quán)威指南
- 優(yōu)化零售商物聯(lián)網(wǎng)的重要性