什么是可解釋的人工智能?
隨著人工智能 (AI) 變得越來越復(fù)雜并在社會中被廣泛采用,最關(guān)鍵的一組流程和方法是可解釋的 (AI),有時也稱為 XAI。
可解釋的人工智能可以定義為:
- 一組幫助人類用戶理解和信任機(jī)器學(xué)習(xí)算法結(jié)果的過程和方法。
正如您可以猜到的那樣,這種可解釋性非常重要,因?yàn)?AI 算法控制了許多部門,這帶來了偏見、錯誤算法和其他問題的風(fēng)險。通過可解釋性實(shí)現(xiàn)透明度,世界可以真正利用人工智能的力量。
顧名思義,可解釋的 AI 有助于描述 AI 模型、其影響和潛在的偏見。它還在 AI 驅(qū)動的決策過程中表征模型準(zhǔn)確性、公平性、透明度和結(jié)果方面發(fā)揮作用。
今天的 AI 驅(qū)動型組織應(yīng)始終采用可解釋的 AI 流程,以幫助在生產(chǎn)中建立對 AI 模型的信任和信心??山忉尩娜斯ぶ悄芤彩窃诋?dāng)今人工智能環(huán)境中成為一家負(fù)責(zé)任的公司的關(guān)鍵。
因?yàn)榻裉斓娜斯ぶ悄芟到y(tǒng)非常先進(jìn),人類通常會執(zhí)行一個計算過程來追溯算法是如何得出結(jié)果的。這個過程變成了一個“黑匣子”,意味著無法理解。當(dāng)這些無法解釋的模型直接從數(shù)據(jù)中開發(fā)出來時,沒有人能理解其中發(fā)生了什么。
通過了解 AI 系統(tǒng)如何通過可解釋的 AI 運(yùn)行,開發(fā)人員可以確保系統(tǒng)正常運(yùn)行。它還可以幫助確保模型符合監(jiān)管標(biāo)準(zhǔn),并為模型提供挑戰(zhàn)或改變的機(jī)會。
AI 和 XAI 之間的差異
一些關(guān)鍵差異有助于將“常規(guī)”人工智能與可解釋的人工智能區(qū)分開來,但最重要的是,XAI 實(shí)施了特定的技術(shù)和方法,有助于確保 ML 過程中的每個決策都是可追溯和可解釋的。相比之下,常規(guī) AI 通常使用 ML 算法得出結(jié)果,但無法完全理解算法是如何得出結(jié)果的。在常規(guī) AI 的情況下,檢查準(zhǔn)確性極其困難,導(dǎo)致失去控制、責(zé)任和可審計性。
可解釋人工智能的好處
對于希望采用可解釋 AI 的任何組織而言,都有很多好處,例如:
- 更快的結(jié)果:可解釋的人工智能使組織能夠系統(tǒng)地監(jiān)控和管理模型以優(yōu)化業(yè)務(wù)成果??梢猿掷m(xù)評估和改進(jìn)模型性能并微調(diào)模型開發(fā)。
- 降低風(fēng)險:通過采用可解釋的 AI 流程,您可以確保您的 AI 模型是可解釋和透明的。您可以管理法規(guī)、合規(guī)性、風(fēng)險和其他要求,同時最大限度地減少手動檢查的開銷。所有這些也有助于降低意外偏見的風(fēng)險。
- 建立信任:可解釋的人工智能有助于建立對生產(chǎn)人工智能的信任。AI 模型可以快速投入生產(chǎn),可以確保可解釋性和可解釋性,并且可以簡化模型評估過程并使其更加透明。
可解釋的人工智能技術(shù)
有一些 XAI 技術(shù)是所有組織都應(yīng)該考慮的,它們包括三種主要方法:預(yù)測準(zhǔn)確性、可追溯性和決策理解。
三種方法中的第一種,預(yù)測準(zhǔn)確性,對于在日常操作中成功使用 AI 至關(guān)重要。可以進(jìn)行模擬,并且可以將 XAI 輸出與訓(xùn)練數(shù)據(jù)集中的結(jié)果進(jìn)行比較,這有助于確定預(yù)測的準(zhǔn)確性。實(shí)現(xiàn)這一目標(biāo)的一種更流行的技術(shù)稱為本地可解釋模型無關(guān)解釋 (LIME),這是一種通過機(jī)器學(xué)習(xí)算法解釋分類器預(yù)測的技術(shù)。
第二種方法是可追溯性,這是通過限制如何做出決策以及為機(jī)器學(xué)習(xí)規(guī)則和特征建立更窄的范圍來實(shí)現(xiàn)的。最常見的可追溯性技術(shù)之一是 DeepLIFT,即深度學(xué)習(xí)重要特征。DeepLIFT 將每個神經(jīng)元的激活與其參考神經(jīng)元進(jìn)行比較,同時展示每個激活的神經(jīng)元之間的可追溯鏈接。它還顯示了它們之間的依賴關(guān)系。
第三種也是最后一種方法是決策理解,它以人為中心,與其他兩種方法不同。決策理解涉及教育組織,特別是與 AI 合作的團(tuán)隊,使他們能夠理解 AI 如何以及為何做出決策。這種方法對于建立對系統(tǒng)的信任至關(guān)重要。
可解釋的人工智能原則
為了更好地理解 XAI 及其原理,隸屬于美國商務(wù)部的美國國家標(biāo)準(zhǔn)研究院 (NIST) 提供了可解釋 AI 的四項(xiàng)原則的定義:
- 人工智能系統(tǒng)應(yīng)該為每個輸出提供證據(jù)、支持或推理。
- 人工智能系統(tǒng)應(yīng)該給出用戶可以理解的解釋。
- 解釋應(yīng)該準(zhǔn)確地反映系統(tǒng)用于達(dá)到其輸出的過程。
- 人工智能系統(tǒng)應(yīng)該只在它設(shè)計的條件下運(yùn)行,當(dāng)它對結(jié)果缺乏足夠的信心時,它不應(yīng)該提供輸出。
這些原則可以進(jìn)一步組織成:
- 有意義:為了實(shí)現(xiàn)有意義的原則,用戶應(yīng)該理解所提供的解釋。這也可能意味著,在不同類型的用戶使用 AI 算法的情況下,可能會有多種解釋。例如,在自動駕駛汽車的情況下,一種解釋可能是這樣的……“人工智能將路上的塑料袋歸類為巖石,因此采取了措施避免撞到它。”雖然此示例適用于驅(qū)動程序,但對于希望糾正問題的 AI 開發(fā)人員來說并不是很有用。在這種情況下,開發(fā)人員必須了解為什么會出現(xiàn)錯誤分類。
- 解釋準(zhǔn)確度:與輸出準(zhǔn)確度不同,解釋準(zhǔn)確度涉及 AI 算法準(zhǔn)確解釋它是如何達(dá)到其輸出的。例如,如果貸款批準(zhǔn)算法根據(jù)申請的收入來解釋決定,而實(shí)際上它是根據(jù)申請人的居住地,那么解釋將是不準(zhǔn)確的。
- 知識限制:人工智能的知識限制可以通過兩種方式達(dá)到,它涉及到系統(tǒng)專業(yè)知識之外的輸入。例如,如果構(gòu)建了一個對鳥類進(jìn)行分類的系統(tǒng),并給它一張?zhí)O果的圖片,它應(yīng)該能夠解釋輸入不是鳥。如果系統(tǒng)得到一張模糊的圖片,它應(yīng)該能夠報告它無法識別圖像中的鳥,或者它的識別具有非常低的置信度。
數(shù)據(jù)在可解釋人工智能中的作用
可解釋人工智能最重要的組成部分之一是數(shù)據(jù)。
根據(jù)谷歌的說法,關(guān)于數(shù)據(jù)和可解釋的人工智能,“人工智能系統(tǒng)最好通過底層的訓(xùn)練數(shù)據(jù)和訓(xùn)練過程以及由此產(chǎn)生的人工智能模型來理解。”這種理解依賴于將經(jīng)過訓(xùn)練的 AI 模型映射到用于訓(xùn)練它的確切數(shù)據(jù)集的能力,以及仔細(xì)檢查數(shù)據(jù)的能力。
為了增強(qiáng)模型的可解釋性,重要的是要注意訓(xùn)練數(shù)據(jù)。團(tuán)隊?wèi)?yīng)確定用于訓(xùn)練算法的數(shù)據(jù)的來源、獲取數(shù)據(jù)的合法性和道德規(guī)范、數(shù)據(jù)中的任何潛在偏見,以及可以采取哪些措施來減輕任何偏見。
數(shù)據(jù)和 XAI 的另一個關(guān)鍵方面是應(yīng)排除與系統(tǒng)無關(guān)的數(shù)據(jù)。為此,不相關(guān)的數(shù)據(jù)不得包含在訓(xùn)練集或輸入數(shù)據(jù)中。
谷歌推薦了一套實(shí)踐來實(shí)現(xiàn)可解釋性和問責(zé)制:
- 規(guī)劃您的選擇以追求可解釋性
- 將可解釋性視為用戶體驗(yàn)的核心部分
- 設(shè)計可解釋的模型
- 選擇指標(biāo)以反映最終目標(biāo)和最終任務(wù)
- 了解訓(xùn)練好的模型
- 向模型用戶傳達(dá)解釋
- 進(jìn)行大量測試以確保 AI 系統(tǒng)按預(yù)期工作
通過遵循這些推薦的做法,您的組織可以確保實(shí)現(xiàn)可解釋的 AI,這對于當(dāng)今環(huán)境中任何 AI 驅(qū)動的組織來說都是關(guān)鍵。
- 上一篇
什么是集成學(xué)習(xí)?
最強(qiáng)大的機(jī)器學(xué)習(xí)技術(shù)之一是集成學(xué)習(xí)。集成學(xué)習(xí)是使用多種機(jī)器學(xué)習(xí)模型來提高預(yù)測的可靠性和準(zhǔn)確性。然而,使用多個機(jī)器學(xué)習(xí)模型如何導(dǎo)致更準(zhǔn)確的預(yù)測?使用什么樣的技術(shù)來創(chuàng)建
- 下一篇
什么是計算思維?
我們生活的時代需要新的思維方式來解決新的挑戰(zhàn)。人工智能 (AI) 和機(jī)器學(xué)習(xí)(ML) 的興起帶來了一個新的數(shù)據(jù)驅(qū)動世界,這需要創(chuàng)新的方法。計算思維,通常稱為 CT,是計算機(jī)程序員在