可解釋性可以解決每個(gè)行業(yè)的人工智能問題
在其初期階段,人工智能可能已經(jīng)能夠滿足于新鮮事物的桂冠。機(jī)器學(xué)習(xí)可以慢慢學(xué)習(xí)并保持一個(gè)不透明的過程,在這個(gè)過程中,人工智能的計(jì)算對(duì)于普通消費(fèi)者來說是不可能滲透的。這正在改變。隨著醫(yī)療保健、金融和刑事司法系統(tǒng)等越來越多的行業(yè)開始以對(duì)人們生活產(chǎn)生真正影響的方式利用人工智能,越來越多的人想知道算法是如何使用的,數(shù)據(jù)是如何獲取的,以及只是它的能力有多準(zhǔn)確。如果公司想保持在市場創(chuàng)新的最前沿,他們需要依靠受眾信任的人工智能。人工智能的可解釋性是加深這種關(guān)系的關(guān)鍵因素。
AI 的可解釋性不同于標(biāo)準(zhǔn)的 AI 程序,因?yàn)樗鼮槿藗兲峁┝艘环N理解機(jī)器學(xué)習(xí)算法如何創(chuàng)建輸出的方法??山忉尩娜斯ぶ悄苁且粋€(gè)可以為人們提供潛在結(jié)果和缺點(diǎn)的系統(tǒng)。這是一個(gè)機(jī)器學(xué)習(xí)系統(tǒng),可以滿足人類對(duì)公平、問責(zé)制和尊重隱私的渴望??山忉尩娜斯ぶ悄軐?duì)于企業(yè)與消費(fèi)者建立信任至關(guān)重要。
在 AI 不斷擴(kuò)展的同時(shí),AI 供應(yīng)商需要明白黑匣子做不到。黑盒模型是直接根據(jù)數(shù)據(jù)創(chuàng)建的,通常即使是創(chuàng)建算法的開發(fā)人員也無法確定是什么驅(qū)動(dòng)了機(jī)器的學(xué)習(xí)習(xí)慣。但是盡職盡責(zé)的消費(fèi)者不想?yún)⑴c如此難以理解以至于無法追究責(zé)任的事情。人們想知道 AI 算法如何在沒有輸入源和受控輸出之謎的情況下得出特定結(jié)果,尤其是當(dāng) AI 的錯(cuò)誤計(jì)算通常是由于機(jī)器偏差造成的。隨著 AI 變得越來越先進(jìn),人們希望訪問機(jī)器學(xué)習(xí)過程以了解算法如何得出其特定結(jié)果。每個(gè)行業(yè)的領(lǐng)導(dǎo)者都必須明白,遲早,
語音助手、轉(zhuǎn)錄技術(shù)和其他將人類語音轉(zhuǎn)換為文本的服務(wù)等 ASR 系統(tǒng)尤其容易受到偏見的困擾.當(dāng)服務(wù)用于安全措施時(shí),由于口音、年齡或背景而導(dǎo)致的錯(cuò)誤可能是嚴(yán)重的錯(cuò)誤,因此必須認(rèn)真對(duì)待這個(gè)問題。例如,ASR 可以有效地用于警察隨身攝像頭,以自動(dòng)記錄和轉(zhuǎn)錄互動(dòng)——保留一份記錄,如果轉(zhuǎn)錄準(zhǔn)確,可以挽救生命??山忉屝缘膶?shí)踐將要求 AI 不僅依賴于購買的數(shù)據(jù)集,而且還試圖了解可能導(dǎo)致錯(cuò)誤(如果存在)的傳入音頻的特征。聲學(xué)概況是什么?背景有噪音嗎?說話者是來自非英語國家還是來自使用 AI 尚未學(xué)習(xí)的詞匯的一代人?機(jī)器學(xué)習(xí)需要積極主動(dòng)地更快地學(xué)習(xí),它可以從收集可以解決這些變量的數(shù)據(jù)開始。
必要性越來越明顯,但實(shí)施這種方法的途徑并不總是有一個(gè)簡單的解決方案。該問題的傳統(tǒng)解決方案是添加更多數(shù)據(jù),但需要更復(fù)雜的解決方案,尤其是當(dāng)許多公司使用的購買數(shù)據(jù)集存在固有偏差時(shí)。這是因?yàn)閺臍v史上看,很難解釋人工智能做出的特定決定,這是由于端到端模型的復(fù)雜性。然而,我們現(xiàn)在可以,而且我們可以首先詢問人們是如何失去對(duì) AI 的信任的。
人工智能不可避免地會(huì)犯錯(cuò)誤。公司需要構(gòu)建能夠意識(shí)到潛在缺陷的模型,確定問題發(fā)生的時(shí)間和地點(diǎn),并創(chuàng)建持續(xù)的解決方案以構(gòu)建更強(qiáng)大的 AI 模型:
當(dāng)出現(xiàn)問題時(shí),開發(fā)人員將需要解釋發(fā)生的事情并立即制定改進(jìn)模型的計(jì)劃以減少未來類似的錯(cuò)誤。
為了讓機(jī)器真正知道它是對(duì)還是錯(cuò),科學(xué)家們需要創(chuàng)建一個(gè)反饋回路,這樣人工智能才能了解它的缺點(diǎn)并進(jìn)化。
ASR 在 AI 仍在改進(jìn)的同時(shí)建立信任的另一種方法是創(chuàng)建一個(gè)可以提供信心分?jǐn)?shù)的系統(tǒng),并提供 AI 信心不足的原因。例如,公司通常會(huì)生成從 0 到 100 的分?jǐn)?shù),以反映他們自己的 AI 的缺陷并與客戶建立透明度。將來,系統(tǒng)可能會(huì)通過提供更多關(guān)于音頻的元數(shù)據(jù)(例如感知到的噪音水平或難以理解的口音)來對(duì)音頻具有挑戰(zhàn)性的原因提供事后解釋。
更高的透明度將使人類更好地監(jiān)督人工智能的訓(xùn)練和表現(xiàn)。我們對(duì)需要改進(jìn)的地方越開放,我們就越有責(zé)任對(duì)這些改進(jìn)采取行動(dòng)。例如,研究人員可能想知道為什么輸出了錯(cuò)誤的文本,以便他們可以緩解這個(gè)問題,而轉(zhuǎn)錄員可能想要有關(guān) ASR 為何誤解輸入的證據(jù),以幫助他們?cè)u(píng)估其有效性。讓人類參與進(jìn)來可以緩解人工智能不受控制時(shí)出現(xiàn)的一些最明顯的問題。它還可以加快 AI 實(shí)時(shí)捕捉錯(cuò)誤、改進(jìn)并最終糾正自身所需的時(shí)間。
人工智能有能力改善人們的生活,但前提是人類能夠正確地生產(chǎn)它。我們不僅要讓這些系統(tǒng)負(fù)責(zé),還要讓創(chuàng)新背后的人負(fù)責(zé)。預(yù)計(jì)未來的人工智能系統(tǒng)將遵守人們制定的原則,只有到那時(shí),我們才會(huì)擁有人們信任的系統(tǒng)?,F(xiàn)在是時(shí)候奠定基礎(chǔ)并為這些原則而奮斗,而最終仍然是人類為自己服務(wù)。
- 上一篇
NB-IOT將重塑智慧城市的未來
NB-IoT(窄帶物聯(lián)網(wǎng))是一種低功耗技術(shù),專為物聯(lián)網(wǎng)(IoT)應(yīng)用和其他低數(shù)據(jù)速率通信需求而設(shè)計(jì)。其使用窄帶無線電頻譜和先進(jìn)的電源管理技術(shù),能夠有效利用可用頻譜,并延長物聯(lián)網(wǎng)設(shè)備的電池壽命。
- 下一篇
九成的SaaS買家為人工智能驅(qū)動(dòng)的服務(wù)多付了錢
近年來,人工智能正在成為一種強(qiáng)大的顛覆性技術(shù)。一項(xiàng)民意調(diào)查顯示,86% 的 CEO認(rèn)為 AI 是他們公司嚴(yán)重依賴的主流技術(shù)。根據(jù) SaaS 采購平臺(tái) Vertice 最近的一份報(bào)告,90% 的買家
相關(guān)資訊
- 最終用戶數(shù)據(jù)威脅企業(yè)不能忽視
- 云計(jì)算支出不斷上升,企業(yè)如何通過
- 到2026年,歐洲和北美的聯(lián)網(wǎng)電動(dòng)汽
- 藝術(shù)在線平臺(tái)開始審查人工智能生
- 邊緣計(jì)算為不斷增長的數(shù)據(jù)中心需
- 駕馭不確定性:在數(shù)據(jù)和人工智能市
- 物聯(lián)網(wǎng)系統(tǒng)中數(shù)據(jù)分析的五大挑戰(zhàn)
- 推動(dòng)區(qū)塊鏈領(lǐng)導(dǎo)力的因素
- 物聯(lián)網(wǎng)技術(shù)綜合指南
- 調(diào)查顯示:60%的員工認(rèn)為AI自動(dòng)化