缺乏信賴的人工智能會阻礙創(chuàng)新和商業(yè)價值
最近對全球商業(yè)領(lǐng)袖進行的一項調(diào)查顯示,值得信賴的人工智能是一個主要優(yōu)先事項,但許多人沒有采取足夠的措施來實現(xiàn)它,但代價是什么?
事實上,IBM 的調(diào)查顯示,驚人的 85% 的受訪者同意,消費者更有可能選擇對其 AI 模型的構(gòu)建、管理和使用方式保持透明的公司。
然而,大多數(shù)人承認他們沒有采取關(guān)鍵步驟來確保他們的 AI 值得信賴和負責(zé)任,例如減少偏見 (74%)、跟蹤性能變化和模型漂移 (68%),以及確保他們能夠解釋 AI 驅(qū)動的決定(61%)。這令人擔(dān)憂,尤其是當(dāng)你考慮到人工智能的使用量不斷增長時——35% 的人表示他們現(xiàn)在在他們的業(yè)務(wù)中使用人工智能,高于一年前的 31%。
我最近參加了在多倫多舉行的僅限受邀者參加的企業(yè)創(chuàng)新峰會,與會者在會上交流了創(chuàng)新想法并展示了有望塑造未來的技術(shù)。我有幸參加了金融服務(wù)、保險和零售領(lǐng)域的三個圓桌會議,討論了三個關(guān)鍵領(lǐng)域:提高透明度以促進對 AI 的信任、通過無代碼/低代碼實現(xiàn) AI 民主化以及開發(fā)通過 AI 監(jiān)管治理最佳實踐提供更快的價值實現(xiàn)時間和風(fēng)險緩解。
增加對人工智能技術(shù)的信任。新冠擴大并加速了支持人工智能聊天機器人、虛擬財務(wù)助理和非接觸式客戶入職的趨勢。正如Cap Gemini 的研究所證實的那樣,這一趨勢將繼續(xù)下去,該研究表明,78% 的受訪消費者計劃增加 AI 技術(shù)的使用,包括在與金融服務(wù)組織的互動中進行數(shù)字身份管理。
盡管有固有的好處,但也出現(xiàn)了許多挑戰(zhàn)。其中最主要的是消費者對人工智能技術(shù)的持續(xù)不信任,以及它們無處不在的性質(zhì)如何影響他們的隱私和安全權(quán)利。30% 的消費者表示,如果他們的金融服務(wù)提供商在解釋如何收集、管理和保護他們的信息時提供更高的透明度,他們會更愿意分享他們的生物識別信息。
CIO 必須采用值得信賴的 AI 原則,并制定嚴格的措施來保護隱私和安全權(quán)利。他們可以通過加密、數(shù)據(jù)最小化和更安全的身份驗證來實現(xiàn)這一目標(biāo),包括考慮新興的去中心化數(shù)字身份標(biāo)準。因此,您的智能自動化工作和自助服務(wù)產(chǎn)品將得到更多采用,并且需要更少的人工干預(yù)。
消除人工智能民主化的障礙。越來越多的人轉(zhuǎn)向無代碼/低代碼 AI 應(yīng)用程序開發(fā),研究預(yù)測到 2025 年將達到 455 億美元。主要驅(qū)動因素是更快實現(xiàn)價值,應(yīng)用程序開發(fā)生產(chǎn)力提高 10 倍。
例如,56% 的受訪金融服務(wù)組織認為,從借款人那里收集數(shù)據(jù)是貸款申請流程中最具挑戰(zhàn)性和效率最低的步驟之一,導(dǎo)致高放棄率。雖然人工智能驅(qū)動的生物特征識別和數(shù)據(jù)收集技術(shù)已被證明可以提高貸款申請流程的效率,但它們也可能帶來合規(guī)風(fēng)險,尤其是數(shù)據(jù)隱私、機密性和人工智能算法偏差。
為了減輕和補救此類風(fēng)險,低代碼/無代碼應(yīng)用程序必須包括全面的測試,以確保它們按照初始設(shè)計目標(biāo)執(zhí)行,消除訓(xùn)練數(shù)據(jù)集中的潛在偏差,其中可能包括采樣偏差、標(biāo)簽偏差,并且免受對抗性攻擊可能對 AI 算法結(jié)果產(chǎn)生不利影響的 AI 攻擊??紤]公平、準確、保密和安全的負責(zé)任的數(shù)據(jù)科學(xué)原則是最重要的。
制定人工智能治理和監(jiān)管框架。人工智能治理不再是主動的好事,而是勢在必行的。根據(jù)經(jīng)合組織關(guān)于國家人工智能政策的跟蹤器,60 多個國家正在制定 700 多項人工智能監(jiān)管舉措。然而,電氣和電子工程師協(xié)會(“IEEE”)和美國國家標(biāo)準與技術(shù)研究院(NIST)等國際標(biāo)準組織制定了自愿行為準則和道德人工智能原則。
組織的擔(dān)憂圍繞著這樣一種假設(shè),即人工智能法規(guī)將對它們施加更嚴格的合規(guī)義務(wù),并得到繁重的執(zhí)法機制的支持,包括對違規(guī)行為的處罰。然而,人工智能監(jiān)管是不可避免的。
歐洲和北美正在采取積極主動的立場,這將要求 CIO 與其技術(shù)和業(yè)務(wù)同行合作以制定有效的政策。例如,歐盟委員會提出的《人工智能法案》提議對人工智能供應(yīng)商制定基于風(fēng)險的義務(wù),以保護消費者權(quán)利,同時促進與人工智能技術(shù)相關(guān)的創(chuàng)新和經(jīng)濟機會。
此外,2022 年 6 月,加拿大聯(lián)邦政府發(fā)布了期待已久的《數(shù)字憲章實施法案》,該法案旨在防止高風(fēng)險人工智能系統(tǒng)的不利影響。美國也在推進人工智能監(jiān)管舉措,盡管是以部門為基礎(chǔ)的。聯(lián)邦貿(mào)易委員會 (FTC)、消費者金融保護局 (CFPB) 和聯(lián)邦儲備委員會都在通過執(zhí)法機制發(fā)揮監(jiān)管力量,以保護消費者免受因 AI 應(yīng)用增加而可能導(dǎo)致歧視性結(jié)果的不利影響,盡管是無意的。任何創(chuàng)新型公司都必須有一個人工智能監(jiān)管框架。
實現(xiàn)可信賴的 AI 需要數(shù)據(jù)驅(qū)動的洞察力
如果沒有數(shù)據(jù)驅(qū)動的方法來確定人工智能技術(shù)的應(yīng)用在實施之前可能產(chǎn)生最大影響的地方,就無法實施可信賴的人工智能。是為了提高客戶參與度,還是為了實現(xiàn)運營效率或降低合規(guī)風(fēng)險?
這些業(yè)務(wù)驅(qū)動因素中的每一個都需要了解流程的執(zhí)行方式、升級和異常的處理方式,并識別流程執(zhí)行障礙的變化及其根本原因?;诖祟悢?shù)據(jù)驅(qū)動的分析,組織可以就與基于 AI 的解決方案的實施相關(guān)的影響和結(jié)果做出明智的業(yè)務(wù)決策,以減少客戶入職摩擦并提高運營效率。一旦組織受益于數(shù)據(jù)驅(qū)動的洞察力,他們就可以自動化高度勞動密集型流程,例如滿足 AI 合規(guī)性要求、合規(guī)性審計、金融服務(wù)中的 KYC 和 AML。
主要要點是,支持 AI 的流程自動化的一個組成部分是實施可信賴的 AI 最佳實踐。人工智能的道德使用不應(yīng)僅被視為法律和道德義務(wù),而應(yīng)視為商業(yè)需要。在 AI 應(yīng)用中保持透明具有良好的商業(yè)意義。它培養(yǎng)信任并產(chǎn)生品牌忠誠度。