根據(jù)定義,人工智能(AI)旨在模擬人腦的工作機(jī)制以優(yōu)化組織活動。
不幸的是,雖然我們已經(jīng)能夠更接近于人工地重新創(chuàng)造人類智能,但人工智能也表現(xiàn)出另一種獨(dú)特的人類特征——基于種族、民族或性別對某人的偏見。人工智能中的偏見并不是一個(gè)新概念。最近和過去都發(fā)現(xiàn)了醫(yī)療保健、執(zhí)法和招聘行業(yè)中存在偏見的算法示例。
因此,幾個(gè)世紀(jì)以來的不容忍和歧視不斷以一種或另一種形式出現(xiàn),即使世界似乎正在朝著對所有人包容的方向發(fā)展。要了解人工智能如何強(qiáng)化長期存在的人類偏見,我們需要找出偏見潛入人工智能模型和神經(jīng)網(wǎng)絡(luò)的方式。
用于訓(xùn)練AI模型的有偏數(shù)據(jù)集
人工智能驅(qū)動的系統(tǒng)的決策僅反映用于模型訓(xùn)練的輸入數(shù)據(jù)的類型。因此,如果AI模型吸收的數(shù)據(jù)集具有歧視性,則輸出推薦或決策將遵循相同的趨勢。在初始機(jī)器學(xué)習(xí)階段,可以通過兩種方式創(chuàng)建有偏差的AI模型。首先,如前所述,用于訓(xùn)練AI模型的數(shù)據(jù)(總體上)是狹窄且有偏見的。其次,由于給定數(shù)據(jù)集中的樣本存在偏差,因此創(chuàng)建了判別算法。由于疏忽或因?yàn)閺氖掠?xùn)練過程的數(shù)據(jù)科學(xué)家本身保守、心胸狹窄,有偏見,輸入數(shù)據(jù)可能很窄。
歧視性人工智能的最佳例子之一是臭名昭著的COMPAS系統(tǒng),該系統(tǒng)在美國多個(gè)州使用。人工智能驅(qū)動的系統(tǒng)使用歷史監(jiān)獄數(shù)據(jù)庫和回歸模型來預(yù)測被釋放的罪犯將來是否有可能再次犯罪。正如預(yù)期的那樣,該系統(tǒng)的預(yù)測表明,與白種人相比,非洲裔美國人的再犯人數(shù)幾乎翻了一番。這種偏見的主要原因之一是,網(wǎng)絡(luò)管理員在分析其預(yù)測時(shí)從未嘗試檢測系統(tǒng)的歧視性暗示。通常,人工智能偏見的受害者是女性、特定地區(qū)的少數(shù)族裔或有移民背景的人。正如他們所說,人工智能的模型不會引入新的偏見,而只是反映社會中已經(jīng)存在的偏見。
如上所述,機(jī)器訓(xùn)練的數(shù)據(jù)收集過程也可能存在偏差。在這種情況下,指定的AI治理官員會意識到所收集數(shù)據(jù)中的偏差,但仍會選擇忽略它。例如,在收集與招生背景相關(guān)的數(shù)據(jù)時(shí),學(xué)校可能只選擇白人候選人。此外,學(xué)??赡苤皇蔷芙^為其他孩子提供學(xué)習(xí)機(jī)會。在可能是一個(gè)循環(huán)中,AI模型可能會密切觀察學(xué)校選擇專門選擇白人學(xué)生的做法。稍后,該模型將繼承種族主義傳統(tǒng),因?yàn)槠淠J椒治鰞H表明這是學(xué)校招生期間的正確行動方案。因此,盡管存在處理這一過程的尖端技術(shù),但種族主義仍被多次強(qiáng)化。
除了種族或性別歧視,人工智能中的偏見甚至可能以對富人的優(yōu)惠待遇的形式存在。因此,窮人在AI數(shù)據(jù)集中的代表性可能不足。在正在進(jìn)行的醫(yī)療衛(wèi)生事件時(shí)代,甚至可以想象出一個(gè)這樣的假設(shè)例子。一些國家開發(fā)了自己的移動應(yīng)用程序,可用于跟蹤感染病毒的人,并提醒任何特定區(qū)域的其他人與這些人保持距離。雖然該計(jì)劃可能具有崇高的目的,但沒有智能手機(jī)的個(gè)人將在應(yīng)用程序中完全不可見。雖然這種類型的偏見不是任何人的錯(cuò),但它首先違背了設(shè)計(jì)此類應(yīng)用程序的目的。
綜上所述,歧視性的訓(xùn)練數(shù)據(jù)和操作實(shí)踐會直接導(dǎo)致人工智能系統(tǒng)和模型的偏差。
由于代理相關(guān)原因?qū)е碌娜斯ぶ悄芷?/strong>
偏見滲入人工智能模型的另一種方式可能是通過代理。用于機(jī)器訓(xùn)練的一些細(xì)節(jié)和信息可能與受保護(hù)的特征相匹配。由此產(chǎn)生的偏差實(shí)例可能是無意的,因?yàn)橛糜谧龀隼硇院托?zhǔn)決策的數(shù)據(jù)可能最終作為類成員的代理。
例如,假設(shè)一家金融機(jī)構(gòu)使用人工智能系統(tǒng)來預(yù)測哪些貸款申請人可能難以還款。用于訓(xùn)練AI系統(tǒng)的數(shù)據(jù)集將包含跨越三個(gè)多世紀(jì)的歷史信息?,F(xiàn)在,此輸入數(shù)據(jù)不包含與申請人的膚色或性別相關(guān)的詳細(xì)信息。然而,假設(shè)系統(tǒng)預(yù)測居住在特定地點(diǎn)(與某個(gè)郵政編碼相關(guān)聯(lián))的人將拖欠他們的貸款分期還款。此預(yù)測僅根據(jù)歷史記錄生成。當(dāng)銀行因居住地而決定不批準(zhǔn)他們的貸款申請時(shí),居住在該地區(qū)的人可能會感到受到了歧視。人工智能中的這種偏見可以通過讓人類官員參與來消除,他們可以根據(jù)實(shí)際事實(shí)而不僅僅是歷史記錄推翻人工智能系統(tǒng)的決定。
除此之外,還有其他幾種產(chǎn)生偏見的人工智能的方式,然后在當(dāng)今時(shí)代繼續(xù)強(qiáng)化古老的偏見。有幾種方法可以徹底消除人工智能中的偏見,或者至少在很大程度上減少偏見。
選擇更具代表性的數(shù)據(jù)集
組織中的每個(gè)人都需要努力降低其AI系統(tǒng)在工作中存在偏見的可能性。正如我們所見,人工智能的偏見完全源于它為機(jī)器訓(xùn)練或其日常操作接收的數(shù)據(jù)類型。收集大量培訓(xùn)和運(yùn)營數(shù)據(jù)的數(shù)據(jù)科學(xué)家和其他專家需要使用各種數(shù)據(jù),其中包括屬于所有種族和少數(shù)種族的人。在此類數(shù)據(jù)集中,女性必須與男性一樣多。此外,僅當(dāng)數(shù)據(jù)專家向類似分割的模型提供輸入數(shù)據(jù)時(shí),才應(yīng)存在AI模型中的分割。
此外,使用人工智能應(yīng)用的組織不得針對不同的種族和民族多樣性使用不同的模型。如果單個(gè)人群的數(shù)據(jù)不足,組織可以使用加權(quán)等技術(shù)來平衡其相對于其他人群的重要性。如果每個(gè)數(shù)據(jù)組沒有得到謹(jǐn)慎和同等權(quán)重的處理,就有可能在AI模型中產(chǎn)生偏見。
識別潛在的偏見觸發(fā)因素或來源
檢測某些類型的偏見可能進(jìn)入AI系統(tǒng)的區(qū)域和操作是任何組織中AI治理團(tuán)隊(duì)和執(zhí)行級別員工的主要責(zé)任。理想情況下,必須在將AI納入組織之前執(zhí)行此過程。組織可以通過檢查數(shù)據(jù)集并檢查它們是否會導(dǎo)致AI模型具有狹隘的“觀點(diǎn)”來減輕偏見。經(jīng)過徹底檢查后,組織必須進(jìn)行試運(yùn)行,以查看其AI系統(tǒng)是否在工作中表現(xiàn)出偏見。最重要的是,組織必須列出涵蓋所有有偏見的人工智能領(lǐng)域的問題。然后,他們必須不斷尋找解決方案,以便一個(gè)接一個(gè)地回答這些問題。
實(shí)施嚴(yán)格的人工智能治理指南
AI治理團(tuán)隊(duì)在防止AI系統(tǒng)隨著時(shí)間的推移變得歧視方面發(fā)揮著關(guān)鍵作用。為了避免人工智能的偏見,治理團(tuán)隊(duì)必須定期更新人工智能模型。更重要的是,團(tuán)隊(duì)?wèi)?yīng)該制定不可協(xié)商的法規(guī)和指南,以檢測和消除或至少減輕用于機(jī)器訓(xùn)練的輸入數(shù)據(jù)集的偏差。
除此之外,必須建立清晰的溝通渠道,以便組織中任何級別的員工都可以在收到客戶關(guān)于人工智能歧視的投訴時(shí)通知治理團(tuán)隊(duì)。即使員工自己發(fā)現(xiàn)他們組織的AI可能存在偏見,這些渠道也會起作用。
人工智能中的偏見對于成為其決策犧牲品的個(gè)人或團(tuán)體來說可能很痛苦。更成問題的是,有偏見的人工智能系統(tǒng)是人類歷史上不幸的受害者面臨數(shù)百年邊緣化和歧視的新一代象征。因此,我們必須通過確保模型訓(xùn)練和有能力的AI治理的不同輸入數(shù)據(jù)集來確保將算法偏差扼殺在萌芽狀態(tài)。歧視性AI是每個(gè)人的問題,因此,組織中參與AI模型設(shè)計(jì)、實(shí)施和維護(hù)階段的所有各方都應(yīng)該聯(lián)合起來解決它。
(原標(biāo)題:人工智能如何增強(qiáng)現(xiàn)有的人類偏見?)