什麼是人工智能偏見? [+數據]

已發表: 2023-06-06


我們的人工智能現狀調查報告指出,營銷人員在使用生成式人工智能時遇到的主要問題之一是其存在偏見。

人工智能偏見

企業家、銷售專家和消費品公司的員工表示,他們對使用人工智能應用程序猶豫不決,原因很簡單,因為它們經常會產生有偏見的細節。

顯然,商業專業人士擔心人工智能會產生偏見,但什麼會使其在最初的位置產生偏見呢? 在這篇文章中,我們將研究應用人工智能造成傷害的機會、人工智能在真實日常生活中存在偏見的例證,以及社會如何減輕潛在的損害。

免費報告:2023 年人工智能狀況

什麼是人工智能偏見?

人工智能偏見是指研究算法的設備在執行其編程職責(例如檢查事實或開發材料)時可能會出現偏見。 人工智能通常在堅持有害信念的方法上存在偏見,例如種族和性別刻板印象。

根據《2023 年人工智能指數報告》,當人工智能的輸出助長和延續傷害特定團隊的刻板印象時,它就會產生偏見。 當人工智能傾向於做出真正不歧視或不偏向任何獨特群體的預測或輸出時,它就是合理的。

除了偏見和刻板信念之外,人工智能還可能因以下原因而產生偏見:

  • 樣本收集,它使用的知識並不代表總人口,因此它的預測和提示不能概括或用於被排除的團隊
  • 測量,正是知識收集過程有偏差的地方,導致人工智能做出有偏差的結論。

人工智能偏見如何反映社會偏見?

人工智能有偏見主要是因為社會有偏見。

由於現代社會存在偏見,人工智能所接受的許多信息都包含社會的偏見和成見,因此它會學習這些偏見並提供支持這些偏見的結果。 舉例來說,要求構建首席執行官圖像的圖形生成器可能會生成白人男性的圖像,因為它所獲得的知識中存在歷史性的失業偏見。

隨著人工智能變得越來越普遍,許多人擔心的是,它可能會擴大社會中已經存在的偏見,這些偏見對許多不同的男性和女性群體有害。

AI偏見插圖

人工智能、算法和自動化事件爭議庫 (AIAAIC) 表示,2021 年新聲稱的人工智能事件和爭議數量比 2012 年增加了 26 倍。

顯示人工智能偏見事件增加的圖表

圖片供應

讓我們看一些人工智能偏見的例子。

房屋貸款受理費是人工智能偏見的一個很好的例子。 研究發現,算法拒絕影子債務人的可能性要高出 40-80%,因為歷史貸款信息不成比例地表明少數人被拒絕貸款和其他貨幣替代方案。 歷史數據告訴我們,人工智能對它獲得的幾乎每一個潛在應用都會有偏見。

在專業醫學領域也存在樣本尺寸偏差的可能性。 假設一名健康從業者使用人工智能來評估客戶事實、發現模式並定義護理建議。 如果該醫療專業人員主要接待白人客戶,那麼這些建議就不是基於顧問大眾樣本,可能無法滿足每個人獨特的健康相關需求。

一些公司的算法會導致最終決策產生現實偏差,或者已經建立了更加明顯的前景。

1.亞馬遜的招聘算法

亞馬遜開發了一種基於十年工作背景信息的招聘算法。 這些知識反映了男性占主導地位的勞動力,因此該算法意識到對項目有偏見,並對女孩的簡歷或任何使用“女性”一詞的簡歷進行懲罰。

2. Twitter 圖像裁剪

2020 年的一條病毒式推文顯示,Twitter 的算法在裁剪圖片時更青睞白人面孔,而不是黑人面孔。 一名白人消費者經常在同一張圖片中分享他的交易、黑人同事的交易以及其他黑人面孔的照片,並且不斷裁剪以在圖形預覽中展示他的經歷。

Twitter 承認該算法存在偏見,並解釋道:“雖然我們今天的分析並未顯示出種族或性別偏見,但我們知道,我們機械裁剪圖片的方式意味著可能會造成損壞。 當我們第一次開發和建立該產品或服務時,我們應該更好地預測這種可能性。”

3.機器人的種族主義面部識別

研究人員不久前做了一項研究,要求機器人掃描人的臉部,並根據人的特徵將其分類到不同的容器中,其中3個容器分別是醫生、罪犯和家庭主婦。

機器人的方法存在偏見,通常將女孩確定為家庭主婦,將黑人紳士確定為罪犯,將拉丁裔成年男性確定為看門人,而所有種族的女孩最終被選為醫生的可能性要小得多。

4. Intel 和 Classroom Technology 的 Checking Computer 軟件

英特爾和 Classroom Technology 的 Course 應用程序有一個功能,可以通過掃描學生的面部來檢測情緒。 許多人表示,表達情感的不同文化規範目前學生的情感更有可能被錯誤標記。

如果教師使用這些標籤與學習者談論他們的工作階段和熟悉程度,學生可能會因為他們沒有真正表現出的感受而受到懲罰。

可以採取哪些措施來解決人工智能偏見?

人工智能倫理是一個熱門話題。 這是可以理解的,因為人工智能的偏見已經以多種方式真實存在。

除了產生偏見之外,人工智能還可以傳播有害的錯誤信息,例如深度偽造,而生成式人工智能工具甚至可以生成實際上不正確的信息和事實。

怎樣才能更好地掌握人工智能並降低可能的偏差?

  • 人類監督:今天,人們可以觀察輸出、評估數據,並在出現偏差時進行糾正。 例如,營銷人員可以在與廣告元素合作之前特別關註生成式人工智能輸出,以確保它們是公平的。
  • 評估偏見的可能性:人工智能的某些使用條件更有可能對某些社區產生偏見和破壞。 在這種情況下,人們可以有時間評估其人工智能製造偏差影響的可能性,例如銀行機構利用歷史上有偏見的數據。
  • 投資人工智能道德:減少人工智能偏見的最關鍵技術之一是對人工智能研究和人工智能道德進行持續的財務投資,以便今天的人們可以製定具體的策略來減少偏見。
  • 人工智能多樣化:在人工智能方面擁有不同的觀點有助於在個人帶來自己的生活經歷時建立公正的實踐。 眾多的諮詢領域為當今的人們提供了更多的機會來認識到偏見的可能性,並在造成傷害之前提出解決方案。
  • 承認人為偏見:所有人都有可能出現偏見,無論是來自生活經驗的差異還是調查過程中的確認偏見。 使用人工智能的個人可以承認自己的偏見,以確保他們的人工智能沒有偏見,就像獲得某些樣本維度的科學家擔任顧問一樣。
  • 明確一點:透明度通常至關重要,尤其是對於新系統。 如今,人們可以通過在使用人工智能時生成可識別的人工智能來培養對人工智能的信念和理解,例如在人工智能生成的信息報告下添加註釋。

負責任地使用人工智能確實是非常可行的。

人工智能和對人工智能的興趣只增不減,因此,保持對可能造成的危害的領先地位的最佳方法是了解它如何使不安全的偏見長期存在,並採取行動,以確保您對人工智能的使用不會帶來額外的影響。壁爐。

想要發現更多有關人工智能的信息嗎? 測試一下這條尋找路徑

新的號召性用語