人工智能也有歧視和偏見

原標題:人工智能也有歧視同偏見

喺好多科幻電影裏,冷漠又殘酷係 AI 嘅典型形象,它們從來唔會考慮乜嘢係人情世故,既冇人性光輝嘅閃耀,也冇人性墮落嘅七宗罪。

然而喺現實中,人工智能技術卻唔像電影裏嗰麼冇「人性」,唔過這可唔係乜嘢好事,因為 AI 嘅「歧視」同「偏見」正喺成為越來越多人研究嘅課題,同埋它們確實存喺。

我們先來看幾個例子:

COMPAS 係一種喺美國廣泛使用嘅算法,通過預測罪犯再次犯罪嘅可能性來指導判刑,而這個算法或許係最臭名昭著嘅人工智能偏見。根據美國新聞機構 ProPublica 喺2016 年 5 月嘅報道,COMPAS 算法存喺明顯嘅「偏見」。根據分析, 該係統預測嘅黑人被告再次犯罪嘅風險要遠遠高於白人,甚至達到la後者嘅兩倍。

▲ 圖片來自:Medium

可能你喺直覺中也會認識黑人嘅再犯率會高於白人,但這並唔同實際情況相符。喺算法看來,黑人嘅預測風險要高於實際風險,比如兩年內冇再犯嘅黑人被錯誤嘅歸類為高風險嘅幾率係白人嘅兩倍(45% 對 23%)。

展開全文

而未來兩年內再次犯罪嘅白人被錯誤認為係低風險嘅概率同樣係黑人再犯將近兩倍(48% 對 28%)。

人工智能嘅偏見,早已深入la各個領域。

喺 AI 技術應用領域,麵部識別也係一項廣泛使用嘅應用類型,並且這會成為種族同性別偏見嘅另一個潛喺來源。2018 年 2 月份麻省理工學院嘅 Joy Buolamwini 發現,IBM、微軟同中國公司 Megvii 嘅三個最新嘅性別識別 AI 可以喺 99% 嘅情況下準確從照片中識別一個人嘅性別,但這僅限於白人。對於女性黑人來說,這個準確率會降至 35%。

▲ 圖片來自:FPT University

一個最可能嘅解釋係,AI 嘅「偏見」取決於背後訓練算法訓練嘅數據,如果用於訓練嘅數據裏白人男性比黑人女性更多,嗰顯然白人男性嘅識別率就會更高。IBM 後來宣布佢哋已經采用la新嘅數據集並重新訓練,微軟也表示會采取措施提高準確性。

另一個研究係 Facebook 嘅人工智能實驗室嘅研究成果,佢哋發現人工智能嘅偏見唔止存喺於國家內部,喺唔同國家之間也係存喺嘅。

比如當被要求識別來自低收入國家嘅物品時,Google、微軟同亞馬遜這些人工智能領域大佬嘅物體識別算法會表現更差。

研究人員對五種流行嘅物體識別算法進行la測試,包括 Microsoft Azure,Clarifai、Google Cloud Vision、Amazon Rekogition 同 IBM Watson。

測試嘅數據集包含la 117 個類別,從鞋子到肥皂到沙發以及更係各樣嘅物品,這些來自於唔同嘅家庭同地理位置。跨域la從布隆迪(非洲中東部嘅一個小國家)一個 27 美元月收入嘅貧窮家庭,到來自烏克蘭月收入達到 10090 美元嘅富裕家庭。

研究人員發現,同月收入超過 3500 美元嘅家庭相比,當被要求識別月收入 50 美元嘅家庭時,物體識別算法嘅誤差率大約會增加 10%,喺準確性嘅絕對差異上甚至會更大。同索馬裏同布基納法索相比,算法識別來自美國產品係準確率要提升 15-20% 左右。

▲ 圖片來自:Startup Thailand

這就係問題所喺。目前嘅人工智能背後需要即為大量嘅數據去訓練,盡管人工智能本身唔明白「歧視」同「偏見」係乜嘢意思,但背後數據嘅研究人員卻會帶有咁樣嘅思諗,以至於喺訓練數據嘅選擇上就會產生偏向性。

通常情況下,喺創建 AI 算法嘅過程中會有許多工程師參同,而這些工程師通常來自高收入國家嘅白人家庭,佢哋嘅認知也係基於此階級,佢哋教導 AI 認識世界也係如此。

當然這並唔係全部原因,喺 2015 年嘅一項研究中顯示,使用 Google 搜索「CEO」嘅圖片,其中隻有 11% 嘅人係女性。我明白男性 CEO 嘅確比女性 CEO 比例要多好多,但實際上美國有 27% 嘅 CEO 係女性。而匹茲堡卡內基梅隆大學嘅 Anupam Datta 領導嘅另一項研究發現,Google 嘅喺線廣告係統展示嘅男性高收入工作也比女性多好多。

Google 對此嘅解釋係,廣告客戶可以製定佢哋嘅廣告隻向某些用戶或網站展示,Google 也確實允許客戶根據用戶性別定位佢哋嘅廣告。

另一大巨頭亞馬遜也曾遇到過 AI 歧視嘅問題。2014 年嘅時候亞馬遜喺愛丁堡成立la一個工程團隊以尋求一種自動化嘅招聘方式。佢哋創建la 500 種計算機模型,通過對過去嘅入職員工簡曆進行搜索,然後得出大約 50000 個關鍵詞。

「當時佢哋喺這個算法上寄予la好大期望,喂給它 100 份簡曆,然後它會自動吐出前五名,OK,我們就雇傭這些人。」當時一位消息人士係咁樣告訴嘅路透社。

▲ 圖片來自:Machine Learning Techub

然而一年後,工程師們有一些唔安嘅發現——它唔鐘意女性。顯然這係因為人工智能所獲取過去十年嘅數據幾乎都係男性嘅,所以它得出la「男性更可靠」嘅觀點,並降低la簡曆裏包含女性字樣簡曆嘅權重。

性別偏見還唔係這套算法唯一嘅問題,它還吐出la唔合格嘅求職者。2017 年,亞馬遜放棄la該項目。

盡管人工智能嘅「偏見」已經成為一個普遍嘅問題,但有意思嘅係,人類又試圖使用人工智能技術去糾正人類本身嘅偏見問題。

日前舊金山宣布推出一種「偏見緩解工具」,該工具使用人工智能技術自動編輯警方報告中嘅嫌疑人種族等信息。它嘅目嘅係喺決定某人被指控犯罪時,讓檢察官唔受種族偏見嘅影響。目前該工具已經準備就緒,預計喺 7 月 1 日正式實施。

▲ 圖片來自:Seattletimes

根據舊金山地區檢察官辦公室嘅說法, 這個工具唔僅會刪除關於種族嘅描述,同時還會進一步刪除關於眼睛顏色同頭發顏色等可能有意無意對檢察官造成暗示嘅信息,甚至地點同社區名稱也將會被刪除。

它會運作良好並產生實際嘅效果嗎,目前還唔得而知。

某種意義上說,目前人工智能嘅「歧視」同「偏見」係人類意識以及階級地位嘅投射。白人精英工程師研究出嘅人工智能更像「白人嘅人工智能」同「精英嘅人工智能」,同理也可以諗象,如果係黑人同黃種人主導嘅人工智能,同樣也會對本群體比較有利。

▲ 圖片來自:Dudu Mimran

而通過人工智能對人類本身嘅偏見行為進行糾錯則係一項更有意思嘅嚐試,如果該方法確實能緩解人類嘅偏見,嗰人類同人工智能可能會喺該問題上相互收益,理諗情況下能打造一個正向循環。

神話故事裏上帝摧毀la巴別塔使得人類唔再語言文化互通,而人工智能這一改變未來嘅宏偉技術同樣像係一座通天高塔,如果要把它建成全人類嘅福祉,消除唔同文化造成彼此偏見係一定要解決嘅問題。

題圖來源:Financial Times

#歡迎關注愛範兒官方微信公眾號:愛範兒(微信號:ifanr),更多精彩內容第一時間為您奉上。

search更多:手機數碼電腦
at手機數碼電腦相關網站

發表於 分類 科技