AI也有偏見?MIT學者呼籲科技公司改善(圖)

發表:2019-04-05 03:41
手機版 简体 打賞 0個留言 列印 特大

當人工智慧(AI)的學習材料多為白人男性影像時,就會比較適合用來辨識白人男性臉部。
當人工智慧(AI)的學習材料多為白人男性影像時,就會比較適合用來辨識白人男性臉部。圖為人臉識別示意圖。(圖片來源:Adobe Stock)

【看中國2019年4月5日訊】隨著臉部辨識科技的應用範圍越來越廣,美國麻省理工學院(MIT)的研究人員卻發現,知名科技業者開發的人工智慧AI)軟體存在歧視問題,系統在辨識深色人種或女性臉部時,錯誤率偏高。

麻省理工學院研究人員:人工智慧軟體存在歧視問題

據《中央社》報導,布蘭維妮(Joy Buolamwini)是美國麻省理工學院(MIT)的黑人女性計算機科學家。布蘭維妮研究發現,包括微軟(Microsoft)、IBM、亞馬遜(Amazon)等科技巨頭開發的臉部辨識軟體存在歧視問題,人工智慧(AI)系統在辨識深膚色女性時,錯誤率較辨識淺膚色男性高出許多。

布蘭維妮已成功使微軟和IBM等企業開始改善自家系統,但亞馬遜卻表示反對,並公開批評她的研究方法。

一些人工智慧(AI)領域的專家公開支持布蘭維妮,呼籲亞馬遜停止將自家臉部辨識軟體銷售給警方。

除了專業人士和企業界以外,布蘭維妮的研究成果還引起政界人士的關注。其中一些人士主張,應該為臉部辨識技術的使用範圍設限。

《自由時報》報導說,目前的人工智慧(AI)大多採用監督式學習(supervised learning),會依照工程師提供的訓練資料(training data)推斷出規則,再把規則套用在未知的資料上,所以當人工智慧(AI)的學習材料多為白人男性影像時,就會比較適合用來辨識白人男性臉部。

《中央社》報導,這種差別性有時可能攸關生死。一份近期發表的研究顯示,幫助自動駕駛汽車「看路」的電腦視覺系統,在偵測深膚色行人方面,明顯有困難。

布蘭維妮說,人工智慧(AI)對待不同性別與有色人種都表現出了差異性。她呼籲各大科技公司公平對待所有人,並表示如果人們不去主動包容,將會複製這種根本性的不平等。

責任編輯:劉馨

短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。



【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。
榮譽會員

歡迎給您喜歡的作者捐助。您的愛心鼓勵就是對我們媒體的耕耘。 打賞
善举如烛《看中国》与您相约(图)

看完這篇文章您覺得

評論



加入看中國會員

捐助

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意