膚色歧視!研究指出:臉部辨識黑人成功率低

▲iPhone X全新推出「臉部辨識功能解鎖」掀起熱議。(圖/記者洪聖壹攝)

▲臉部辨識歧視已經是不是新話題。(圖/記者洪聖壹攝)

實習記者黃肇祥/綜合報導

AI、演算法等新科技如何公平、公正對待每一個人?成為現在科技發展著重的問題,只要是由人所撰寫出來的程式碼,很難做到全然客觀,麻省理工學院研究最新指出,臉部辨識確實存在偏見,黑人女性的錯誤率高達 35%,相比白人男性可能只有 1% 以下。

蘋果、三星皆在手機置入臉部辨識系統,這套技術已經廣泛運用在我們的生活之中,但其實不同膚色、性別是會影響辨識成功度的,主因就在於系統訓練、撰寫的過程中,滲入不少人類的偏見。麻省理工學院媒體實驗室的研究員 Joy Buolamwini 利用 1270 名政治家的臉孔,分別針對 IBM、微軟、Megvii 三間廠商的辨識系統進行測試,結果發現膚色與性別會影響辨識成功率。

Buolamwini 的研究結果顯示,對於黑人女性微軟的錯誤率達 21%,IBM、Megvii 則接近 35%,但若對比男性卻是遠低於 1%,Buolamwini 表示,「你不可能有一個具有道德判斷的 AI,誰創造就是誰制定標準。」《紐約時報》報導也指出,研究證實對於臉部辨識數據蒐集的採樣,男性以 75% 的高比例遠勝於女性,且超過八成是白人,這造成系統自動產生偏差。

研究成果公開後,IBM 表示正在改善辨識系統,並且致力於公正、透明的服務,更表示將在這個月推出更新,提升深色皮膚女性的識別精準度 10 倍, 微軟則表示,已經進行修正措施,並且投入相關的研究領域。過去類似的爭議層出不窮,2015 年就有人的照片被 Google 系統辨識為黑猩猩,同時也有新聞報導指出,辨識系統對於亞洲人並不友善。

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

關鍵字:

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面