黑人的歧視發言比平均值高1.5倍?AI演算法偵測 反造成偏見

美國華盛頓大學(University of Washington)與康乃爾大學(Cornell University)雙雙都在進行以AI偵測社群平台上仇恨言論的研究,結果卻不約而同地都指出,非裔人士較其他人更常發表仇恨言論,研究目的本是為標示出各種仇恨言論與歧視言論,沒想到研究結論的數據反而為社會對黑人的固有偏見背書。

由於AI演算法無法理解人類語言和特定字眼在不同使用情境下的變化,因此造成不少的誤判,例如:當黑人之間自己在使用「黑鬼」字眼時,並非是歧視,反而還是較親近的人才會互相用來稱呼的詞,然而AI無法判讀情境,只能機械式地將全部的「黑鬼」字眼標示為仇恨言論。

另外還有一些不雅、粗俗的字眼很多時候並不是真的在咒罵,而是熟人間開玩笑,但在這些誤會之下,華盛頓大學的研究結果顯示出,黑人在社群平台使用歧視、仇恨性字眼較平均值高出1.5倍,而康乃爾大學的研究也得到類似的結果,而且還高達2.2倍。

有些不雅字眼在特定情境使用不是在咒罵,反而是表示親近,但AI無法判讀這些狀況。(取自PxHere)

由此可知,當AI在學習自然語言時輸入了錯誤或是不完全的教材,有可能教出來的會是判斷標準有偏差的不良AI,這樣演算出來的結果自然也不具什麼可信度。

如此的研究結果從側面指出了一個問題,既然AI在遇到盲點時,有可能會導出完全偏差的結論,而且就連學術研究用的演算法都會出包,那在商業運用層面,正仰賴AI來審查平台內容的社群媒體們,是否也因此而錯殺許多無辜?

隨時補充新觀點,《立報傳媒》Line→http://bit.ly/2YyjUW1