有非政府組織調查發現,社交平台Facebook的演算法會根據用戶的性別,推送不一樣的求職廣告,涉嫌違反英國的平等法。該非政府組織指,FB未能阻止針對特定目標歧視性的推送廣告,相關演算法在決定哪些人看到哪些廣告、看不到哪些廣告的時候帶有偏見。
「全球證人」早前進行了一項實驗,在FB刊登了4個求職廣告,分別是招聘幼兒園保姆、飛行員、機械工人和心理學專業人士,廣告連接到求職平台indeed.com的實際空缺職位。廣告對FB的要求只有一條,就是「針對英國成年人投放廣告」,意味著FB的演算法將決定,最終哪些用戶會看到這些廣告。結果顯示,96%男性看到「機械工人」廣告;95%女性看到「幼兒園保姆」;75%男性看到「飛行員」;77%女性看到「心理學專業人士」。
「全球證人」調查負責人Naomi Hirst表示,這個結果顯示,FB的演算法帶有性別主義的偏見。FB對此表示,他們的軟件系統讓使用者能夠看到他們最感興趣的廣告。不過,FB亦承認,這種做法可能會存在一定程度的偏見。
憂FB演算法令原已存在偏見更嚴重
演算法的設計目的是讓盡可能多的用戶點擊廣告,但是「全球證人」表示,這樣做讓人才招聘原本就已經存在的偏見情況更加嚴重。
Naomi Hirst舉例說,過去如果想要招聘機械工人,僱主可能會在針對男性讀者銷售的雜誌上刊登求才廣告,如果有女性也想找機械工人的工作職位,只要去買針對男性讀者銷售的雜誌,就可以看到這些廣告。不過,現在如果FB在投放求職廣告的時候,已先入為主地針對不同性別的使用者投放不同工作類型的求職廣告,想要找機械工人工作的女性將因此被減少接觸相關廣告,受到差別待遇。
「全球證人」已經委託律師Schona Jolly檢視實驗所得的數據,Schona Jolly對英國平等和人權委員會表示,FB的運算系統可能導致歧視性的結果。全球證人表示,機構亦擔心FB的廣告機制可能會導致其客戶違反平等法。FB表示,FB的軟件系統會考慮不同種類的信息,以提供用戶最感興趣的廣告,FB正在檢視上述調查提出的內容。