研究發(fā)現(xiàn):人工智能評估簡歷存在性別歧視 尤其對職場父母不利
微新創(chuàng)想(idea2003.com) 7月25日 消息:性別偏見在招聘和工作中根深蒂固。而最新研究發(fā)現(xiàn),人工智能在職場中對父母身份的工作者存在偏見。
墨爾本大學(xué)的一份研究發(fā)現(xiàn),盡管采取了簡歷盲目篩選等措施,人工智能仍然會(huì)通過性別信號來判斷求職者的適合性。
研究人員向 ChatGPT 展示了簡歷,并要求其按照從0到100的范圍來評估此人是否適合某項(xiàng)工作。研究中對六種不同的職業(yè)重復(fù)此操作,每份簡歷重復(fù)30次,以確保結(jié)果可靠。
結(jié)果發(fā)現(xiàn),雖然 ChatGPT 在男性和女性的簡歷中沒有區(qū)別對待,但當(dāng)簡歷中包含育兒假信息時(shí),人工智能會(huì)對父母的評分較低。
這表明即使開發(fā)者試圖消除性別偏見,父母身份這一變量仍然會(huì)導(dǎo)致偏見的產(chǎn)生。另外,人工智能可以通過語言差異來識別簡歷中的性別信息,即使隱藏了姓名和代詞。
這意味著人工智能可以將語言作為評估簡歷的依據(jù),進(jìn)而產(chǎn)生性別偏見。因此,研究者呼吁加強(qiáng)監(jiān)管控制,更加深入地理解人工智能對歧視的能力,并確保人工智能對所有人,包括女性和父母,都是公平的。