研究發(fā)現(xiàn):人工智能評(píng)估簡(jiǎn)歷存在性別歧視 尤其對(duì)職場(chǎng)父母不利
微新創(chuàng)想(idea2003.com) 7月25日 消息:性別偏見(jiàn)在招聘和工作中根深蒂固。而最新研究發(fā)現(xiàn),人工智能在職場(chǎng)中對(duì)父母身份的工作者存在偏見(jiàn)。
墨爾本大學(xué)的一份研究發(fā)現(xiàn),盡管采取了簡(jiǎn)歷盲目篩選等措施,人工智能仍然會(huì)通過(guò)性別信號(hào)來(lái)判斷求職者的適合性。
研究人員向 ChatGPT 展示了簡(jiǎn)歷,并要求其按照從0到100的范圍來(lái)評(píng)估此人是否適合某項(xiàng)工作。研究中對(duì)六種不同的職業(yè)重復(fù)此操作,每份簡(jiǎn)歷重復(fù)30次,以確保結(jié)果可靠。
結(jié)果發(fā)現(xiàn),雖然 ChatGPT 在男性和女性的簡(jiǎn)歷中沒(méi)有區(qū)別對(duì)待,但當(dāng)簡(jiǎn)歷中包含育兒假信息時(shí),人工智能會(huì)對(duì)父母的評(píng)分較低。
這表明即使開(kāi)發(fā)者試圖消除性別偏見(jiàn),父母身份這一變量仍然會(huì)導(dǎo)致偏見(jiàn)的產(chǎn)生。另外,人工智能可以通過(guò)語(yǔ)言差異來(lái)識(shí)別簡(jiǎn)歷中的性別信息,即使隱藏了姓名和代詞。
這意味著人工智能可以將語(yǔ)言作為評(píng)估簡(jiǎn)歷的依據(jù),進(jìn)而產(chǎn)生性別偏見(jiàn)。因此,研究者呼吁加強(qiáng)監(jiān)管控制,更加深入地理解人工智能對(duì)歧視的能力,并確保人工智能對(duì)所有人,包括女性和父母,都是公平的。