人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

研究發(fā)現(xiàn):人工智能評估簡歷存在性別歧視 尤其對職場父母不利

微新創(chuàng)想(idea2003.com) 7月25日 消息:性別偏見在招聘和工作中根深蒂固。而最新研究發(fā)現(xiàn),人工智能在職場中對父母身份的工作者存在偏見。

墨爾本大學(xué)的一份研究發(fā)現(xiàn),盡管采取了簡歷盲目篩選等措施,人工智能仍然會(huì)通過性別信號來判斷求職者的適合性。

研究人員向 ChatGPT 展示了簡歷,并要求其按照從0到100的范圍來評估此人是否適合某項(xiàng)工作。研究中對六種不同的職業(yè)重復(fù)此操作,每份簡歷重復(fù)30次,以確保結(jié)果可靠。

結(jié)果發(fā)現(xiàn),雖然 ChatGPT 在男性和女性的簡歷中沒有區(qū)別對待,但當(dāng)簡歷中包含育兒假信息時(shí),人工智能會(huì)對父母的評分較低。

這表明即使開發(fā)者試圖消除性別偏見,父母身份這一變量仍然會(huì)導(dǎo)致偏見的產(chǎn)生。另外,人工智能可以通過語言差異來識別簡歷中的性別信息,即使隱藏了姓名和代詞。

這意味著人工智能可以將語言作為評估簡歷的依據(jù),進(jìn)而產(chǎn)生性別偏見。因此,研究者呼吁加強(qiáng)監(jiān)管控制,更加深入地理解人工智能對歧視的能力,并確保人工智能對所有人,包括女性和父母,都是公平的。

您可能還喜歡...

發(fā)表回復(fù)

您的郵箱地址不會(huì)被公開。 必填項(xiàng)已用 * 標(biāo)注