人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

研究發(fā)現(xiàn):人工智能評(píng)估簡(jiǎn)歷存在性別歧視 尤其對(duì)職場(chǎng)父母不利

微新創(chuàng)想(idea2003.com) 7月25日 消息:性別偏見(jiàn)在招聘和工作中根深蒂固。而最新研究發(fā)現(xiàn),人工智能在職場(chǎng)中對(duì)父母身份的工作者存在偏見(jiàn)。

墨爾本大學(xué)的一份研究發(fā)現(xiàn),盡管采取了簡(jiǎn)歷盲目篩選等措施,人工智能仍然會(huì)通過(guò)性別信號(hào)來(lái)判斷求職者的適合性。

研究人員向 ChatGPT 展示了簡(jiǎn)歷,并要求其按照從0到100的范圍來(lái)評(píng)估此人是否適合某項(xiàng)工作。研究中對(duì)六種不同的職業(yè)重復(fù)此操作,每份簡(jiǎn)歷重復(fù)30次,以確保結(jié)果可靠。

結(jié)果發(fā)現(xiàn),雖然 ChatGPT 在男性和女性的簡(jiǎn)歷中沒(méi)有區(qū)別對(duì)待,但當(dāng)簡(jiǎn)歷中包含育兒假信息時(shí),人工智能會(huì)對(duì)父母的評(píng)分較低。

這表明即使開(kāi)發(fā)者試圖消除性別偏見(jiàn),父母身份這一變量仍然會(huì)導(dǎo)致偏見(jiàn)的產(chǎn)生。另外,人工智能可以通過(guò)語(yǔ)言差異來(lái)識(shí)別簡(jiǎn)歷中的性別信息,即使隱藏了姓名和代詞。

這意味著人工智能可以將語(yǔ)言作為評(píng)估簡(jiǎn)歷的依據(jù),進(jìn)而產(chǎn)生性別偏見(jiàn)。因此,研究者呼吁加強(qiáng)監(jiān)管控制,更加深入地理解人工智能對(duì)歧視的能力,并確保人工智能對(duì)所有人,包括女性和父母,都是公平的。

您可能還喜歡...

發(fā)表回復(fù)

您的郵箱地址不會(huì)被公開(kāi)。 必填項(xiàng)已用 * 標(biāo)注