您的位置: 首頁 >精選綜合 >

AI能否在未來的多元化非二元性勞動(dòng)力中拯救我們

2019-04-23 14:10:17 編輯: 來源:
導(dǎo)讀 招聘偏見阻礙了少數(shù)族裔和女性申請(qǐng)者,特別是在技術(shù)行業(yè),白人和亞洲男性占據(jù)了大部分工作。因此,初創(chuàng)公司和大公司都試圖利用人工智能等新

招聘偏見阻礙了少數(shù)族裔和女性申請(qǐng)者,特別是在技術(shù)行業(yè),白人和亞洲男性占據(jù)了大部分工作。因此,初創(chuàng)公司和大公司都試圖利用人工智能等新興技術(shù)來改善招聘流程。但是,隨著越來越多的申請(qǐng)人認(rèn)定不止一個(gè)種族或兩種性別,這些努力可能會(huì)變得更具挑戰(zhàn)性。價(jià)值1000萬美元的多元化人力資源軟件初創(chuàng)公司Atipica的首席執(zhí)行官LauraGómez周一在加利福尼亞州半月灣舉行的福布斯首席信息官峰會(huì)上表示,她公司的算法“讓我們能夠理解匯總簡(jiǎn)歷數(shù)據(jù),人口普查,勞工部和平等就業(yè)機(jī)會(huì)委員會(huì)(EEOC)的數(shù)據(jù),以預(yù)測(cè)誰在勞動(dòng)力。“

“在多樣性和包容性方面存在很多數(shù)據(jù)缺口,”Gómez說。“它必須是自我報(bào)告,很多人不喜歡自我報(bào)告。我們正在努力填補(bǔ)這些空白,并確保領(lǐng)導(dǎo)者了解這些差距在哪里。“在招聘中使用人工智能的努力已經(jīng)出現(xiàn)了一些不景氣:去年,在高管們意識(shí)到該計(jì)劃正在懲罰女性簡(jiǎn)歷之后,亞馬遜建立一個(gè)使用人工智能選擇最佳候選人的工具的內(nèi)部項(xiàng)目被擱置。亞馬遜招聘人員無法使用該工具評(píng)估候選人。據(jù)路透社報(bào)道,原因是人工智能系統(tǒng)根據(jù)亞馬遜過去的招聘模式自學(xué)了最成功的候選人是男性。

LinkedIn在其系統(tǒng)中擁有6億用戶,他們意識(shí)到其招聘算法面臨著招聘人員的潛在候選人,他們面臨著復(fù)合招聘偏見的風(fēng)險(xiǎn)。去年它推出了代表性結(jié)果,這是對(duì)其算法的改變,確保AI不會(huì)引入偏見,例如在搜索結(jié)果中顯示的男性候選人數(shù)多于可用的申請(qǐng)人數(shù)量。

為底特律青年創(chuàng)造經(jīng)濟(jì)機(jī)會(huì):加快與城市聯(lián)盟合作的貸款

“有可能創(chuàng)建有偏見的系統(tǒng)。我們希望確保這種偏見不會(huì)失控,“LinkedIn的產(chǎn)品,人才解決方案和職業(yè)生涯副總裁John Jersin談到了該公司的軟件。“我們可以使用技術(shù)來影響人們,以減少結(jié)果的偏見。”

左起:福布斯媒體的勞拉曼達(dá)羅;Laura Gomez,Atipica;John Jersin,LinkedIn;和Vaya Consulting的Nicole Sanchez參加福布斯首席信息官峰會(huì)

福布斯傳媒

Jersin說,LinkedIn圍繞多樣性的努力“始于性別,因?yàn)樗亲钊菀撰@得重要數(shù)據(jù)集的人。這是一個(gè)50/50的分裂。“

根據(jù)Vaya Consulting的創(chuàng)始人兼管理合伙人Nicole Sanchez的說法,LinkedIn的大多數(shù)用戶可能會(huì)參與性別二元組,但對(duì)于即將到來的員工來說可能并非如此,該公司負(fù)責(zé)領(lǐng)導(dǎo)財(cái)富500強(qiáng)企業(yè)進(jìn)行多元化和包容性培訓(xùn)。

“在沿海居民身份確定為Gen-Z的人中,有50%的人會(huì)考慮他們的性別,并在非二元性別的某個(gè)地方找到某個(gè)地方。對(duì)于下一組工人來說,盡管我們想要為簡(jiǎn)單的性行為而努力,但性別卻越來越有意義,“桑切斯說。

招聘現(xiàn)有的勞動(dòng)力而不是即將到來的勞動(dòng)力可能會(huì)導(dǎo)致招聘專業(yè)人員加劇偏見,從而使有缺陷的系統(tǒng)永久化。

根據(jù)Kapor中心2018年的一項(xiàng)研究,雖然21%的計(jì)算機(jī)科學(xué)學(xué)士學(xué)位是Black或Latinx,但他們只占技術(shù)人員中技術(shù)員工的10%。

“正在發(fā)生的事情是人們正在使用LinkedIn,看著圖片和猜測(cè),”桑切斯說。“有些法律規(guī)定你不能在路上問別人他們的種族和性別,但是我們目前正在使用的代理人鞏固了我們舊的破壞系統(tǒng),相互看待并假設(shè)。隨著Gen-Z進(jìn)入勞動(dòng)力市場(chǎng),我將越來越錯(cuò)。“

盡管人類已將自己的偏見融入人工智能和機(jī)器學(xué)習(xí)模型,但另一個(gè)挑戰(zhàn)是這些系統(tǒng)與他們所依據(jù)的數(shù)據(jù)一樣好。桑切斯不相信技術(shù)可以完全解決招聘偏見。

“在接下來的十年中,我們將成為一個(gè)擁有大多數(shù)有色人種的國家,我們的系統(tǒng)尚未做好準(zhǔn)備,”桑切斯說。“盡管我們想要確定數(shù)據(jù),但由于我們的數(shù)據(jù)驅(qū)動(dòng)解決方案,我們的數(shù)據(jù)是錯(cuò)誤的。我們必須做的一些工作必須由人類引導(dǎo)。“


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ   備案號(hào):

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。

郵箱:toplearningteam#gmail.com (請(qǐng)將#換成@)