說明:如果您有任何疑問或想咨詢其他業(yè)務(wù)請(qǐng)撥打電話 400 685 0732
全網(wǎng)監(jiān)測(cè)海量數(shù)據(jù)按需發(fā)布監(jiān)測(cè)預(yù)警
實(shí)時(shí)把握輿情動(dòng)態(tài)精準(zhǔn)追溯信息源頭
使用人工智能進(jìn)行招聘聽起來像是一個(gè)萬無一失的計(jì)劃。畢竟,人類是有缺陷和偏見的。但事實(shí)證明,人工智能也有著偏見。
長期以來,人工智能的批評(píng)者一直擔(dān)心這項(xiàng)技術(shù)會(huì)減少勞動(dòng)力中的就業(yè)機(jī)會(huì)。
新的研究表明,人工智能以一種意想不到的方式做到了這一點(diǎn):基于性別、種族和年齡歧視合格的候選人。
人工智能有潛力在招聘中實(shí)現(xiàn)公平競(jìng)爭(zhēng)——但并不是因?yàn)樗怯扇祟愑?xùn)練的?,F(xiàn)在就讓我們來分析一下。
偏見是從哪里來的?
理論上,人工智能篩查工具是完美的。它不會(huì)思考或判斷,所以它可以做出客觀的決定,對(duì)吧?不完全是。
隨著人工智能應(yīng)用的增加,報(bào)道的偏見事件數(shù)量也在增加。以下是僅2023年的一些:
–6月,彭博社報(bào)道稱,對(duì)Stable Diffusion生成的5000張圖像的分析強(qiáng)化了“比現(xiàn)實(shí)世界中更糟糕”的性別和種族刻板印象
–高薪工作總是以膚色較淺的受試者為代表,而低薪工作則與膚色較深有關(guān)。
–在性別問題上,也觀察到了類似的陳規(guī)定型觀念。收銀員和社會(huì)工作者等角色主要由女性代表,而政治家和工程師的形象幾乎完全由男性代表。事實(shí)上,數(shù)據(jù)集中的大多數(shù)職業(yè)都是由男性受試者顯示的。
對(duì)此,運(yùn)營Stable Diffusion的初創(chuàng)公司StabilityAI的發(fā)言人回應(yīng)彭博社稱,所有人工智能模型都存在基于訓(xùn)練數(shù)據(jù)集的偏差。問題就出在這里。
公司擁有或獲取數(shù)據(jù)集。他們使用這些數(shù)據(jù)集訓(xùn)練人工智能模型。人工智能模型根據(jù)觀察到的模式執(zhí)行任務(wù)。所以,有缺陷的數(shù)據(jù)集=有缺陷的模型。
那么,當(dāng)同樣的人工智能模型被用于招聘時(shí)會(huì)發(fā)生什么呢?詢問Workday,一家提供人力資源和財(cái)務(wù)解決方案的系統(tǒng)軟件公司。
他們目前正面臨由求職者Derek Mobley領(lǐng)導(dǎo)的集體訴訟,他說他們的人工智能篩查工具歧視老年人、黑人和殘疾人申請(qǐng)人。
莫布里是一名40歲的黑人,被診斷患有焦慮和抑郁。他聲稱,自2018年以來,他申請(qǐng)了大約100個(gè)職位,盡管符合工作資格,但每次都被拒絕。他代表的是報(bào)告中同樣被歧視的人數(shù)不詳?shù)娜恕?/p>
Workday的一位發(fā)言人表示,該公司定期進(jìn)行內(nèi)部審計(jì)和法律審查,以確保遵守法規(guī),該訴訟毫無根據(jù)。
陪審團(tuán)將決定這是否屬實(shí)。但這并不是人工智能招聘軟件第一次顯示出偏見。
2017年,亞馬遜取消了自己的人工智能篩選工具,因?yàn)樗惶赡苷J(rèn)為女性申請(qǐng)人有資格在男性主導(dǎo)的行業(yè)工作。
今年7月,斯坦福大學(xué)的研究人員發(fā)現(xiàn),七種人工智能檢測(cè)工具經(jīng)常將非英語母語者的寫作錯(cuò)誤歸類為人工智能生成。
人工智能檢測(cè)工具測(cè)量文本困惑。簡(jiǎn)單地說,句子中的下一個(gè)單詞越復(fù)雜,人工智能生成的可能性就越小。
由于詞匯量有限,非英語母語的人可能會(huì)使用更簡(jiǎn)單的單詞,檢測(cè)工具更有可能將這些申請(qǐng)人的作品標(biāo)記為由生成人工智能組成。
在工作場(chǎng)所,根據(jù)非本地求職者使用的詞語,他們被篩選工具認(rèn)為不太合格,因此風(fēng)險(xiǎn)可能會(huì)高得多。
這些事件都指向了同一個(gè)問題:當(dāng)人工智能工具在存在文化、種族和性別差異的現(xiàn)有數(shù)據(jù)上進(jìn)行訓(xùn)練時(shí),它必將反映出公司在招聘上的某些偏見。
政府對(duì)人工智能招聘的偏見怎么說?
有一段時(shí)間,他們沒怎么說話。
2019年,伊利諾伊州制定了一項(xiàng)法案,要求雇主在視頻面試中通知候選人在使用人工智能分析。
馬里蘭州緊隨其后,在未經(jīng)申請(qǐng)人同意的情況下,禁止在就業(yè)前面試中使用面部識(shí)別。
然后,在2021年,平等就業(yè)機(jī)會(huì)委員會(huì)(EEOC)發(fā)起了一項(xiàng)名為“人工智能和算法公平倡議”的全機(jī)構(gòu)倡議,以監(jiān)測(cè)和評(píng)估技術(shù)在招聘實(shí)踐中的使用情況。
同年,紐約市議會(huì)通過了一項(xiàng)法律,要求使用人工智能技術(shù)的雇主向申請(qǐng)人披露信息,并每年進(jìn)行偏見審計(jì)。
順便說一句,這項(xiàng)法律的實(shí)施始于2023年7月。但并不是所有人都認(rèn)為這是一場(chǎng)勝利。
一些批評(píng)這項(xiàng)法律的人說,它不夠具體,留下了漏洞。其他人則指出,它不包括對(duì)老年人或殘疾人的歧視。
作為人工智能倡議的一部分,美國司法部和平等就業(yè)機(jī)會(huì)委員會(huì)還發(fā)布了一份聯(lián)合指南,提醒雇主在使用人工智能工具進(jìn)行就業(yè)決策時(shí)存在歧視風(fēng)險(xiǎn)。
他們建議不要“盲目依賴人工智能”,這可能會(huì)導(dǎo)致侵犯公民權(quán)利。Workday今天就就面臨著這樣的問題。
最近,平等就業(yè)機(jī)會(huì)委員會(huì)在一次聽證會(huì)上聽取了一系列證人的證詞,包括計(jì)算機(jī)科學(xué)家、法律專家、雇主代表,討論人工智能在工作場(chǎng)所的潛在好處和危害。
人工智能在招聘方面的下一步是什么?
美國各地的許多公司已經(jīng)將人工智能集成到招聘流程中。在2022年對(duì)1688名受訪者進(jìn)行的一項(xiàng)研究中,SHRM發(fā)現(xiàn)79%的公司在招聘和招聘中使用自動(dòng)化和/或人工智能。
在接下來的幾年里,各組織應(yīng)該對(duì)其招聘實(shí)踐進(jìn)行更多的監(jiān)督。
紐約的這項(xiàng)新法律應(yīng)該會(huì)在全國范圍內(nèi)產(chǎn)生多米諾骨牌效應(yīng),據(jù)報(bào)道,加利福尼亞州、新澤西州、佛蒙特州和紐約州正在制定自己的法律,以規(guī)范人工智能在招聘和招聘中的使用。
像亞馬遜這樣的資源密集型企業(yè)集團(tuán)可以構(gòu)建、培訓(xùn)和測(cè)試他們的工具,以獲得更好的結(jié)果。但對(duì)于通過第三方供應(yīng)商購買工具的公司來說,偏見和侵犯公民權(quán)利的風(fēng)險(xiǎn)還是很高。
對(duì)于使用任何人工智能技術(shù)進(jìn)行就業(yè)的公司來說,徹底的審查和審計(jì)流程則會(huì)顯得至關(guān)重要。
推薦閱讀
人工智能在招聘中:能減少偏見還是讓招聘變得更糟? | 文軍營銷人工智能在招聘中:能減少偏見還是讓招聘變得更糟? 時(shí)間:2023-10-27 15:10:15 使用人工智能進(jìn)行招聘聽起來像是一個(gè)萬無一失的計(jì)劃.畢竟,人類是有缺陷和偏見的.但事實(shí)證明,人工智能也有著偏見. 長期以來,人工智能的批評(píng)者一直擔(dān)心這項(xiàng)技術(shù)會(huì)減少勞動(dòng)力中的就業(yè)機(jī)會(huì). 新的研究表明,人工智能以一種意想不到的方式...編程怎么學(xué) 如何學(xué)習(xí)軟件編程 | 文軍營銷用戶畫像的應(yīng)用:如何提升個(gè)性化推薦 人工智能給網(wǎng)絡(luò)專業(yè)人士帶來的3大挑戰(zhàn) 人工智能在招聘中:能減少偏見還是讓招聘變得更糟? 對(duì)于客戶服務(wù)代表有效的4個(gè)AI寫作方法 為什么你的ChatGPT提示不起作用? 2023年人工智能對(duì)客戶留存的影響 OpenAI如何影響網(wǎng)站的發(fā)展,設(shè)計(jì)以及更多 190種營銷人員應(yīng)該使用的提示詞 如何有效向chat...
說明:如果您有任何疑問或想咨詢其他業(yè)務(wù)請(qǐng)撥打電話 400 685 0732