本報(bào)駐聯(lián)合國記者 馮衛(wèi)東
自2014年以來,美國亞馬遜公司的機(jī)器學(xué)習(xí)團(tuán)隊(duì)一直在秘密研發(fā)和使用一款計(jì)算機(jī)程序,用于審查求職者的簡歷,希望能將尋找頂尖人才的工作智能化。但在專家發(fā)現(xiàn)新招聘引擎不喜歡女性后,亞馬遜最終在去年年初解散了該研究團(tuán)隊(duì)。
效率提升需求推動(dòng)機(jī)器學(xué)習(xí)應(yīng)用
無論是在倉庫內(nèi)部還是在推動(dòng)定價(jià)決策方面,自動(dòng)化是亞馬遜電子商務(wù)主導(dǎo)地位的關(guān)鍵。由于低成本計(jì)算能力的激增,機(jī)器學(xué)習(xí)在技術(shù)領(lǐng)域越來越受歡迎。亞馬遜的智能化招聘實(shí)驗(yàn)就始于這家全球最大在線零售商的關(guān)鍵時(shí)刻。
監(jiān)管機(jī)構(gòu)的文件顯示,自2015年6月以來,亞馬遜的全球員工人數(shù)增加了兩倍多,達(dá)到57萬多名。為緩解人力資源部門劇增的工作壓力,提升其工作效率,亞馬遜愛丁堡工程中心建立了一支研發(fā)團(tuán)隊(duì),目標(biāo)是開發(fā)人工智能技術(shù),快速抓取網(wǎng)絡(luò)信息并發(fā)現(xiàn)值得招募的候選人。
該公司的實(shí)驗(yàn)性招聘工具使用人工智能為求職者提供一星到五星的評(píng)分,類似于購物者對(duì)亞馬遜所售產(chǎn)品的評(píng)分。研究人員希望這個(gè)招聘軟件能達(dá)到“給軟件輸入100份簡歷,它會(huì)吐出前5名,然后公司就可優(yōu)先雇用他們”的目標(biāo)。
人工智能招聘軟件“重男輕女”
經(jīng)過培訓(xùn),亞馬遜的計(jì)算機(jī)模型學(xué)習(xí)了過去10年內(nèi)提交給公司的簡歷,找出了其固有模式,并據(jù)此來審查申請人。但從2015年開始,亞馬遜意識(shí)到在評(píng)定軟件開發(fā)和其他技術(shù)職位的申請人時(shí),該招聘系統(tǒng)并非性別中立。因?yàn)榇蠖鄶?shù)申請者都是男性,這反映了整個(gè)科技行業(yè)男性主導(dǎo)地位的現(xiàn)實(shí)。
研究團(tuán)隊(duì)創(chuàng)建了500個(gè)專注于特定工作職能和職位的計(jì)算機(jī)模型。他們教會(huì)每個(gè)模型識(shí)別過去候選人簡歷中出現(xiàn)的約5萬個(gè)術(shù)語。這些算法對(duì)IT應(yīng)用程序中常見的技能幾乎沒有重要意義,例如編寫各種計(jì)算機(jī)代碼的能力等。相反,這項(xiàng)技術(shù)有利于那些用男性工程師簡歷中諸如“執(zhí)行”“捕獲”等常見動(dòng)詞來描述自己的候選人。
事實(shí)上,亞馬遜的系統(tǒng)通過自學(xué)得出了男性候選人更可取的結(jié)論。系統(tǒng)對(duì)包含“女性”這個(gè)詞的簡歷進(jìn)行了處罰,如“女子國際象棋俱樂部隊(duì)長”等。系統(tǒng)還降低了兩所全女子大學(xué)畢業(yè)生的評(píng)級(jí)。
亞馬遜曾嘗試對(duì)程序進(jìn)行更新,力圖使其對(duì)特定術(shù)語保持中立。但這并不能保證機(jī)器不會(huì)根據(jù)其他方式來對(duì)可能具有歧視性的候選人進(jìn)行分類。
性別偏見也不是唯一的問題。支持模型判斷的數(shù)據(jù)也有問題,這意味著不合格的候選人經(jīng)常被推薦到各種工作崗位。亞馬遜最終在去年年初解散了該團(tuán)隊(duì),因?yàn)楦吖軅儗?duì)這個(gè)項(xiàng)目已失去信心。
算法公平之路任重道遠(yuǎn)
根據(jù)人才軟件公司“職業(yè)創(chuàng)造者”2017年的一項(xiàng)調(diào)查顯示,約55%的美國人力資源經(jīng)理表示,未來5年內(nèi),人工智能將成為他們工作的常規(guī)部分。
長期以來,雇主一直夢想利用技術(shù)擴(kuò)大招聘網(wǎng)絡(luò),減少對(duì)招聘人員主觀意見的依賴。但亞馬遜的失敗案例,為越來越多正在尋求自動(dòng)化招聘流程的大型公司提供了一個(gè)教訓(xùn)。
卡內(nèi)基梅隆大學(xué)機(jī)器學(xué)習(xí)專家表示,如何確保算法公平、真正可理解和可解釋的道路還相當(dāng)遙遠(yuǎn)。
《麻省理工技術(shù)評(píng)論》在此次事件的報(bào)道中指出,我們不能將人工智能視為內(nèi)在的無偏見。在有偏見的數(shù)據(jù)上訓(xùn)練系統(tǒng),意味著算法也會(huì)變得有偏見。如果這樣不公平的人工智能招聘計(jì)劃在實(shí)施之前沒有被發(fā)現(xiàn),將使長期存在于商業(yè)中的多樣性問題延續(xù)下去,而不是解決它們。(科技日報(bào)紐約10月13日電)