未來用機器人做面試官,可靠嗎
又到一年求職季,江西某高校畢業(yè)生小鑫(化名)的求職經(jīng)歷卻一波三折。4月,她參加了某銀行的校園招聘,一路過五關斬六將,以在筆試和口試中的優(yōu)異表現(xiàn)獲得了招聘方認可,收到了錄取通知。沒想到,在最后環(huán)節(jié)的機器人性格測試中,她的測試結果是“情緒風險等級高”,被銀行以不適合工作為由拒錄。
小鑫的遭遇備受關注,事件的另一主角——機器人面試官,也由此進入了人們的視線。機器人測試結果是否可靠?未來招聘中是否會大規(guī)模應用人工智能?
“機器人面試官”大大增加錄取幾率
假如你是求職大軍中的一員,每天你都在重復一件事:向任何可能聘用你的公司投遞簡歷。然而,這些信件都如石沉大海,你的焦慮感越來越強烈。終于有一天,你等來了企業(yè)打來的初試電話。欣喜若狂地接通電話后,你聽到了一個甜美的女聲。這個聲音用抑揚頓挫的語調(diào)向你拋出了一連串問題:
“你工作多久了?”“你對公司待遇是否滿意?”“能接受上夜班嗎?”“什么時候可以開始工作?”……
掛斷電話的那一刻,你或許還沒有意識到,跟你進行這場對話的并非人類,而是機器人。
這個看似科幻電影中才會出現(xiàn)的場景,眼下正在成為現(xiàn)實。據(jù)美國《福布斯》雜志報道,“第一工作”是一家從事青年人才招聘的人力資源公司,該公司正在開發(fā)名為“瑪雅”的人工智能(AI)系統(tǒng),協(xié)助企業(yè)在如雪片般飛來的簡歷中快速篩選出合適的求職者。在逐步勝任服務員、司機、翻譯等工作后,AI開始向人力資源領域滲透。
“創(chuàng)造‘瑪雅’是出于我個人慘痛的求職經(jīng)歷。”“第一工作”創(chuàng)始人埃亞爾·格拉耶夫斯基告訴《福布斯》,大學畢業(yè)那年,他申請過40多個職位,但只有兩個公司回復了他,絕大部分申請如同掉進“黑洞”,有去無回。有數(shù)據(jù)顯示,85%的求職者得不到用人單位回復,而71%的招聘者抱怨招不到合適的人。
AI招聘系統(tǒng)的出現(xiàn)將從根本上同時改變求職者和招聘者面臨的困境。據(jù)美國有線電視新聞網(wǎng)(CNN)介紹,“瑪雅”以云數(shù)據(jù)為基礎,具有自我學習能力。如果申請人條件適合,“瑪雅”會很快安排面試,如果不適合,“瑪雅”會向申請人推薦其他工作。
《福布斯》指出,如今人事部門收到的求職簡歷數(shù)量是過去的好幾倍。一方面,人們不再把穩(wěn)定作為職業(yè)生涯的首要目標;另一方面,互聯(lián)網(wǎng)的出現(xiàn)使求職變得更為便捷,鼠標輕輕一點,求職材料就同時發(fā)送到多個郵箱里。
這種“普遍撒網(wǎng),重點收獲”的求職方式也帶來了弊端。“面對數(shù)量龐大的郵件,人力專員很難妥善對待每個求職申請,這就是AI介入的原因。”格拉耶夫斯基說,“接受機器人面試,聽起來有點兒丟人,不過怎么也比壓根兒沒人搭理你強。”研究表明,采用“瑪雅”系統(tǒng)的公司招聘效率提升了38%,申請人被錄用的概率增加了1.5倍,而得到回復的幾率是過去的3倍。
越來越多的公司開始用AI處理基本的人力工作。號稱有5億份簡歷的職場社交網(wǎng)站“領英”正在開發(fā)能與人對話的智能系統(tǒng),向求職者提出諸如“你想在哪里工作”之類的簡單問題。“這些步驟并不是人力資源的工作重心,因此我們想把它們從人力工作中分離出來,從而提高效率。”招聘軟件主管約翰·澤辛告訴美國“HRdrive”網(wǎng)站。
人類思維定勢“傳染”人工智能
除了與求職者進行對話,AI還能根據(jù)招聘者的偏好制定搜索方案,以便篩選出最適合的人選。臉書、通用、希爾頓等公司正謹慎地把AI系統(tǒng)應用到招聘中。AI在人力資源領域的應用越來越廣,質(zhì)疑聲卻始終不絕于耳。
對AI面試官最大的非議,是缺乏人情味。英國《金融時報》指出,即便是最前衛(wèi)的人力專員也不得不承認,沒有哪個職場精英愿意讓機器人對自己評頭論足。對資深人力專員來說,人脈資源是他們最寶貴的財富之一,就這點而言,再智能的機器人短時間內(nèi)也代替不了人類。
人類的抽象思維是AI的另一短板。“如果讓你形容你的公司文化,你可能想到諸如‘靈活’‘朝氣蓬勃’‘有人情味’之類的詞語,”“每日招聘”網(wǎng)站指出,“然而,要把這些抽象、主觀的概念歸納為系統(tǒng)化、標準化的數(shù)據(jù),轉換為機器人能理解的語言,并從成千上萬份簡歷中準確挑選出符合公司文化的求職者,做起來可比說起來困難多了。”
支持AI的人聲稱,與人類面試官相比,機器人面試官不會用有色眼鏡看人,不會因種族、性別、年齡等條件產(chǎn)生預設偏見。通過代碼修正這些偏見,比從人類潛意識中消除這些偏見容易得多。因此,機器人比人類更公正。
事實果真如此嗎?科技網(wǎng)站“Unleash”指出,人們可以在代碼中排除性別、種族等因素,但要讓AI徹底消除歧視絕非易事。以谷歌翻譯為例,在土耳其語中,人稱代詞沒有性別之分,“他”“她”“它”統(tǒng)統(tǒng)以“O”指代。把土耳其語譯為英語時,如果“O”是醫(yī)生,谷歌翻譯為“他是一名醫(yī)生”;如果“O”是護士,翻譯的結果則是“她是一名護士”。
你看,偏見無處不在,人工智能也無法獨善其身。當不得不作出判斷時,谷歌翻譯軟件便暴露了深藏的性別偏見:醫(yī)生、企業(yè)家是男性,護士、教師是女性。
實際上,谷歌工程師并沒有把偏見寫入代碼,形成偏見的,是在翻譯軟件中使用的AI本身。通過模擬真實語境和人們使用語言的方式,人們把思維定勢“傳染”給了人工智能。“具有學習能力的人工智能也會產(chǎn)生偏見,和真實世界一樣。”微軟公司研究員里奇·卡魯亞納告訴“Unleash”。
美國吉利德科學公司招聘電腦工程師的失敗案例似乎印證了這一說法。篩選簡歷時,該公司設置了“喜歡漫畫”這一條件,他們認為具有該特質(zhì)的人更有可能是一名出色的“極客”。“然而,‘漫畫愛好者’與‘優(yōu)秀工程師’之間沒有必然聯(lián)系。”數(shù)據(jù)分析師凱茜·奧尼爾告訴“Unleash”,“實際上,這種預設跟性別和種族的關聯(lián)更大。他們就沒想過,喜歡漫畫的更可能是亞裔男性嗎?”
更糟糕的是,AI通常在“黑匣子”里進行運算,要搞清它的邏輯是不可能的。“一旦AI出現(xiàn)偏差,找出錯誤根源極為困難。”奧尼爾說。
不過,要消除人工智能的漏洞并非無計可施。“口袋招聘”公司人力專員瓦西施塔認為,人類應該把最終決定權掌握在自己手中,并將結果反饋給AI,不斷完善其運算方式。
“機器人面試官帶來的最大挑戰(zhàn)”
《金融時報》預測,當AI的應用范圍由體力勞動轉向腦力勞動時,人力資源是首當其沖受到影響的職業(yè)之一。未來人力資源領域的崗位會越來越少,但這一工種不會徹底消失。人力資源工作始終需要人來完成,不同的是,未來人力資源工作的重心和職業(yè)技能將發(fā)生改變。
“人工智能擅長某些特定的工作,比如識別數(shù)據(jù)類型等”,英國桑德蘭大學應用科學系主任約翰·麥金泰爾告訴英國招聘網(wǎng)站“Personnel Today”,“然而,它無法像人類一樣對數(shù)據(jù)進行詮釋和類比,并據(jù)此作出最終決定。”
因此,那些運算法則不能處理的任務仍將由人類完成。“解讀求職者的肢體語言,判斷求職者是否勝任工作或符合公司文化,這些事情是電腦做不到的。”一家初創(chuàng)招聘企業(yè)的首席執(zhí)行官史蒂夫·古德曼告訴《金融時報》,“不過,如果你是一名初級人力專員,每天的工作只是上網(wǎng)搜搜簡歷,并進行簡單的分類歸檔,那么,你的飯碗很可能被人工智能搶走。”
對未來的人力專員而言,推銷將是他們有別于人工智能的重要能力。“每日招聘”網(wǎng)站指出,無論在招聘中使用了多么先進的高科技,把優(yōu)秀人才納入麾下都是招聘的最終目的,而這需要人力專員親自出馬。迄今為止,沒有任何人工智能可以與人類進行隨機應變的對話,并在對話中培養(yǎng)信任關系,推銷公司文化。人類復雜的情感和行為是機器無法模擬的。
“當日常事務被AI接手后,人力專員應該把重點轉移到具有高附加值的工作上,比如為求職者提供職業(yè)咨詢,推廣公司文化等。”一家高端獵頭公司總裁紀堯姆·尚帕涅告訴《金融時報》,“因此,未來的人力專員需要更高的情商。”
不過,正如CNN所言,“招聘是一門不精確的科學”。無論人力專員多么精明,AI多么先進,誰也無法保證不會讓任何一個優(yōu)秀人才從指縫間溜走。“機器人面試官帶來的最大挑戰(zhàn)并不在于改變?nèi)肆Y源領域,而在于人類以何種姿態(tài)和方式迎接這種改變”。