對不起,AI覺得你有虐童傾向,求職失敗
編者按:本文來自“ ofollow,noindex">量子位 ”(ID:QbitAI), 銅靈編譯整理。36氪經授權轉載。
看起來好好的一個保姆,請回家怎麼就開始虐童了?
最近,一個叫Predictim的AI評估系統被用於保姆招聘上,它能線上預測保姆的性格,並能給出不良性格因素的出現概率。孩爸孩媽的心腹大患,這下可以被一鍵避免了。
據華爾街日報報道,寶媽Jessie就使用了這套系統,想讓機器輔助判斷一位保姆候選人是否合適。
Predictim線上評估結果顯示,這位24歲的年輕女性吸毒風險低,但“態度惡劣”“不尊重別人”特性出現的風險為40%,風險略高。
AI並不看好這位應聘者,Jessie也突然對這位求職者心生疑慮。
背後原理
不少初次見到這套系統的家庭主婦都有個疑惑:
從未謀面,素不相識,一個AI演算法怎麼就能知道人類性格呢?
在評估前,這個演算法需要知道保姆的姓名和電子郵件,並徵求保姆同意獲取社交媒體帳戶的訪問許可權。
如果保姆拒絕,先招保姆的父母會收到拒絕通知,保姆也會受到一封郵件,上面寫著“在您完成此請求之前,將無法被有意向的父母僱用。”
看來不測還不行了,那是什麼流程呢?
其實,Predictim在評估前做的背景調查,也就是通過自然語言處理和計算機視覺影象識別技術,掃描各個求職者的Facebook、Twitter和Instagram等社交平臺上的發帖而已。
參加演唱會後留下的感想心得,想要中獎轉發的那條推特,或者是心情煩悶時寫下的那段文字……Predictim統統全部掃描一遍。
Predictim用了黑盒演算法評估保姆,很大程度上具有不可解釋性,也沒有人知道,AI是如何將複雜的微博、說說或朋友圈轉化成優點或潛在危險。
最後,Predictim系統生成一份評估報告,不過這份報告只對父母顯示,不會告訴保姆本人結果如何。
報告中的風險評級分為幾類,比如是否具有暴力傾向和是否有吸毒風險。初此以外,AI還會對保姆的其他人格特質進行評價,例如是否有禮貌、是否對與他人合作保持積極性等。
據Crunchbase記錄,Predictim公司成立於今年6月份,是一個剛起步的初創公司。成立後獲得了一筆10萬美元的種子輪融資,目前員工總數不超過10人。
而Predictim系統一次使用的起步價為24.99美元,約人民幣174元。
憂慮重重
突然闖進求職生活的AI讓美國人類有些難以接受。
在Pew Research Center本月的一份調查中,有57%的受訪者認為對求職過程中的自動簡歷篩選“不可接受”,對可能影響他們日常生活的演算法持懷疑態度。
部分美國專家擔心,Predictim這樣的AI評級系統預示著未來每個工作都可能由一臺機器決定,AI看你行不行=未來就業成不成。
一些AI研究者認為,這樣的系統有可能增加年齡、種族和相貌上的偏見,可能會更頻繁地標記一些群體的特徵。
雖然不看好的聲音不絕,但Predictim表示仍在全力正準備擴張。
線上保姆招聘平臺Sittercity的高管表示,他們將在明年初推出一項試點計劃,將Predictim的自動評級加入到自己網站一系列保姆背景調查中。
Sittercity的產品負責Sandra Dainora表示,像這樣的工具很快就會成為線上尋找護理人員的“標準貨幣”,也就是通用衡量標準之一。
升職加薪?AI說了算
不僅僅保姆考核官已被AI 侵佔,國內國外, 各行各業的HR中已經可見到AI身影 。
比如IBM,目前已經用他們親手創造的、IBM的頭號人工智慧程式Watson(沃森)考核員工過去表現如何,還會主動搜尋內部培訓系統的資料,瞭解員工培訓以及學習情況,判斷他們是否具備升職潛力。
Watson給出的評估建議,將決定員工的獎金,薪酬和晉升與否。若老闆覺得OK,AI也認為你是潛力股,那員工就可以晉升了。
也不止國外,據中國江西網報道,江西省農業發展銀行校園招聘的筆試和麵試,也加入了AI評定環節。機器人能通過測試判斷應聘者是否具備高等級情緒風險,從而輔助招聘人員決定去留。
也有一些公司,之前開發了AI招人演算法,但一段時間後卻停滯了,比如亞馬遜。
據路透社報道,亞馬遜停止開發招聘演算法,最大原因當屬系統偏見。因為目前公司開發人員還是男性為主,因此在相同質量簡歷中,此前仍會首選男性求職者。
不過亞馬遜後來也表示,這個評估工具從未用於決定候選人的去留~
AI評估這事,不知道你怎麼看?