1. <kbd id="uefiub"></kbd><fieldset id="uefiub"></fieldset><option id="uefiub"></option><code id="uefiub"></code><b id="uefiub"></b>
                      • <q id="11i992"></q><address id="11i992"></address><noframes id="11i992"><table id="11i992"></table><ins id="11i992"></ins>
                            <center id="08a0z9"></center>
                            <div id="08a0z9"><li id="08a0z9"></li></div><option id="08a0z9"><strong id="08a0z9"></strong><abbr id="08a0z9"></abbr><q id="08a0z9"></q><i id="08a0z9"></i><ul id="08a0z9"></ul></option>
                            1. 當AI人工智能開始用于招聘 這些倫理問題不容忽視

                              52ai 行業資訊 2019-06-28 08:43:59 8215 0 技術影響研究未來

                              AI方面的數字創新和進步,催生了各種新型人才甄選和評測工具。這類工具大都聲稱能幫助公司提升選才能力,以前所未有的快速和低成本,爲正確的工作找到正確的人才,篩去錯誤的人。
                              這些工具賦予了企業前所未有的力量,依靠數據做出人力資源相關決定。這類方法還可以促進反饋民主化,通過數據讓數百萬求職者了解自己的長處、成長需求,以及可能適合的職業和組織。
                              遊戲式評估、抓取社交媒體信息的機器人、對求職者文章的語言學分析,以及可以運用算法分析說話內容、聲調、情感狀態、非語言行爲以及性格的視頻面試,這些領域已經出現了引人矚目的快速發展(以及相應的風險投資)。
                              新型工具正在瓦解原有的招聘及人才評估空間,然而其自身的准確性尚存在許多問題,還帶來了倫理、法律和隱私方面的疑問。相比之下,NEO-PI-R、The Wonderlic Test、Ravens Progressive Matrices和HoganPersonality Inventory等存在時間更長的心理測試,而且經過科學論證,可以幫助求職者匹配相關工作,打給求職者的評測分數與之後工作表現之間存在可靠的聯系(證據發表于獨立、可信的學術期刊)。最近美國參議院也開始擔心,新技術(特別是人臉分析技術)是否會對公平就業産生負面影響
                              本文關注新技術可能對求職者隱私造成的影響,亦關注新技術與《美國殘疾人法案》和其他聯邦及各州有關就業的法律之間的沖突,二者之間,如何保護求職者?企業意識到,不能或不該詢問求職者的家庭狀況和政治傾向,以及求職者懷孕與否、性取向、情緒狀態、身心健康狀況、酗酒與否、藥物濫用狀況和睡眠狀況。然而,新技術能夠間接識別這些因素,不必經過正式許可,甚至不必經過允許。
                              在對當前運用AI評估求職者的不確定性進行深入挖掘之前,先回顧一下過去會很有幫助。心理測試已經應用了100多年,因爲美國陸軍阿爾法部隊用心理測試將入伍者分類、評估其擔當各種職能的適合程度,心理測試的運用範圍得以進一步拓展。心理測驗通常分爲三大類:認知能力(智力)測試、性格測試、心理健康測試。
                              1990年通過《美國殘疾人法案》以來,公司被禁止詢問求職者的身體殘疾、心理健康或臨床診斷狀況,禁止參考這些因素進行評估,之前用此類因素進行篩選的公司受到了控告和譴責。本質上講,殘疾(包括身心兩方面)被認定爲“私人”信息,公司不能在職前階段詢問,一如公司不該向求職者提出有關私人生活的冒犯問題,不能讓求職者個人背景因素影響聘用決定。
                              認知能力和智力測試,被證明是預測許多職位適合度的可靠評估因素。然而,如果特定受保護群體(如被性別、種族、年齡或出生地定義的群體)在這類測試中受到不利影響,就可能造成歧視。公司若要采用已被發現有此類不利影響(由于不同受保護團體的得分高低)的測試,必須證明該測試的確與工作有關,並能預測員工適合特定職位的程度。
                              性格測試令公司遭受歧視嫌疑的可能性較低,因爲性格與受保護群體特質或殘疾之間的相關性很小乃至沒有。還有一點值得一提:性格與工作表現之間的關系,取決于具體情境(如工作類型)。
                              可惜關于眼下越來越多用于就職評估的新一代人才甄選工具的信息實在太少。許多工具的重點都是技術創新,並非來自科學推導或研究項目。因此,有時無法確定這類工具測試的究竟是什麽、其預設是否合理有效,以及其預測求職者表現的基本原理。例如,言辭和嗓音(長期以來被視爲與性格特質相關)的物理屬性一直被視爲與個人工作表現差異有關。如果某工具在言語規律上顯示出傾向性,如青睐平和或“友好”的音調,這種因素對來自受法律保護群體的求職者不造成歧視,那麽就不存在法律問題;可是這樣的工具並未經過科學驗證,因此可能存在潛在的歧視,讓公司平白承擔責任。另外,根據基本無法改變的先天嗓音條件篩選求職者,是否符合道德倫理,這方面尚無定論。
                              與之相似,社交媒體活動(如使用Facebook或Twitter)可以反映人的智力和性格,包括性格黑暗面。但使用社交媒體的用戶通常是出于求職以外的其他目的,並未許可公司收集並分析這部分信息、得出有關他們的私人結論,那麽,出于招聘目的發掘這部分信息,是否符合道德倫理?在招聘中應用新技術,一系列新的有關個人隱私的倫理和法律問題隨之而來。我們認爲,圍繞這些問題應當進行公開討論,如:
                              一、對于有關求職者個人屬性的隱私信息,公司面臨何種考驗?
                              隨著技術進步,大數據和AI將會越來越精確地測定個人隱私屬性的“替代”屬性。例如,現在Facebook的“點贊”記錄可以用來推測性取向和種族,准確程度相當高。政治傾向和宗教信仰同樣容易推斷。公司是否會嘗試利用這類工具篩選求職者,且因爲聘用決定並非直接基于受保護群體的屬性,所以並未觸犯法律?如果只是推斷求職者的個人屬性,那麽公司的確沒有違反法律,但如果根據受保護群體的屬性(如出生地、種族或母語)或公司無權過問的私人信息(如求職者可能罹患的身心疾病)做出不利于特定求職者的聘用決定,那就不一樣了。公司依賴運用這些替代屬性的評估工具,法庭將如何處理尚不得而知,但根據這類屬性做出不利于求職者的決策,無論是怎樣推理的,都與法律相悖。
                              臉部識別軟件同樣是這個問題。前不久的研究預測,面部識別AI可以迅速識別求職者的性取向和政治傾向,以及情緒等“內部狀態”,准確程度相當高。這樣一來,《美國殘疾人法案》的應用又會如何改變?另外,《員工測謊保護法案》在一般情況下禁止公司使用測謊儀作爲聘用前篩選工具,《基因信息不歧視法案》禁止公司在招聘時參考基因信息。可是,如果有關謊言和基因的信息能夠被前文提及的AI工具准確檢測出來,那又會怎樣呢?
                              二、對于有關求職者生活方式和行爲的隱私信息,公司面臨何種考驗?
                              現在公司可以獲取一些隱私信息,比如求職者每周日去教堂時在網上的“簽到”記錄,對自己年邁親人入住的老年癡呆症護理中心的評論,在民事法庭的離婚記錄等等。在數字時代,許許多多信息都很容易找到。大數據無處不在,不斷收集和整理我們的信息,供我們尚無法想象的工具分析,用作將來我們是否適合特定工作崗位的參考。而且大數據只會越來越“大”。專家表示,世界上90%的數據是過去兩年裏産生的。數據越來越多,數據濫用和隨之而來的歧視(無論是有心還是無意)也勢必會越來越多。
                              歐洲根據一般性資料保護規則(General Data Protection Regulation,簡稱GDPR)進行隱私保護,美國則依賴拼湊起來的方法,主要靠法律。對于社交媒體,美國于2012年立法,規定公司不可要求求職者提供個人網絡賬號的密碼作爲聘用條件。20多個州實施了這樣的法律來限制企業。然而,對于在職場應用新技術的個人隱私問題,相應的規定和法律還很少。加利福尼亞通過了相關法案,可能會限制公司對求職者和員工個人信息的使用。而州級法院和聯邦法院對于與新技術有關的員工個人隱私分析尚未有統一的法律標准。于是,至少在目前,大數據時代的員工個人隱私問題尚未得到解決。這種現狀讓公司處在有爭議的立場,值得注意:尖端科技可能非常有用,但會向你提供以前屬于個人隱私的信息。在招聘時使用這類信息是否合法?如果未經求職者允許,以這類信息爲參考是否符合道德倫理?
                              三、對于有關殘疾的求職者隱私信息,公司面臨何種考驗?
                              《美國殘疾人法案》明確將心理疾病和身體殘疾一並列入其範疇,將有過相關疾病或損傷記錄、或被認爲有此類疾病或損傷,在主要生命活動中受到實質限制的人定義爲殘疾人。十多年前,美國平等就業委員會(Equal Employment Opportunity Commission,簡稱EEOC)頒布指導意見,表明精神病學文獻中的人格障礙擴展列表可以被視爲心理障礙,而ADA修正案則讓個人在ADA的定義下宣稱自己有殘疾更爲容易。如此一來,有社交障礙、注意力障礙和與他人交流困難的人都受到ADA保護。
                              除了有關殘疾的新問題,技術進步還帶來了有關尊重多樣性的新困境。這種系統造成的學習偏見,特別是與種族和性別有關的此類偏見,已經在現實中引起了高度關注。例如亞馬遜用于評估簡曆的自動人才搜索程序,被發現評估方式帶有性別偏見後立即被棄用。爲了減少這類偏見,開發者正在調整用于培訓AI的數據,力求平等地代表所有群體。AI學習的信息量越大,消除潛在偏見的效果就越好。

                              總之,新技術可能已經跨過了公衆屬性和個人隱私、“特征”和“狀態”之間的界線,而且完全有理由相信,將來這個趨勢會愈演愈烈。運用AI、大數據、社交媒體和機器學習,公司將仁鼎彩票大小计划地接觸有關求職者個人生活、私人特征、隱私難題和心理狀態的信息。本文提到的許多有關個人隱私的新問題並沒有簡單的答案,但我們相信這些問題值得公衆探討。


                              本·達特內(Ben Dattner) 托馬斯·查莫羅-普雷穆茲(TomasChamorro-Premuzic)理查德·布克班德(RichardBuchband) 露辛達·舍特勒(LucindaSchettler)|文
                              本·達特內是高管教練、組織發展顧問,DattnerConsulting公司創始人,公司位于紐約。
                              托馬斯·查莫羅-普雷穆茲是萬寶盛華集團首席人才科學家,哥倫比亞大學和倫敦大學學院商業心理學教授,哈佛大學創業金融實驗室成員。
                              理查德·布克班德是萬寶盛華集團高級副總裁、法律總顧問兼秘書,公司和證券法專業出身。露辛達·舍特勒是萬寶盛華集團高級律師,專攻美國勞動法。露辛達關注不斷改變的就業領域中的法律問題,包括AI和新技術的應用。
                              分享
                              版權聲明

                              本文僅代表作者觀點,不代表本站立場。
                              本文系作者授權發表,未經許可,不得轉載。

                              評論