涉及到人的事,大多比较复杂,它没有标准答案。而业界和学界普遍认同,机器学习就是一个“黑箱”。你投喂给人工智能数据,一再调整算法模型,你知道它做出判断的准确率越来越高,但你不知道为什么。
人工智能的“心”,也是海底的针,你不知道它学到了什么。同样,你也不知道一家公司的人力资源算法模型里包含了多少偏见。
AI能够根据它掌握到的员工信息对其进行潜力评估,但它究竟如何评估,在评估过程中有没有伦理和道德的风险,它收集数据的边界在哪里?社会技术学家Zeynep Tufekci做过一次公开演讲,她举了一个例子:机器能推断出你没有公开的事情——比如,它认为你有很高概率会换上抑郁症,或者,它认为你有很高概率三个月内会怀孕。于是,它“贴心”地提前斩断了你的路,而直到此时,你还蒙在鼓里,不知道自己为何被机器划到了“待定区”。
那么,这究竟是精准的预言,还是赤裸裸的偏见?偏见可能无处不在,当偏见以机器之名施加于群体之上时,会变得更为隐蔽。
无论人工智能发展到什么程度,人,都要坦荡并坚决地承担自己的责任。HR要在对员工的一轮轮评估中去了解和审视自己的偏见,去反思自家的企业文化。
这其中涉及复杂的判断,人无法“甩锅”,更不能缺席。(张佳星)
5/5 首页 上一页 3 4 5 |