蓝盟IT外包,人力资源如何理解和减轻人工智能的偏见

发布者:上海IT外包来源:http://www.lanmon.net点击数:844

蓝盟IT小贴士,来喽!
人力资源应用人工智能
现在,许多主要的云服务提供商都向服务包提供人工智能功能,并将该技术推广到难以负担昂贵的人工智能工程师和数据科学家的企业。
对人力资源团队来说,人工智能的价值显而易见。 一张招聘广告就吸引了数百名求职者前来应聘,手动查看简历往往是一项困难且耗时的工作。 通过利用人工智能和机器学习技术,人力资源团队获得了对应聘者进行大规模评价的能力,大大提高了招聘推荐的效率。
人工智能诱发偏见对人力资源的影响
人工智能给人才企业和部门带来巨大的好处,但它也带来了相当严重的挑战和潜在的陷阱。 不管是什么样的AI系统,最困难,但最重要的问题之一是确保没有偏见。
这对于人力资源人工智能系统尤为重要。 人工智能带来的偏见是因为公司错过了合格的求职者——,而且往往可能在每个人都不知道的情况下进行。
还记得几年前,亚马逊(Amazon  )因为性别歧视,不得不废除筛选简历的人工智能系统吗? (深度阅读:人工智能著名的“翻车”)这是训练数据力的完美例子——,但不幸是负面的。 当时,亚马逊的员工大多是男性。 因此,提供给人工智能系统的算法根据公司独特的数据进行了训练,最终将APP与男性话语联系起来。
在这期间,合格的女候选人完全被模特忽视了。 因此,当用于训练AI模型的数据存在偏见时,所引入的AI系统也存在偏见。 然后,我们将无限期地继续加强这种偏见。
人工智能系统无论是外包还是企业自建,都需要更深入地关注偏见问题
在亚马逊的案例中,用于筛选简历的人工智能系统是在公司内部构建的,使用该公司自己求职者的数据进行培训。 但是大多数企业没有为人力资源部门建立内部人工智能系统的资源因此,越来越多的人力资源团队将工作外包给供应商,如“工作日”和“谷歌云”。
比以往更重要的是,人力资源团队必须承认外包人工智能所带来的巨大责任。 不要只是盲目地接受和执行你的AI供应商的模式。 你和你的团队需要反复审查系统,以确保没有偏见。 你需要不断地问自己:
培训模型中使用的数据源(或数据源组合?
模型用于决策的具体因素是什么?结果令人满意还是有什么不准确的地方? 需要暂时关闭系统进行重新评估吗?
仔细审查培训数据是非常重要的,特别是在外包人工智能系统中。 但是,这并不是减轻来自偏见工作环境的偏见数据的唯一方法。
因此,你的人事小组也有责任评估公司内部的偏见和不公平问题。 例如,在公司里,男性是否比女性拥有更大的权力? 长期以来被认为可以接受的有问题的行为是什么? 数据来自不具有代表性的群体吗?
企业文化的多样性、公平性和包容性在集成到人工智能中是绝对相关的,因为它们推动了人工智能系统和结果的引入。 请记住,我不知道人工智能有偏见。 这取决于我们自己。
公平、无偏见地利用人工智能的三种最佳实践
最终,人事小组需要知道他们的人工智能系统能做什么,不能做什么。 现在,人力资源团队不需要是技术人员,也不需要了解驱动人工智能模型的算法。
但是,他们确实需要知道培训数据中反映了什么样的偏见,偏见是如何融入公司文化的,以及人工智能系统是如何延续这些偏见的。
以下是确保人力资源小组公平公正地利用AI技术的三个战略最佳做法。
定期考核人工智能系统。 定期检查收集的数据以培训模型和结果,无论系统是在公司内部构建还是外包给供应商。 数据集足够大且多样吗? 是否包含有关受保护群体的信息,如种族和性别? 如果不喜欢结果,请关闭系统并改变方向,不要犹豫。
文/上海蓝盟  IT外包专家
IT外包
>
400-635-8089
立即
咨询
电话咨询
服务热线
400-635-8089
微信咨询
微信咨询
微信咨询
公众号
公众号
公众号
返回顶部