广告
广告

如何在公司使用的技术中发现人类偏见

Bizagi的产品营销副总裁指出了被忽视的内容以及每个人如何在扎根偏见中发挥作用。

如何在公司使用的技术中发现人类偏见
[来源图像:Kolae/Getty图像;Malte Mueller/Getty Images]

在整个大流行中,技术决策者迅速采用了新的解决方案来简化远程和混合业务流程。但是,这种入职过程阐明了一个长期存在的问题:人类引入技术产品引入的固有偏见。

广告
广告

尽管许多科技解决方案由AI提供支持,但技术行业拥有历史上缺乏负责任的审查过程要考虑数据中的潜在偏见这些产品的算法建立在基础上。结果通常是在依靠AI-Sech Tech运营其业务的公司中缩放的排除实践。

科技巨头喜欢谷歌苹果致力于进行全面的变化,为包容性和公平性在行业流程中标准的未来提供了希望 -特别是在招聘中。但是,真正的变化还需要对人类为公司使用的技术解决方案带来的过去和现在的偏见进行检查。领导者必须开始提高人们对改变变革的技术固有偏见的认识。

普遍且忽视的问题

科技行业在透明度,问责制和意识上挣扎,阻碍了产品开始之前改革产品偏见的努力。此外,技术的历史性缺乏多样性可以在人们创造的产品中表现出来。

广告
广告

考虑亚马逊,该亚马逊在2018年因使用而受到抨击AI招聘工具介绍了对妇女的偏见。该公司的机器学习团队构建了计算机程序,该程序从工作申请中滤除了顶级人才,并使用AI为申请人提供了一(穷)到五(伟大)恒星的范围。尽管这个想法在理论上起作用,但该系统并未包含在实践中为公司软件开发人员开放的求职者。

为什么?因为该工具的AI经过了培训,可以根据过去的申请人的10年历史简历数据(主要是男性)来分析候选人。结果,该公司的系统偏爱男性申请人,并降级了女性候选人的简历。而且由于该过程是自动化的,因此它扩展到了整个组织中创建一个排除招聘系统。这只是数据弱点如何扩大偏差的一个例子。

评估新技术偏见的3种方法

我们只是在扎根技术偏见的开始阶段,因此意识是关键。但是,尽管很容易归咎于技术的偏见,但偏见最终来自人类提供的差数据。当涉及到人类位置的偏见时,您可能会无法控制某些因素,但是您可以采取一些步骤来识别组织使用的技术产品的偏见,并使供应商对反偏见的技术产品负责。

广告

优先考虑公平和反偏见的决策

为了防止偏见渗入技术决策,应对每位员工进行公平和反偏见的做法进行教育,尤其是如果您的公司为其任何产品编写算法。制定此培训标准,以确保它是组织运营结构的一部分。另外,如果利用自动化流程,请应用反偏置数据检查。您不希望自动化像亚马逊的AI招聘工具那样扩展潜在的偏见。

此外,考虑与人力资源专业人员,数据科学家和DEI专家等一系列不同的领导者建立技术采购委员会,以评估所有技术购买的潜在偏见。并确保根据道德考虑以及业务考虑评估购买决策。最终,有偏见的技术产品会产生排他性的副作用,从而对您的文化和运营产生负面影响。

广告

推销供应商的透明度

将数据的透明评估作为您合作的合作伙伴公司和供应商的优先事项。寻找具有正式和经过验证的过程的组织,这些组织评估数据的偏见并定期发布这些发现。亚马逊,苹果和微软等上市公司必须发布年度环境,社会和治理(ESG)报告,以记录其他们这三个领域的影响,但不需要私营公司发布ESG。

如果没有广泛的透明性数据,您将无法获得技术供应商的基线信息来做出道德决策。因此,推动证实他们的数据已被分析是否有偏见。此外,对公司(公共或私人)的声音担忧,这些公司(公共或私人)不会在其业务流程中分享其反偏见的信息,并且如果您不相信,也不要害怕走开。

广告

优先考虑包容性功能

在决定技术解决方案时,请考虑文化,语言和残疾的差异,因为这些领域也存在人类偏见。例如,飞涨正在通过在他们的电话中添加封闭的字幕来解决语言和残疾,从而允许非英语的说话者和那些难以听到的人感到包括在内。

在采用新技术时,请考虑用户体验是否适合多代工人,而不仅仅是年轻的员工。老年主义在科技产品中猖ramp,由您为您组织的所有成员提供培训和指导。

广告

迈出第一步

当您从事自己的DEI努力时,必须在组织的内部数据集中和从第三方供应商那里获得的人类偏见扎根人的偏见。通过推动更高的透明度和问责制,采用更详细的购买决策过程并将包容性产品作为优先事项,您可以提高认识并有助于领导消除技术人类偏见的指控。

Rachel Brennan是Bizagi产品营销副总裁。

广告
广告
广告