广告
广告

怀疑论者的思考指南

从营销炒作到模糊道德。

怀疑论者的思考指南
[源图像:studiom1/istock]

本周,研究所现在每年的研讨会,专家通过AI的角度辩论了社会上一些最关键的问题。这项活动汇集了法律和政治教授,律师,倡导者和作家,讨论我们作为一个社区如何确保该技术不会破坏正义和公平的稳定。

广告
广告

对于观众来说,讨论对AI围绕的虚假主张和道德困境提供了令人信服的介绍。对于任何开始与机器学习合作的设计师到只是对他们的数据在社会中使用的方式有疑问的用户,这对任何人来说都是有价值的入门。

这里有四个有关我们所有人如何从开发人员到设计师到用户的见解 - 可以通过炒作更清楚地看到。他们对AI的真实能力,其面向效率的价值体系以及技术公司接近道德的方式表示怀疑。

[来源图像:Evgeny Gromov,Studiom1/Istock]

AI不是中立的

弗吉尼亚尤巴克斯,纽约州立大学奥尔巴尼(SUNY Albany)政治学副教授,研究算法如何影响福利在美国分发的方式,以使生活在贫困线以下的人们。在她的书中自动化不平等,Eubanks探讨了如何引入算法来决定谁值得获得福利,谁没有获得福利。

广告
广告

尽管它们提供了中立性和效率的单板,但这些工具却建立在她所谓的“美国深层社会节目”上,这是对穷人的歧视,种族歧视,性别歧视。

“尤其是在我在公共服务方面的工作,这些工具被集成在电线下。我们认为它们是行政变革,而不是相应的政治决定。”她说。“我们必须拒绝他们只是在创造效率。。。它投入了这个想法,即每个人都不够。但是我们生活在一个丰富的世界中,每个人都足够了。”

换句话说,AI在表面上听起来可能是“高效的” - 所有机器都应该是公正的 - 但实际上,这是什么。很可能会更快地做出与系统不公正的决策。提防任何AI是中性的说法。

广告
[来源图像:Evgeny Gromov,Studiom1/Istock]

“ AI”通常依靠很多低薪的人工

如果有人声称他们的产品,服务或应用程序正在使用AI,则不一定相信。AI通常被用作当今的营销工具,并掩盖了真正从事这项工作的人类。

作家和纪录片人说:“如此多的自动化并不是真正的自动化。”阿斯特拉·泰勒(Astra Taylor)。她描述了她等待在咖啡厅拿起午餐的时刻,另一个顾客走进去,敬畏,大声想知道该应用程序是如何知道他的订单提前20分钟准备就绪的。柜台后面的女人只是看着他说:“我只是给你发了一条消息。”

泰勒说:“他是如此确信这是一个机器人。”“他看不到人的劳动在他眼前。”

广告

她称这个过程Fauxtomation:“ Fauxtomation使无形的人工劳动使计算机看起来比它们更聪明。”

[来源图像:Evgeny Gromov,Studiom1/Istock]

不要只是谈论道德 - 思考人权

“道德”已成为思考算法和人工智能将如何影响社会的术语。但对于菲利普·阿尔斯顿,纽约大学的一名法学教授目前担任联合国人权委员会关于极端贫困和人权的特别报告员,这个词太模糊了。

“在AI地区,我们习惯于谈论不平等,自动化的影响,零工经济的影响,”阿尔斯顿说。“但是我不认为人权维度经常出现。问题之一是双方都忽略了。人工智能人民不专注于人权。有一种倾向于谈论不确定和不负责任的道德规范。在人权方面,它超出了我们的范围。”

广告

2017年报告,阿尔斯顿(Alston)记录了他在美国学习极端贫困的旅行。他质疑政策制定者是否对机器学习技术的使用如何影响该国最脆弱的人以及侵犯人权的人权。“对于对AI感兴趣的受众来说,认识到当我们采用社会福利系统时,这一点非常重要。。。采取最大程度的方法来提高效率,我们正在做的是使不公正现象加倍。”他说。

尽管言论声称AI可以解决许多人类疾病,但我们必须小心,它不会首先使他们更加危害或加剧。

[来源图像:Evgeny Gromov,Studiom1/Istock]

我们也需要使政府和公司负责

虽然有很多关于如何使AI技术负责的讨论,但Sherrilyn IfillNAACP法律和教育辩护基金的总裁兼董事会议提醒我们,政府和公司也需要承担责任。

广告

她说:“政府依靠公司发展技术。”“一旦释放出来,就很难放回盒子里。”

如果说面部识别算法的普遍性日益增加,警察局将其用于不公平的有色人种。她在部署技术方面毫无意义,并且表现得好像是“只是公司的另一个消费者”,她认为政府完全停止了像政府一样的行动。

伊菲尔说:“ [政府]应该持有公共信任。”“我们看到政府跌倒了。”

广告
[来源图像:Evgeny Gromov,Studiom1/Istock]

如果您正在使用AI设计,请问自己这些问题

Eubanks说,她经常被要求制定“建立更好的技术的五点计划”。

While she doesn’t think that tech is the answer to the problem of policy (instead, “we need to move toward political systems that act like universal floors not moral thermometers”), there are a few questions she always asks designers to think about as they’re building technology.

  1. 该工具是否会增加其目标人的自决和尊严?
  2. 如果它是针对穷人以外的其他人,那是可以接受的吗?

尽管这些问题是针对Eubanks对福利分配算法的关注,但第一个问题尤其是每个设计师都应该询问其工作的问题。当您尝试帮助使用技术的人们时,您需要首先确保您的工具将确认用户的自决和尊严。

广告
广告
广告

关于作者

Katharine Schwab是Fast Company技术部分的副编辑。德赢提款通过kschwab@fastcompany.com给她发送电子邮件,然后在Twitter @kschwabable上关注她

更多的