广告
广告

忘记了从事工作的机器人,这些研究人员将AI与开火进行了比较。这是我们需要的方式

乔治敦(Georgetown)的研究人员现在为政府服务,如果我们太快而没有足够的远见,AI将以无法控制的方式燃烧。

忘记了从事工作的机器人,这些研究人员将AI与开火进行了比较。这是我们需要的方式
[相片:Tobias Rademacher;Pixabay这是给予的

本·布坎南(Ben Buchanan)和安德鲁·伊姆布里(Andrew Imbrie)都是乔治敦安全与新兴技术中心的研究人员,但目前正在为美国政府服务。布坎南(Buchanan)担任拜登·哈里斯(Biden-Harris)政府科学技术政策办公室的助理主任,同时,伊姆布里(Imbrie)为国务院服务。

广告
广告

在下面,本和安德鲁分享了新书中的五个关键见解,新的火灾:AI时代的战争,和平与民主在下一个大创意应用程序中收听音频版本 - 阅读MIT Press编辑总监Gita Manaktala。

1. AI类似于火。

将AI类似于电力是普遍的:无处不在,有益且安全。这太玫瑰色了。今天,我们遇到了AI,因为我们遥远的祖先曾经遇到过火。如果我们很好地管理这项技术,它将成为全球善良的巨大力量,为变革性发明提供了道路。如果我们太快而没有足够的远见,AI将以无法控制的方式燃烧。如果我们利用它破坏,它将为最强大的政府提供更强大的武器,因为它们参与了可燃的地缘政治竞争。与电的频繁类比否认了这种广泛的可能结果,只会使我们做好不足的准备。

AI类似于以另一种方式开火:它的力量来自加速力量。就像不受组织的野火相比,每秒燃烧的燃烧量要比前一秒钟更多,因此AI的基础组件的增长也会加速产生迅速增加的能力。代表人类知识能力当今AI系统的大量存储的越来越大的数据集。越来越有能力和高效的算法将机器推向新的高度,到达了不久前似乎几十年甚至几个世纪以来的里程碑。而且,更强大的计算机芯片(有史以来最杰出,最复杂的发明)大量合作,以完成所有使这些新功能成为可能的数学。

广告

2. AI可以迎来人类蓬勃发展的新时代。

最近的突破毫无疑问,AI可以使我们的生活变得更好。该功能远远超出了玩游戏。AI不仅在Go,Starcraft和Poker等广泛复杂的游戏中,而且在战斗机飞行员的狗狗中,管理核反应,甚至是科学本身中一些最基本的任务,都比人类更好。考虑一些称为蛋白质折叠问题的东西。蛋白质是生命中最基本的基础之一。每种蛋白质都是由一系列氨基酸组成的,当蛋白质“折叠”时,将其排列成复杂的3D形状。几十年来,从其序列中预测蛋白质的形状是科学中最高的秩序之一 - 博士生可能会致力多年的研究来确定单个蛋白质的结构。但是,由于对蛋白质形状的知识对于医学非常有价值(包括药物发现),因此这种艰苦的手动努力通常值得。

但是,一家名为DeepMind的公司的AI科学家认为必须有更好的方法。2016年,DeepMind开始研究Alphafold,这是一种AI系统,可以预测蛋白质的序列。到2018年,Alphafold是世界上世界上最好的自动化系统。到2020年,它能够完全解决蛋白质折叠问题。到2022年底,DeepMind将确定并使公开的结构超过1.3亿蛋白,比所有人类在Alphafold发明之前在手动工作中共同确定的数百次。正如一位主要的生物学家所说:“这将改变医学。它将改变研究。它将改变生物工程。它将改变一切。”

3. AI会造成巨大伤害。

尽管它具有非凡的力量,但AI远非完美。偏见隐藏在AI系统中,尤其是当他们从人类决策的数据集中学习时。现实世界的后果可能很严重。亚马逊学会了系统地歧视女性后,不得不废除简历筛选工具。另一种算法经常拒绝有色人种的医疗保健。同样,面部识别技术在不同的群体中的表现差得多。在美国,仅根据不正确的面部识别比赛,警察逮捕了无辜的黑人美国人。

广告

AI也无法解释其如何得出结论。就像一个懒惰的中学生一样,即使机器得到正确的答案,也很少显示其工作,这使得人类更难相信其方法。更糟糕的是,这种不透明度可以隐藏AI系统优化目标并不是人类创造者所想的目标的实例。例如,一种旨在检测胸部X射线肺炎的系统发现,一家医院的X射线比其他医院更有可能出现肺炎,因为该医院通常患有病人。该机器学会了寻找X射线原产地,而不是X射线本身。另一个系统旨在鉴定癌性皮肤病变。它训练了来自皮肤科医生的一组图像,他们经常使用统治者来测量他们认为可能是癌症的病变。AI系统认识到,尺子的存在与癌症的存在相关,因此它开始检查是否存在标尺,而不是关注病变的特征。

在这两种情况下,警告人类操作员都注意到了系统部署之前的故障,但是不可能知道有多少案件未被发现,并且将来有多少案件将被发现。

4. AI处于地缘政治竞争的支点。

军队和情报机构正在迎来一个致命的自动武器时代,包括不仅在战场上游荡的无人机,还可以选择自己的目标。包括美国在内的高级军事思想家(包括在美国)构想了比以往任何时候都更快的机器驱动战争。在这种未来的战斗中,以人类的速度运作是一种肯定的失败方式。一些战略家甚至提议赋予AI发射核武器的能力 - 目前为总统保留的决定,并在平衡中保持文明的命运。

广告

但是AI将不仅仅是战争的变化。历史上许多最强大的网络攻击,包括一些损害数万美元的损失,这很大程度上是自动化的,而新的AI技术可以进一步发展这一趋势。俄罗斯黑客建立了恶意代码,该代码自主是针对电力系统的,而五角大楼已经进行了巨大的测试,在该测试中,AI Systems攻击并以快速的速度互相捍卫。

此外,AI擅长编写虚假信息。2021年的一项测试表明,AI系统可以写出针对性的宣传信息,这些信息捕食美国的种族,宗教和政治分歧,以成功改变其目标的意见。也许更糟糕的是,理论家担心深层的虚假视频有望破坏真理本身的概念。

5.民主国家可以在AI时代获胜。

在自动战,猖ramp的偏见和广泛的虚假宣传运动的背景下,出现了令人担忧的共同主张:AI将以牺牲民主国家为代价受益。在独裁者似乎在世界各地赋予能力的时候,很容易假设这项新技术会偏爱暴政。专制人士不受道德规范的困扰,将在国内对自动监视系统的反对意见,并在国外竞争AI-Sable Sable Warfare。

广告

但这太致命了。AI的年龄还很年轻,其结果远非预定。民主国家有机会制定共同的规范,以在国内外使用该技术的使用,从而释放其非凡潜力,同时仍保留偏见和保护公民自由。他们有能力将其整合到军事和情报机构中,以维护和提高民主价值观的方式,同时将独裁者置于防御状态。最重要的是,民主国家提供了一个创新的生态系统,可以确定该技术下一步的发展。人工智能将塑造肠肠地,但股票raft也会形成AI。如果AI是新的大火,那么最重要的就是我们如何倾向。


这个文章最初出现在下一个大创意俱乐部杂志并经许可转载。


广告
广告