多年来,艺术家和科学家一直在研究训练神经网络生成图像看起来真实。但大多数人的样子奇怪的是扭曲的,奇形怪状的漫画的一台电脑认为世界的样子。
不再。上周末,谷歌实习生和两位研究者从谷歌DeepMind部门发布了一篇论文,目前列入2019年的一次会议上,AI-generated图像打击一切从水里拉出来。基于小缩略图,它是几乎不可能知道他们不是真实的图片:有一个chestnut-colored狗挂着他的舌头,一个美丽的海洋vista,黑脉金斑蝶,一个美味的汉堡完全融化奶酪和面包看起来就像是刷黄油。图像的纹理,从狗的皮毛汉堡的果汁,非常现实,仔细研究揭示只有最小的告诉,不是一个真正的一个形象。
研究在研究社区,波澜,一些图像质量表示震惊。研究科学家Oriol Vinyals DeepMind,想知道这些照片是“最好的氮化镓样品”。“我想生活在一个# BIGGAN生成的世界!”写了脑科学博士生Meltem Atay,专注于机器学习。指出一个图像是“难以置信的详细的,”和另一个问”等。这些生成的图片?”
这样做的算法?它叫做BigGAN,最后三个字母代表生殖敌对的网络。这种神经网络由两个模型组成:一个随机数,不免让人联想到随机的,比较这些生成的图像真实图像和告诉发生器是多么遥远。甘斯是常见的在机器学习的研究中,和BigGAN并不不同于其他算法。但是有一个重大的区别:BigGAN抛出大量的计算能力,由谷歌的问题。
这个策略产生比结果质疑机器学习消耗多少能量。
“这些模型需要的不是最主要的算法改进,但计算的,”安德鲁·布洛克说博士生在爱丁堡中心机器人和谷歌实习生撰写论文。“当你增加模型能力,增加图像的数量你显示每一步,得到这两方面的共同作用。”
换句话说,通过添加更多的节点来提高神经网络的复杂性和展示图像模型更比大多数研究者,布鲁克能够创建一个系统,更准确地理解和纹理模型,然后结合这些个人纹理生成更大的形式,像一只小狗。
布鲁克和谷歌研究人员与他共事,杰夫•多纳休和卡伦Simonyan还雇佣布鲁克所称的“截断技巧”创造更逼真的图像。这降低了随机数发生器使用创建它的图片,基本上告诉它专注于让擅长一种类似影像的可卡犬盯着你比生成一些其他类型的可卡猎犬的图像。
怎么可能BigGAN最终被使用?这种研究可以帮助像素图像清晰,NVIDIA已经显示。但是布洛克说,生成这些图片比实际更多的是一种研究目标,用更微妙的影响。
“没有实际应用,除非你想产生虚假新闻的真正现实的小狗,”布鲁克说。”,但这是一个重要的事情需要考虑如果你关心AI和想移动[对]学习东西直接从数据而无需人工干预。我们希望能够学习从数据结构。”
人工智能研究员和创造者的博客AI古怪詹妮尔Shane看到另一个潜在的使用:艺术。“你可以说明这样一个故事,或者一套美丽的电影,”她写。“这一切都取决于你收集的数据集,和你选择的输出。我认为,这就是BigGAN算法将改变人类不是取代人类的艺术家,但成为一个强大的新的协作工具。”
这些实验也有环境的影响。布洛克512谷歌的张量处理单元(或TPU)生成他512像素的图像,和他说,他的实验通常运行24至48小时。如果每个TPU使用约200瓦每小时计算布鲁克的,那么一个512像素的实验可以使用2450至4915千瓦小时。这就是等价的电力普通美国家庭使用不到六个月。“好消息是,AI现在可以给你一个更加可信的形象一盘意大利面,“艺术家和研究者的数据周索普在推特上写道。他开玩笑地估计:“坏消息是,它使用大约下午足够的能量克利夫兰。”
信息和通信技术有望创造了3.5%的全球温室气体排放到2020年——这是超过航空运输产业和将在2040年达到14%,根据的《卫报》的本月发布的一份研究报告。
“似乎很清楚,我们在一个时代,我们需要减少能源消耗和排放,”索普说德赢提款。“但有一个“科技进步”的言论,让我们以某种方式找到一个例外,这种工作。”
虽然BigGAN似乎一步甘斯,索普的分析强调计算功能的同时似乎infinite-has真正的环境成本,和一个我们可能需要处理宜早不宜迟。