CFan科学院:AI自画像揭开智能创意冰山一角

CFan 电脑爱好者 2020-01-08 09:09应用 标签:自画像 创意 科学院

国外一项研究认为,在未来的几十年间,美国47%的现有工作岗位将面临被AI(人工智能)和自动化取代的风险。虽然不少专家质疑了这一算法,但是AI的威胁确实越来越近了。我们现在聊以自慰的就是,手动的或者重复性的工作可能会被AI抢走,但是创意性的工作则相对安全。事实真的如此吗?其实AI早就对人类创意工作虎视耽耽,并且有了长足的进步。

AI自画像技惊四座

纽约时报的编辑找到IBM研究院,希望他们能够通过AI的方式画一幅画,以便作为一期AI专辑的封面。这个请求看起来简单,其实暗藏了很大的挑战。已有的AI技术,比如汽车智能驾驶、翻译、玩游戏,甚至制作电影的预告片等等,这些任务不需要AI创建新材料,只需分析手头已有的信息并根据训练做出选择即可。而现在要让AI跳出已有资料,以“自我思考”的方式创造出全新的艺术作品,难度可想而知。最终,IBM的AI还是交出了令人惊讶的作业(图1)。

201823jsjd01

图1 AI自画像——AI与人类创造力手牵手(图源:IBM Research)

像人类一样提炼作品主题

上述AI作品的产生,它的算法可以分为三大部分,有点类似于艺术家的创作过程,下面我们就来一一解说。

首先是确定作品的核心概念,也就是作品的主题。主题作为艺术作品的核心思想,在以往的AI创作中(比如写诗),基本上都是由人事先指定好关键词,AI是被动的。而此次的AI创作,研究员们决定由AI自行确定。

研究员们首先汇集了纽约时报上大约3000篇左右的AI相关文章,然后通过自然语言处理软件分析这些文章,找出和AI高度关联的语义概念,比如“机器人”、“自动驾驶”和“计算”等,共选择了30项。

因为这些词语本身并不包含“AI”字样,所以软件通过简单的关键词搜索是不可能将它们提取出来的,软件只有像人一样智能地“理解”了词语的意义,才能精确完成筛选任务,其中自然语言处理技术起着重要作用(图2)。

201823jsjd02

图2 自然语言理解的实现模型之一(想要理解语言,电脑必须要理解这个世界)

文字概念需要图形化,AI通过上述筛选出来的30项概念,训练一个用于视觉识别的神经网络(图3),以便从纽约时报纷繁复杂的文章图片中,挑选出含有AI意义的所有图片,并按与AI的密切程度对图片打分。在评分前十的图像里,项目参与人员最终选定一张人和机器人握手的图像(还是不能完全排除人类干预,需要与人类携手合作)。

201823jsjd03

图3 视觉识别神经网络模型之一

从学习模仿开始的原创图像

主题概念确定之后,AI接下来正式进入创作过程。人类画家,开始学画时大都经历过一个学习模仿的过程,AI画画也是如此,只是它的方法更为独特些。研究员们首先收集到1000多个机器人及人的手的图片,作为AI的学习训练数据集(图4)。

201823jsjd04

图4 机器人和人的手图片示例

AI的学习模型大致分两类,一类是判别模型(Discriminative Model),一类是生成模型(Generative Model)。假设给定一张图,要求判断图里面是什么动物,猫还是狗,这就是判别模型。假设给定的是多个猫的图集,然后生成一张不在此图集中的新的猫图,那么这就是生成模型。

本文所述的AI采用的则是深度学习模型生成式对抗网络(GAN, Generative Adversarial Networks ),它同时包括了判别模型(D)和生成模型(G)。G不断生成新的机器人和人的手的图片,尽可能贴近原有数据集中的图,以欺骗D;D不断识别G所生成的图片是不是真实的,将假的图排除。这两个学习模块不断博弈的过程,最终的结果就是产生一个足以乱真的牵手的图片,并且是与原来数据集中的图不同的新作品(图5)。

201823jsjd05

图5 生成式对抗网络的工作原理模型

锦上添花的作品包装

既然是为特定报刊定制的作品,当然要尽可能符合原有报刊的一贯风格。这对AI来说已经不是什么难事,将纽约时报以往的封面图片汇集成数据集,训练出风格转换神经网络,对上面新创作的人与机器牵手的图片进行自动风格转换,生成多幅作品,从中挑选出最满意的就可以了,效果便是本文开篇的那样图了。

更多的拓展应用

IBM的AI自画像技术,其独到之处就是可以由AI自动确定主题概念,再以此概念生成全新的艺术作品,并且还可以根据要求定制不同的艺术风格。这可以应用到很多领域。比如作家可以通过它设计新书的封面,影视可以通过它设计海报,音乐家通过它设置专辑封面等等。