生成式AI来了,我们还能相信自己的眼睛吗?

科技云报道
+ 关注
2021-12-29 16:44
305次阅读
 
有句老话叫做“眼见为实”,然而AI技术的迅猛发展正在改变这一切,我们可能很快就不再知道如何判断什么是真的,什么是假的。

先来考考大家的眼力。

你觉得下图中这位金发碧眼、面带笑容的女士是真实存在的吗?

生成式AI来了,我们还能相信自己的眼睛吗?

答案是No,这是由人工智能合成的。

再看一张图。你觉得下图中这位女士像是人工智能合成的吗?

生成式AI来了,我们还能相信自己的眼睛吗?

答案是Yes。

上述这两张图均来自“ThisPersonDoesNotExist.com”网站。

不止这两张图片,“ThisPersonDoesNotExist.com”网站中,每次刷新出来的人物,都是现实中根本不存在的。

如果不知道真相,你是否根本无法判断出真假?

这便是生成式AI的一种应用。

生成式AI来了,我们还能相信自己的眼睛吗?

日前,Gartner发布了2022年重要战略技术趋势。其中,生成式人工智能(Generative Artificial Intelligence)位列12项重要战略之首。

生成式AI来了,我们还能相信自己的眼睛吗?

同时Gartner预计,到2025年,生成式人工智能将占所有生成数据的10%,而目前这一比例还不到1%。

对于生成式AI,Gartner这样定义:通过各种机器学习(ML)方法从数据中学习工件的组件(要素),进而生成全新的、完全原创的、真实的工件(一个产品或物品或任务),这些工件与训练数据保持相似,而不是复制。

简单来说,生成式AI从数据中学习内容或对象,并运用数据生成全新、完全原创的新内容,可以服务于下一代的自动编程、药物开发、视觉艺术、社交、商业服务、工程设计与流程。

同时,它可以被用来检测欺诈、虚假信息和身份盗窃。

对此,市场调研机构Gartner高级研究总监高挺解释,生成式AI不仅仅可以判断、还可以创造,实际上AI当前最大的用途就是判断,意味着AI的用途将有结构性变化。

“以前我们是让AI不停的去做判断、去做分类。 但是在未来,很多时候是需要AI不再去进行判断,而是说‘来帮我生成一段代码’,这个代码所做的事情是从1到100,AI也能自动生成这个代码了。 ”

回到文章开头,AI到底是如何生成肉眼识别不出的人脸图片呢?

这就不得不谈到生成式AI的关键技术——生成式对抗网络(GANs, Generative Adversarial Networks ),这是近年来复杂分布上无监督学习最具前景的方法之一,其本质是一种深度学习模型。

2014年,研究人员首次使用计算机,利用生成对抗网络GANs,创造出了逼真的人脸。

在原理上,生成式对抗网络使用两个神经网络相互对立,一个生成器和一个判别器。

生成器或生成网络是一个神经网络,负责生成类似于源数据的新数据或内容。判别器或判别网络是负责区分源数据和生成数据之间的神经网络。

这两个神经网络都经过交替周期训练,生成器不断学习生成更逼真的数据,判别器则更善于区分假数据和真实数据。

可以把GANs想象成一个造假者,一个在猫捉老鼠游戏中的警察,造假者正在学习传递假币,而警察正在学习检测假币。渐渐地,双方在对抗中都不断完善。

生成式AI来了,我们还能相信自己的眼睛吗?

生成式AI的到来,推动了多个领域的数字化进程,支撑着下一代的自动编程、内容开发、视觉艺术、社交、商业服务、工程设计与流程等。

2019年,Facebook AI创建了一个能够从存量视频中提取可控角色的系统。

利用该系统,可以从日常视频中任意创建虚拟人物及各种姿势动作,可以将一个视频中的真人转换成一个 3D角色,并且可以将此角色及其相关动作转换到新背景上,生成的角色可以和不同的背景互动。

2020年5月,OpenAI发布GPT-3,引起业界轰动,这个模型包含1750亿个参数,能够自主生产文本、图像、视频,可以自己写对话和电影情节,几乎分辨不出哪个是真人书写,哪个是机器书写,甚至生成式音乐也取得了很快的进展。

追溯到更早时间,中国AI公司影谱科技在2018年底发布MAGC智能影像生成引擎,这也是中国区最早提出的生成式AI的技术框架,并重新定义智能影像生产技术。

影谱科技MAGC智能影像生成引擎可以在极短时间内生成一段个性化视频内容,亦可以对拍摄视频进行重构,如自动锚定关键帧,根据帧内容生成原图像中没有的、无违和感的内容,再智能化生成一段AI视觉内容。

目前,影谱科技MAGC智能影像生成引擎已率先应用在传媒娱乐领域,被知名电视台、电信运营商、短视频平台广泛采纳。

除此之外,MAGC还广泛应用于数字人的3D成像、影视特效制作及数字孪生、虚拟主播、虚拟课堂等数字产权场景。

《Forrester 2019-2020年Video AI技术预测》报告显示,智能影像生产技术解决了大规模视频内容制作和特效制作成本高的问题。

使用智能视频技术平台,可提高视频内容的生产效率,降低人工成本60%以上。

此外,包括迪士尼、NETFLIX、HBO、TRONC等娱乐传媒巨头均在尝试用人工智能代替标准内容制作的可能。

例如,迪士尼实现AI自动生成动画,只要通过文本描述某些活动,不需要注释数据和进行大量训练就能创建动画,或一个粗略的故事版和电影剧本视频。

而Netflix所采用的算法,则可以在这部内容中抽取任意符合观影习惯和需求的画面,然后把这些图片制作成内容的封面。

事实上,降低了内容搜寻难度,提升视频制作效率,生成式AI已经初步证明了自身技术与产品的商业价值。

2020年9月上市的Unity是3D生成型AI的推动者。

全球有超过一半的移动、PC和主机游戏采用了其生成引擎来制作,其3D-AI技术也广泛应用于工业设计的3D模型搭建,VR/AR设备内容创作以及影视特效制作。

一家名为Insilico Medicine(英科智能)的AI药物研发公司也是生成式AI的应用者。

该公司是一家抗衰老及癌症治疗药物研发商。2015年,Insilico Medicine在全球范围内率先利用生成对抗网络(GANs)和强化学习(RL)技术,生成具有特定性质的药物分子结构。

从应用场景可以看到,生成式AI技术正在快速迭代进化,从“生产”出发,扩展至全产业链。

生成式AI来了,我们还能相信自己的眼睛吗?

既然生成式AI可以生成逼真的视频、文本、字幕等,这也意味着,该技术也会被滥用于诈骗、欺诈、造谣、伪造身份等违法场景。

Gartner预测:“可以创建和生成超逼真的内容的AI能力,将对人们相信自己的眼睛所看到的产生变革性的影响。”

同时,Gartner从AI市场的5个角度进行了预测,并就企业如何应对和适应这些未来的挑战提出了建议:

到2025年,预先训练的AI模型将主要集中在1%的供应商中,这将使AI的负责任地使用成为社会关注的问题

在2023年,成功的账户接管攻击将有20%使用Deepfake,它将会成为社会工程学攻击的一部分

到2024年,将有60%的AI提供商会将缓解危害/滥用行为作为其软件的一部分

到2025年,将有10%的政府通过使用合成AI来避免隐私和安全问题

到2025年,工作场所75%的对话将被记录和分析,以用于增加组织价值和评估风险

这些分析中的每一个都足以使AI观察者引起足够的关注,如果将这些预测结合起来时,就可以勾勒出未来的严峻形势,其中涉及道德问题,潜在的AI滥用以及工作场所隐私的丧失。

如果Gartner的分析师的预测准确无误,那么关于AI带来的隐私和真相的影响的担忧必将成为未来几年的主要话题,成功的企业将需要准备迅速适应这些担忧。

Gartner建议企业建立负责任的AI使用标准,并优先考虑“可以证明AI能够清晰发展和解决相关社会问题”的供应商。

围绕Deepfake和生成式AI的安全问题,Gartner建议组织安排有关Deepfake的培训,并指出:“我们现在正在进入零信任的世界。

除非使用加密的数字签名证明它是经过认证的,否则任何事物都不能被信任。”

生成式AI来了,我们还能相信自己的眼睛吗?

过去言“有真相”,但是现在视频都不一定代表着真相。生成式AI技术一方面在多种场景得到了应用,但另一方面也有着被滥用的风险。

未来,在深度伪造与鉴别伪造之间,一场技术博弈即将展开。

本文来自微信公众号“科技云报道”(ID:ITCloud-BD),作者:科技云报道,36氪经授权发布。

[免责声明]

原文标题: 生成式AI来了,我们还能相信自己的眼睛吗?

本文由作者原创发布于36氪企服点评;未经许可,禁止转载。

0
消息通知
咨询入驻
商务合作