快捷搜索:  as

当人工智能开始造假我们要怎么办

当下,人工智能的成长速率已经越过了大年夜部分人的想象,以致让我们感到到害怕,若何防止人工智能这把双刃剑不被差错的应用,是当下很多AI行业人必须思虑和探究的工作。

前段光阴呈现的AI换脸视频,将原演员的黄蓉的脸换成了杨幂的脸,而且在视频上基础看不露马脚,初次看到的人都以为是杨幂饰演的新电视。听说,这一视频换脸技巧就曾让许多名人蒙受了虚假色情片的困扰,同时,因为人工智能换脸技巧的惟妙惟肖,让越来越多的人担心,有人会使用人工智能换脸技巧从事违法犯罪活动,从而为无辜的人造成不需要的困扰。

人工智能换脸技巧的新闻才刚以前不久,近来国外Facebook的工程师们又创造出来了一个能惟妙惟肖的仿照比尔盖茨声音的AI。而根据下图的声波比较,我们就能发明,这款声音的人工智能可以孕育发生高保真度的音频输出。

鄙人列的剪辑中,你可以听到比尔盖茨彷佛在说一些无伤大年夜雅的话,“泅水时抽筋并不是小危险”、“摘下那朵没有叶子的玫瑰花”等,这声音听起来与比尔盖茨的声音毫无区别,据设计和创建该人工智能系统的Facebook工程师先容,AI所天生的每个语音片段都是由这个机械进修系统天生的,而且它不止能克隆比尔盖茨的声音,还能仿照其他人的声音,只是比尔盖茨是此中最闻名的人。

弗成否认,这些音频样本令人印象深刻,这几年,AI音频仿照的技巧不停在赓续提升,很多人担心,有人会使用这一技巧实施电话欺骗或从事其他不法活动。

同时,人工智能天生制造的假新闻,可能会造成异常坏的影响,由于在社交媒体上,假新闻的传播速率比本相还要快,而且跟着假新闻AI天生器变得越来越先辈,区分真假新闻变得比以往任何时刻都要艰苦,人工智能可以根据简单的提示快速天生令人信服的文本段落,并炮制出让人信托的虚假故事,从而来影响"民众,"舆论。着实很多人的担心并不多余,现如今虚假新闻影响舆论的环境时有呈现,我们该若何去应对,才能识别出哪些是人工智能制造的假事故哪些是真实的天下呢?

想要识别哪些是真实的,哪些是人工智能仿照的信息(图片、语音、视频),我们必须从泉源对人工智能的道理进行懂得。例如在华盛顿大年夜学的罗恩·泽勒斯及其同事合营开拓了一款既能够编写,又能够识别假新闻的人工智能格罗弗,他们用新闻网站上数以百万计(120GB)的文章来练习格罗弗学会了写文章,而且还能调剂其风格去仿照某一特定风格的网站文章。在撰写假新闻的时刻,格罗弗只必要几秒钟,就能天生一篇有编造的统计数据和假引文的文章,而且这些引文平日来自真实存在的专家或者政客。

而后,钻研职员对包括格罗弗在内的4小我工智能进行测试,以测试其差别人类记者写的5000篇真实文章和格罗弗编造的5000篇假新闻文章,发明体现最好的人工智能便是格罗弗本身,由于它自己便是最好的判别器,准确率可达92%,不过,该钻研团队并没有测试格罗弗对其他人工智能天生的假新闻的识别能力。

从这个实验,我们就会发明,对人工智能导致的造假最好的防御的便是从人工智能本身启程,对格罗弗最好的防御便是格罗弗本身。就犹如格斗一样平常,要抵御对手的进击,我们最必要懂得的是对手会做什么,针对人工智能技巧未来可能导致的造假事故,我们也该如斯。

您可能还会对下面的文章感兴趣: