混肴视听的AI垃圾

Ben griffiths 7excpfwydui unsplash large.jpg

一对长夫妇在社媒上看到缆车宣传,从吉隆坡驱车300公里前往霹雳州瓜亚乌鲁村,却发现景点根本不存在。那影片我看了,要十分留心才会注意到乱码文字,还有扭曲的肢体,这些都是AI影片常见的缺陷。夫妇惊问:“为什么要骗人?“

受骗无关年长与否,而在于接收资讯时的心态,我们太习惯”有图有真相“,有视频更加真实,心里一般上不会设防。某日我看到一段影片,一个女人和两只老虎并行街上,有那么一秒我信以为真,之后常识才启动。我还看过一只巨犬的照片,立起来比主人还要高,十分夸张。

为什么要骗人?连剧本也可假手AI,再用剧本生成影片,毫不费力;只要骗人成本够低,骗来的流量又足以带来些许收益,那就值得无聊网民去做。那则景点影片还有一特色,即是假记者的角色贯穿几个场景,这倒要花点钱,若用Runway AI大约15美元,我知道是因为我正在用它制作广告。


AI太方便,如今网上充斥AI图文和视频,好些专营AI内容的社媒账号甚至累积百万粉丝。为什么明知是假还有那么多人追随呢?因为假的东西未必没用,它偶尔还是蛮有娱乐性,比如说狗狗空翻跳水、马哈迪讲日语等。

娱乐本无害,问题是看留言会发现竟有那么多人信以为真!过去文字的假新闻已足以造成严重社会问题了,比如造就一大票人反疫苗信徒,如今AI还能让一个假记者甚至假专家“现身说法”,不加管制天下更乱。

社媒平台不是没意识到这个问题,目前脸书、Youtube会要求上载者自己申报有无AI内容,这就好像色情网站要求访客自报年龄,有几个人那么诚实?平台若要自动侦测AI内容,也只能依赖AI,但处理海量内容得耗费巨大的电脑计算资源,值吗?而且AI捉AI准确度也堪疑。

AI科技一日千里,那则景点影片在一年前是不易做到的,而再过一年那些瑕疵也会消失,更难分真伪。这现象的严重后果并不是有人受骗,而是叫大家连真的东西也不相信了,凡和自己的信念或利益相悖的内容均可先斥为造假。

我先前提到的那只巨犬,是真的,叫“大丹犬”,后腿站立时高几近一米八。本来可以轻易学到的新知识,如今我还要花功夫求证,网路传知的功能因而遭挫看内容总要步步为营,十分累人。

喜欢吗?请帮忙分享!

周若鹏

更多好内容,请关注我的社媒:

订阅电子报: