有视频不代表是真相了

有视频不代表是真相了

那家推出震惊世界的公司OpenAI,又再让大家震惊了,这回是Sora,一个可依文字输入创作的人工智能系统。我无法具体解释这科技多么繁复,电脑要明白指令之余,还要明白物件之间的空间关系,掌握光影,那还不是最难的,还有物理关系,比如人踢球,球该飞什么方向?多高多远?碰到墙壁是反弹还是把它撞倒?

这技术不新,一年前已经发布过了,当时AI制作的视频惨不忍睹,但短短一年后作品已几可乱真。进步之快,我也无法具体表达我的赞叹,但同时我也在思考它对社会的冲击。首先要担心的,是AI的确会取代影像工作者的部分工作,首当其冲的行业是视频素材库。

尽管目前AI生成的视频不完美,但用在过场等非关键画面是可行的。以前这类场景可从视频素材库取用,这么做优点是方便快捷,缺点是素材并不独特,他人的作品中也会出现相同片段,AI就解决了这问题,如果AI可根据指令生成独有片段,谁还要用素材库?如此提供素材的影像工作者也会失去权利金的收入。如果用AI就能生成视频片段,又何须花钱聘用摄像团队?

这个冲击不会马上感受到,视频AI还不完善,比较恰当的用途是辅助影像工作者,减少工序,提高利润。但以发展速度来看,迟早会发展到完全无须摄像师介入,普通用户就能制作出所要的视频。到那个时候连影视业也会“沦陷”,试想如果输入就能产生影像,还需要演员、灯光、场务、茶水、音乐、音效、特效吗?还需要“拍戏”吗?视频AI加上Deepfake(换脸)技术,甚至可在电影完成以后才决定演员的脸。

诈骗恐怕会更猖獗了。这早已是“有图没真相”的年代,这年头不只连视频不能信,连视讯也不能轻信。本月在香港某国际公司被骗了两亿港元,骗徒用该公司首席财务官的脸,通过视讯指示职员转账。你的社交圈当中可有一些特喜欢分享马哈迪讲日语、习近平讲英语、李显龙卖保险的人?他们盲目相信视频,特别好骗。那些还只是相对静态的演说视频罢了,用常识便可识别真伪。且想象一下骗徒用AI生成亲人被绑的视频,或者干不法勾当的视频,用以诈骗或勒索,将有更多人会遭殃。另外,视频还能当呈堂证物吗?

以上可能延申的社会问题,谷歌、OpenAI必然早就想到,也会把关,但科技流传民间是迟早的事。生成视频需大量电脑资源,掌控在科技巨头手中,但歹徒能先利用科技巨头生成视频 ,再用自家电脑换脸。比如说我指示Sora生产男人携伴游巴黎的视频,然后把男人的脸换成你,你不付钱给我,我就传给你老婆。

总之,魔是肯定高一丈的。我不抗拒视频AI,它是必然的演进,无疑会提升工作效率。只希望大家提高警惕,电脑越来越厉害,拿起手机的时候,别把人脑关掉就行了。

2024.02刊于南洋

喜欢吗?请帮忙分享!

周若鹏

更多好内容,请关注我的社媒:

订阅电子报: