影像造假,既有可能;移花接木在色情片之上,自然已不成问题。《远见》曾经转载《硅谷Talk》的文章〈人人都可能受害!Deepfake事件揭露的假影片问题〉,佐证这点。
一日千里的深伪(Deepfake)科技主导之下,记者、演员、歌手和主播,人人都是潜在的受害者。喜欢亮相的政治人物,自然也不例外。一经广传,一夜之间,一支支虚构的视频,因此急速地红遍了五湖四海的任何角落。
早前以色列名模出身的Gal Gadot Varsano就曾被出现在成人网站:倒在床上,搔首弄姿,然后如此这般。后经查证,眼下的杨柳细腰浑身酥麻,恰是替换了色情女星PepperXo原版的神魂飘荡气喘连连。
经过AI背后出手,前不久90年代参演《射雕英雄传》的朱茵,亦遽然变了80后中国红星的杨幂,乃至急速吸引了网络一亿的流量,则是另一个广为人知的经典示范。
似是魔术的现代神通,可没有想像中困难。既经人工智慧演绎的辅助,合成视频只需区区的几个步骤:大量收集原照,酌量抽出面部之图像;跟著借助模型,调教照片;再经测试,若是满意,则可派上用场。
2018年1月,视窗有了类似的FakeApp程序,自制换脸视频,不但越是轻松,深伪之术,也日渐风行,深受喜爱。有报道说,Reddit的论坛,热心于为女星代作假视频的成员,接近4万人之多。
因为这样,信不信由你,反正身处云端的大时代,不只是“照骗”,所有貌似真的短片所示,其实不一定是那一回事;逞论声音的变调,那可是小儿科了。走到了这一步,不论网络的链接,或是手机之讯息所展示的多媒体,是真或假,都说不准了。