随著AI技术逐渐成熟,普通人换脸明星成为偶像剧主角不再是梦,但却变成侵犯肖像权、传播淫秽色情影片的新式非法业链。中国一名有百万粉丝的女网红也深受其害,惨被AI“一键脱衣”,伪造不雅照片和影片。
综合中媒报导,在微博上拥有147万粉丝的网红“caro赖赖”于周三(26日)透露,有人盗了她的“脸”,用AI换脸软件制作她的色情影片。
她表示,半年前讨论区很多人表示看过她的“影片”,原本本著“清者自清”,因此没有进行任何回应,直到友人传来一些截图和影片,惊觉画面中女生的脸和自己一模一样,做一些“难以描述的动作”,这才得知自己的脸被盗用了。“我看著影片里那张跟我一模一样的脸,愤怒地说不出话来!”
“caro赖赖”循线追查后,她发现是有心人士在海外社群平台上冒用她的名义注册假帐号,一开始还会搬运她的日常影片,直到累积足够追踪人数后,就会以会员订阅的方式,贩卖盗用赖赖脸庞的色情影片。
更惊人的是,不法分子利用“AI换脸技术”赚钱,已经形成完整的产业链,提供“一键脱衣”服务,只需发送人像生活照,就能将明星、网红甚至普通人的脸制作成色情照片和影片,明码标价获取利益,这也意味著不只是她一个受害者。
她称,明码标价网红色情影片的名单中,只要花费200元人民币加入群组,就可以享受半价购买假脸色情影片,甚至还能要求“私人订制”,即有心人士在付费后提供其他女子的生活照,犯罪团伙就会透过AI合成的方式替其制造假的私密片。
制作过程显示,软体汇入一张照片,用“画笔”涂抹人像上的衣服,经过一些设定,之后衣服就消失不见,原本有穿衣服的照片变成一张裸照。
“caro赖赖”赖赖试图举报相关假帐号和造谣内容,然而在付费平台上提供色情影片并不违法,她站出来发声,提醒大家关注这件事,假如有人看到这类的影片或照片,呼吁不要散播和攻击,“网路不是法外之地,希望再有更多女孩成为受害者”。