近日,新山宽中爆出某学生利用人工智能深度伪造(deepfake)技术,将数十名女性学生的照片移花接木,制作成不雅图片。事件曝光后,舆论哗然,社会大众评论的焦点集中于谴责校方态度和处理不当,导致涉事者未被严正追责,及受害者求助无门等严重问题。这起事件的震撼,不仅在于对未成年少女身心的伤害,更在于它揭示了深伪技术滥用的现实威胁,以及我们在法律与社会机制上的集体失守和茫然无措。
尽管涉事者是中学生,但我们不应单纯地停留在“未成年人”的范围去看待问题。该事件披露的是技术滥用与法律制度真空交织下的深层危机。
近年来,AI深度伪造技术日趋普及,从国际名人如泰勒丝(Taylor Swift)、教宗方济各被“合成”到日常社交网络上的“宫崎骏卡通头像”热潮,真实与虚构的界线已变得愈加模糊。当AI的趋势如火如荼,技术门槛降低至任何人都能操作及产出时,任何人都可能成为深伪技术的加害或受害者。问题是:在AI迅猛发展之下,我们的法律准备好了吗?
针对该校园深伪事件,通讯部副部长回应称,涉案者触犯《1998年通讯和多媒体法案》,该法律针对的是滥用网络传播色情内容的行为。若涉案者或内容涉及未成年人,那将依据《2001年儿童法令》提控。然而,至于如何面对滥用AI技术,侵犯他人肖像隐私等法律措施则未被提及。
目前美国多个州早已开展相关法律建设以应对和管制AI 滥用问题。例如,佛罗里达州将伪造未成年人不雅图像列为刑事罪行;田纳西州则通过“ELVIS法案”,全面保护个人声音、肖像与名誉,并对滥用AI合成内容者规定明确法律责任。这些措施无疑值得借鉴。
更令人担忧的是,当此类事件发生时,大部分人或不清楚应向哪个单位举报、如何收集证据,甚至无法判断自身是否已经遭受侵权。这种对AI滥用防范知识的缺失,不仅揭示了法治的空白,也反映出教育与常识普及的不足。在全民AI化的趋势下,相关事件不一定只在校园发生,也有可能在职场、家庭、公众人物圈层,我们是否具备足够的认知与资源去保护自己,教育下一代,并提前做好风险防范?除了呼吁等待立法与执法单位及时补位,提升全民防范意识更是当务之急。比如:
• 学习识别与防御AI钓鱼、伪造;
• 审慎管理社交平台上的照片与资讯,降低被滥用风险;
• 推动青少年与职场人士的AI素养教育,理性使用科技工具,而非伤人的利器。
这起校园深伪合成照事件凸显了AI的强大功能与日益常态化的使用,正悄然加深人性与制度之间的裂缝。在科技势不可挡的当下,网络规范与伦理约束不应仅寄望于“自律”口号,而需立法明确、教育引导与制度建设三管齐下,方能筑起有效防线。
要看最快最熱資訊,請來Follow我們 《東方日報》WhatsApp Channel.
