蓝鲸新闻于9月4日发布了关于韩国“N号房”事件再次引发社会对于网络性犯罪的关注的报道。据韩媒报道,多个Telegram群聊中,成员利用Deepfake技术制作并传播虚假的色情图片和视频,受害者包括未成年学生、教师及军人等职业女性,其中最大的聊天群组拥有超过22万名成员。这一事件引发了巨大的舆论危机,促使韩国总统敦促政府彻底调查,警方也宣布将实施为期7个月的深度伪造性犯罪严打行动。
Deepfake技术,作为“AI换脸”的代名词,基于人工智能,仅需特定对象的部分图片和音视频素材,便能生成逼真的伪造内容。然而,这项技术不仅限于“换脸”,还能改变人物特征或生成全新的人脸图像。随着AI的普及,Deepfake频繁出现在公众视野中,但常与网络诈骗、生成淫秽色情内容等违法犯罪行为挂钩。据德勤预计,AI驱动的Deepfake每年将造成数十亿美元的欺诈损失。
生成式AI的发展带来了智能的涌现,但Deepfake的危害也开始显现,成为高智商罪犯的工具。然而,技术本身是否应承担责任?在AI高速发展的背后,又有哪些力量能为其套上缰绳?
Deepfake一词最早于2017年出现,当时一位用户将明星的脸替换到色情视频中。早期合成内容粗糙且易被识别。但随着生成式AI的崛起,Deepfake的应用发生了翻天覆地的变化。中科睿鉴的深度伪造检测专家表示,现在的AI大模型能极大增强Deepfake的仿真效果,使得生成内容更为逼真且所需数据量减少,降低了使用门槛。
尽管Deepfake能实现以假乱真的效果,但并非毫无破绽。目前已有若干深度伪造检测工具出现,科技公司和高校研究团队正积极研发相关技术。瑞莱智慧的算法科学家表示,深度伪造检测的方法包括分析画面和声音中的异常以及使用AI算法从数字信号层面分析。但如何让用户意识到深度伪造内容的存在并进行检测,可能比技术层面的攻防更为重要。
在审视Deepfake相关的违法犯罪链条时,恶意使用技术的用户是最直接的加害者,但平台方和技术提供者也是责任主体。尽管Deepfake服务提供者或技术支持者通常会明确安全管理规定,但互联网上仍有很多公开渠道可以获得开源算法,且存在黑产交易。此外,Deepfake内容制作完成后便流入传播平台中。多家社交平台开始推出相关规定以应对Deepfake犯罪频发的问题。
回顾全球多地发生的Deepfake性犯罪案件,Telegram是一个高频出现的通讯平台。其强大的加密和隐私保护功能使其成为网络犯罪的温床。韩国警方对Telegram实施立案前调查但面临侦查难题。同时法国也拘捕了Telegram的创始人兼首席执行官Pavel Durov并面临多项指控。这反映了跨境执法在取证、法律适用和管辖等方面的困难。
在中国法律体系中深度合成或伪造有明确的法律条文包括《刑法》、《网络安全法》等并散见于相关部门规范中。王小敏律师表示如果此类事件发生在我国可能构成刑事犯罪如传播淫秽物品罪等受害人还可提起民事诉讼。
在生成式AI技术风起云涌的时代眼见未必为实韩国的深度伪造性犯罪给全球敲醒了警钟需要技术、法律、监管等共同努力才能防止更多的罪恶蔓延。