9月4日,BBC报道揭露,即时通讯软件Telegram近期遭遇大量利用深度伪造技术的性犯罪事件,波及韩国超过500所学校,且涉案嫌疑人多为青少年。对此,政界与警方誓言严查,誓将罪犯绳之以法。
周一,韩国首尔国家警察厅宣布,将深入调查Telegram在允许分发非法使用深度伪造技术制作的儿童色情图片方面的责任。据《环球时报》援引韩媒,针对女性的深度伪造犯罪在韩国愈演愈烈,不仅大学校园,连中小学、军队等场所也未能幸免。社交媒体,尤其是Telegram群组中,不断有受害学校及受害者信息流出。
在韩国,男性频繁利用AI技术,将熟人女性的照片换脸至现有色情视频中,并在Telegram上广泛传播、戏弄。此前震惊世界的“N号房”事件在韩国正频繁“更新”至2.0乃至3.0版本。
用户利用Deepfake AI制造虚假露骨视频,女性肖像权遭受侵犯。大学生Heejin(化名)上周六收到匿名消息,称她的照片和个人信息被泄露,并附上一张经过深度伪造技术处理的不雅图片。在接受BBC采访时,Heejin深感自责:“我一直在想,是不是因为我把照片上传到了社交媒体。”事实上,Heejin并非个例。韩国记者Ko Narin在Telegram上发现数十个聊天群组,用户分享认识女性的照片,并利用AI软件在数秒内转换为虚假色情图片。
这些群组不仅针对大学生,还涉及特定高中甚至初中学生。若某学生图像被大量使用,甚至可能拥有“专属房间”,即“羞辱室”,通常设有严格进入条件。Ko表示:“我对这一过程的系统化和组织性感到震惊。”她发现的最可怕的事是,一个未成年学生群组竟有2000多名成员。截至上周末,已有500多所学校确认受影响,实际人数仍有待确定,但许多受害者年龄均在16岁以下。
据《》报道,韩国全国涉及深度伪造犯罪的人数估计可能达到22万。深度伪造技术的核心过程包括数据收集、模型训练、Deepfake合成和渲染。创造深度伪造的核心是生成对抗网络(GAN),由生成器和鉴别器组成。随着两者持续优化,深度伪造越来越难以被肉眼识别。ACOSAV呼吁加强立法和公众教育以保护未成年人免受此类AI技术侵害。
《福布斯》称,深度伪造技术常将真实人脸叠加在伪造或真实的色情材料上,导致许多年轻女性和女孩成为受害者,这已成为韩国公众极为愤怒的焦点话题。大学生Ah-eun表示:“我现在无法确定是否会有人在我不知情的情况下对我做出不当行为。”因此,她在与人交往时变得高度警惕。
韩国将加大对深度伪造性犯罪的监管力度。女权组织认为,新AI技术使得剥削受害者更为容易,这仅是韩国网络上最新形式的厌女症体现。由84个妇女组织共同签署的声明中写道:“造成这一现象的根本原因是结构性性别歧视。”政府表示将加强对创建和分享深度伪造图像行为的刑事处罚,并计划对观看非法色情内容的人实施惩罚。
Deepfake技术在近年来迅速发展,从简单换脸到能生成百万像素级别的深度伪造图像,技术进步使得伪造图像和视频越来越逼真。深度伪造性犯罪在全球范围内频繁发生,用户利用该技术生成的图像大多针对年轻女性和未成年女孩,内容涉及性侮辱、儿童性虐待等。为应对威胁,AI社区正开发更高级的检测工具以降低犯罪可能性。这些工具运用机器学习算法分析视频和图像以寻找伪造内容的迹象包括不自然的面部动作、异常光照模式及背景不一致性等。