一个AI恐怖故事:我在色情网站,看到了自己

AI百科4个月前发布 快创云
49 0

  在韩国,如果有人通过社交媒体向你发送一句“我在群里看到你,是你吗?”并随后附上你的裸照,你或许会感到震惊和恐惧。尽管你确信自己没有拍摄过这样的照片,但屏幕上的形象却如此逼真。这是一场由深度伪造(DeepFake)技术引发的噩梦,这种技术在韩国正成为笼罩在女性头顶的巨大阴影,引发恐慌和迫害。

  DeepFake技术,也被称为“AI换脸”,正在被犯罪者用于将普通人的形象替换到色情图片或视频中,并通过社交媒体进行传播,对当事人进行羞辱。据《朝鲜日报》报道,警方在Telegram社群中发现了多达23万人的加害者,他们来自世界各地。这些受害者遍布韩国数百所中学、高中和大学,其中80%是女性,包括未成年人、大学生和教师,甚至包括女性军人。

  这种技术并非新技术,最早可追溯到2016年。十年来,DeepFake一直游走在罪恶和法律的边缘,不断挑战人性和道德的底线。从韩国到印度,每隔一两年就会有一次技术突破,给世界带来更大的恐慌。

  尽管DeepFake技术看似有罪,但技术本身其实并无罪。然而,技术的滥用确实与DeepFake有关。随着AI大模型技术的发展,制作一张DeepFake图片的成本几乎可以忽略不计。在Telegram上,只需加入一个DeepFake社群,就可以获得两次免费的图片生成机会。之后,虽然需要付费,但价格并不高,而且可以通过邀请新朋友获得更多免费机会。这种通过熟人关系进行的裂变传播,使得DeepFake的受害者不再局限于明星政要,每一个人都有可能成为新的受害者。

  面对这种现状,韩国女性已经开始抗议,要求将加害者绳之以法。然而,加害者们却表现出一种漫不经心、不以为然的态度。他们甚至将受害者的抗议视为女权主义的表现,并表示“女人们对这件事情过分夸张”。有犯罪者表示,用熟人的形象制作深伪色情内容“只是觉得有趣”、“只是在开玩笑”,甚至认为“用熟人的照片P图更真实”。

  各国对DeepFake的法律法规有所不同。在韩国,单纯拥有和观看深度伪造视频不会受到处罚,但制作和传播非法深度伪造图像或视频可能会受到惩罚。然而,由于法律的执行难度和跨国性传播的问题,这些法律的实际效果可能有限。相比之下,中国的法律对涉及淫秽色情内容的DeepFake管理更为严格。今年3月份,杭州互联网法院审结了一起利用AI换脸传播淫秽色情内容的案件,案犯因侵犯公民个人信息及制作、传播淫秽物品牟利罪被判有期徒刑七年三个月。

  技术的发展带来了更多的疼痛和挑战。如何限制撬动人性“恶”的杠杆,成为了一个长久的课题。尽管科技向善的理念已被越来越多的企业接受,但如何真正落实这一理念,避免技术的滥用和恶用,仍需要全社会的共同努力。

© 版权声明

相关文章