半年前,OpenAI的首席技术官米拉·穆拉蒂曾公开透露,公司正在研发一款准确度高达99%的AI图像识别工具,并预计很快将向公众发布。
近日,这款工具终于取得了新进展。OpenAI于昨日宣布,将向研究实验室和新闻机构开放申请,以收集这些机构的研究人员的使用反馈。
具体而言,该工具能够检测任意一张图片是否由OpenAI旗下的图像生成器DALL·E 3生成。据官方介绍,其识别成功率达到大约98%,仅有0.5%的非AI生成的图像会被错误地标记为DALL·E 3生成。此外,该工具还能处理一些常见的图像修改,如压缩、裁剪和饱和度调整等。
然而,对于除DALL·E 3以外的图像生成工具,该工具的识别能力相对较弱,误判率可能达到5-10%。
另外,OpenAI还透露,他们正在研发一种技术,可以在AI生成的声音中添加难以被篡改或移除的“水印”,以便在播放时能够轻松识别这些声音。
面对AI生成内容日益泛滥的网络空间,OpenAI表示将采取两种方法来应对这一挑战。一是与其他组织合作,共同采用、开发和推广一个开放标准,以帮助人们验证数字内容的创建或编辑所使用的工具;二是开发新技术,专门用于帮助人们识别由他们自己的工具所创建的内容。为此,OpenAI已加入C2PA(内容来源和真实性联盟)的指导委员会,并准备在制定真实性标准方面发挥重要作用。
实际上,OpenAI在AI内容检测领域并非新手。去年2月,在用户的强烈要求下,OpenAI推出了AI文本检测器“AI Text Classifier”。这款基于微调GPT模型的检测器能够推断一段文本由ChatGPT生成的可能性,实现了用AI检测AI。然而,该工具的检测成功率并不理想,因此在推出几个月后就被下架。
除了内容检测领域,OpenAI还宣布正在开发一款名为媒体管理器的工具。这款工具将允许创作者和内容所有者向OpenAI声明内容所有权,并决定他们的作品是否应被纳入或排除在模型的研究和训练中。未来,OpenAI计划为这个工具增添更多选项和功能,并希望到2025年推出该工具,使其成为AI行业的标准。
如今,随着生成式AI的迅猛发展,AI生成的内容正以惊人的速度蔓延。随手翻看的图片、日常浏览的文本都可能完全出自AI之手甚至为虚假信息和诈骗行为推波助澜。与此同时,“始作俑者”AI巨头们在面对人类创作的内容时却表现出一种轻蔑的态度。例如OpenAI就经常陷入版权舆论漩涡。在法律总是稍微滞后的情况下我们自然乐于看到更多像OpenAI这样的AI服务提供商开始勇于站出来把守行业自律的前线。