辨识AI视频越来越难?办法不是没有

AI百科6个月前更新 快创云
53 0

  在Sora等AI技术的推动下,眼见不一定为实的现象愈发普遍。Sora能够仅凭文字描述,就生成逼真且连贯的高清视频,其逼真程度令人难以分辨其AI生成的身份。而不仅仅是视频生成,AI还能“魔改”现有视频,如小鹏汽车研究团队推出的“任何物体在任何场景”框架,能够无缝插入任何物体到动态视频中,同样难以用肉眼区分真伪。

  随着AI视频技术的普及,其可能带来的混乱和欺骗问题日益引起关注。例如,视频证据的可信度受到挑战,未来法庭上可能出现的“作案视频”甚至可能连当事人自己都未曾见过。对此,中国科学院自动化研究所的董晶研究员及其团队正致力于研究图像窜改、深度伪造等人工智能内容的安全与对抗技术,他们的成果已应用于多媒体智能鉴伪。

  目前,视频内容鉴伪技术仍处于被动状态。董晶介绍,主要有两类智能检测方法:基于数据学习的方法依赖于训练数据集的体量和完备性,而基于特定线索的方法则通过提取不合常理的视觉线索来取证。然而,随着Sora等工具在细节处理上的进步,生成视频中的伪造痕迹越来越少,传统的检测手段面临更大挑战。

  为应对这一挑战,董晶建议从技术和非技术两个层面入手。技术上,应构建新型伪造视频数据集以提高模型识别能力,并更新检测模型以兼容新型生成视频算法。同时,数字水印、数字签名等技术手段可用于追踪和管理生成视频数据。非技术层面,则需完善AI数据治理与监管法规,加强科普教育以提高公众防范意识。

  董晶强调,尽管不应将辨别视频真伪的工作交给公众,但提高全民网络素养和安全防范意识至关重要。她建议公众在面对视频内容时“多留几个心眼儿”,如观察视频细节的逻辑真实性、检查视频质量和清晰度是否均衡以及验证内容逻辑是否合理等。此外,在交互场景下可主动要求对方进行特定动作以辅助甄别。

  董晶表示,通过规范Sora等新型视频生成工具的使用并加强治理与管控措施,可降低AI生成视频的滥用风险。同时,她呼吁推动建立具有国际共识的AI数据技术标准与规范以形成协同监管方案。这些努力旨在增强公众对虚假视频的“免疫力”,促进社会信任并减少虚假信息传播、经济诈骗和舆情误导的风险。

© 版权声明

相关文章