从2022年底的Midjourney、stable diffusion,到Open AI的Chat GPT、DALL·E、Sora,以及谷歌的Gemini,AI在文章撰写、艺术创作、图像与视频制作等领域展现出了令人瞩目的非凡能力。
随着AI技术的不断精进,我们不禁开始担忧:既然AI能够生成几乎以假乱真的图像和视频,作为普通人,我们未来是否还能分辨出哪些内容是由人类创作,哪些又是AI的杰作?
为了验证这一疑问,不妨进行一个小测试:请尝试在下面的四张图片中,找出唯一一张真人照片。
答案:点击下方空白处揭晓
实际上,只有第一张是真人照片,其余三张均为AI生成。除了人像,AI还能生成各种风景照片和CG图像,要准确分辨这些图像的真伪,无疑更加困难。
尽管大部分情况下,图片是否出自AI之手对我们的日常生活影响不大,但近年来已出现多起利用AI图像制作的假新闻。这些假新闻虽多为恶作剧,但若充斥网络,则可能引发公众对新闻真实性的质疑。毕竟,在真假难辨的时代,我们如何确定信息的真实性?
那么,如何分辨图片的真伪呢?以下是一些实用的方法:
- 利用常识寻找不合逻辑之处:最直接有效的方法是运用“常识”。近年来,AI生成的人类手部特征一直是人们关注的焦点。尽管一些模型如Midjourney V5、Stable Diffusion已对手部进行了优化,但在假新闻中仍能找到“奇怪的手部”等破绽。此外,图片中违背常识和物理规律的细节也通常是AI作品的标志。
- 查询图片来源:对于难以通过常识判断的图像,可以通过搜索引擎的“图片查询”功能或在线网站查找图片来源。若重大新闻事件仅由个人媒体或营销号发布,且没有可靠媒体证实,则该图片很可能是假的。
- 借助识别网站:许多网站能查询图片的EXIF信息(记录相机镜头、光圈、快门等参数)。若能看到相机参数,则该图片很可能是真实的;若无法看到这些信息,则可能是AI生成或经过压缩处理的图片。此外,“AI or not网站”等专门工具也能辅助识别AI生成的图片。
尽管大部分新闻事件的热度会随时间消退,但“深度伪造”技术却可能对每个人产生直接影响。深度伪造(deepfake)是利用深度学习技术伪造以人类为主体的图片和视频。这种技术不仅用于娱乐和商业行为,如制作主播的数字人替身以实现24小时无间断直播卖货,也可能被不法分子用于诈骗等犯罪活动。例如,骗子可能利用网络上收集的图片制作AI换脸视频进行诈骗。因此,面对深度伪造内容,我们需提高警惕并学会甄别。
对于AI公司而言,他们正在努力减少深度伪造技术的滥用。例如,Open AI的DALL·E模型禁止对特定照片进行处理或生成特定人脸内容;同时,许多机构会在生成的图像数据中添加水印以区分真假视频。尽管如此,不法分子仍会试图掩盖伪造痕迹以欺骗公众。因此,作为普通人,我们也需要掌握一些简单的防范方法以保护自己免受欺骗。例如通过要求对方做特定动作或回答只有双方知道的问题来验证视频的真实性;同时牢记防诈骗的“六个一律”和“八个凡是”原则以保护自己免受诈骗侵害。