AI沦为诈骗工具?这类新型套路不得不防

AI百科4个月前发布 快创云
40 0

  3月15日,央视3·15晚会曝光了多起利用AI技术换脸、变声实施诈骗的案例,再次引发公众对AI应用安全的关注。近年来,随着人工智能技术的快速发展,不法分子开始利用AI技术融合他人面孔和声音,制造逼真的合成图像进行网络诈骗,给受害者带来巨大损失。那么,我们该如何识别和防范这类新型骗局呢?以下将结合近期发生的“AI换脸”诈骗案例进行详细分析。

“AI换脸”诈骗案例

  今年2月,香港警方通报了一起涉及AI“多人换脸”的诈骗案件,涉案金额高达2亿港元。在这起案件中,一家跨国公司香港分部的职员在参加视频会议时,按照所谓首席财务官的要求,多次转账共计2亿港元至本地银行账户。事后查询才发现上当受骗。警方调查结果显示,除了受害者外,所有参会人员均为经过AI换脸后的诈骗人员。

  类似案件在陕西西安也发生过。财务人员张女士在与老板视频通话时,被要求转账186万元至指定账户。由于“老板”的声音和视频图像都与本人一致,张女士未起疑心,最终上当受骗。

技术原理与法律风险

  “AI换脸”背后的技术逻辑并不复杂,主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染以及图像与音频合成等步骤。利用深度学习算法,可以精准识别视频中的人脸图像并提取关键面部特征,再与目标人脸图像进行匹配、替换和融合,最终生成逼真的虚假视频。

  关于法律风险,去年江苏省南京市江北新区人民法院审理了一起涉及AI换脸技术的肖像权纠纷案件。法院认为,未经原告同意擅自将含有其肖像的视频作为合成视频要素模板供用户使用的行为,属于利用“AI”信息技术手段编造或伪造他人肖像的行为,侵犯了原告的肖像权。

防范建议

  面对AI诈骗的威胁,公众应提高警惕并采取以下措施:

  1. 谨慎接听陌生来电,不轻易透露个人信息。
  2. 保护好人脸、声纹、指纹等生物特征数据。
  3. 不轻信不明平台发来的广告、中奖、交友等陌生链接。
  4. 在进行转账操作时务必谨慎,最好设置延迟到账。

  通过了解AI换脸技术的原理及法律风险,并采取相应的防范措施,我们可以更好地保护自己免受AI诈骗的侵害。

© 版权声明

相关文章