央视曝光声音合成、换脸技术等,这些套路你能防得住嘛?

AI百科4个月前更新 快创云
41 0

  技术发展:双刃剑下的AI应用挑战

  随着人工智能技术的飞速迭代,新骗局、新套路层出不穷,令人防不胜防。近期,3·15晚会曝光了多起利用AI技术换脸、变声实施诈骗的案例,再次引发人们对AI应用的关注。声音合成、AI定制化诈骗……这些套路你能识破吗?

  一、声音合成诈骗

  “声音合成诈骗”通过骚扰电话录音等方式提取声音,进行声音合成后,对声音本人通讯录里的熟人进行诈骗。更有甚者,骗子会盗取声音本人的微信号,提取语音文件或安装非官方版本的插件,实现语音转发,在取得微信好友信任后实施诈骗。以下是两个典型案例:

  1. 2024年1月,四川泸州的陈女士接到一个陌生电话,里面传来“女儿”的求救声。陈女士的女儿被模拟声音诈骗80万元。
  2. 方爷爷在公园遛弯时接到电话,对方自称是其战友“老乔”,说自己得了病,想借钱。方爷爷因熟悉“老乔”的声音而信以为真,先后汇款共计1万元,最终发现被骗。

  二、AI换脸诈骗

  骗子首先分析公众在网上发布的信息,通过AI技术筛选目标人群,利用AI换脸伪装成目标人物,再通过视频方式确认信息,骗取信任。以下是几个典型案例:

  1. 假冒名人:2023年10月,一诈骗团伙因假冒演员“靳东”获取受害人信任,共诈骗多名被害人共计30余万元。
  2. 假冒熟人:“平安包头”曾公布一起案例:郭先生的朋友通过微信视频电话借钱,后经核实是骗子利用AI换脸技术冒充的。
  3. 多人变脸:近期,香港发生一起涉及AI“多人变脸”的诈骗案,诈骗金额高达2亿港元。

  三、AI定制化诈骗

  骗子利用AI技术锁定目标对象,在短时间内便可生产出定制化的诈骗脚本。例如:实施情感诈骗时,筛选出经常发布感情类信息的人群;实施金融诈骗时,筛选出经常搜索投资理财信息的人群。以下是两个典型案例:

  1. 冒充客服:李先生接到自称某航空公司工作人员的电话,告知其飞机故障并建议改签。李先生按照对方指示操作后,发现自己在某贷款平台借贷20万元。
  2. 冒充朋友:郭先生接到好友视频电话借钱,基于对好友的信任和视频的核实而转账430万元,后发现被骗。

  如何防范“花式”诈骗?牢记以下“三个原则”:

  1. 不听不信不转账:接到好友语音通话、视频通话借钱或要求转账的需用多种方式核实对方身份。
  2. 保护隐私“四不晒”:在公开的网络平台上避免过度分享个人信息。
  3. 防止盗号是关键:提高网络安全意识确保各类账号安全避免在不可信的网络平台上下载未知来源的应用程序。
© 版权声明

相关文章