10分钟被骗430万,AI诈骗套路大揭秘

AI百科3个月前发布 快创云
48 0

  近期,“AI诈骗在全国范围内迅速蔓延”的话题频繁登上微博热搜,引起了公众的广泛关注。

  上个月,一位企业老板郭先生接到了一位“好友”的微信视频求助,声称急需430万元进行资金流转。看着视频中的“好友”一脸焦急,郭先生未加多想便完成了转账,整个过程不到10分钟。然而,事后郭先生才发现,自己竟被骗子利用AI换脸技术所骗。

  自今年2月以来,AI技术日新月异,其副作用也日益显现。深度伪造(deepfake)这一AI技术,能让视频中的人物变脸、变声,被不法分子用于诈骗、篡改视频以及制造谣言等。

  或许很多人尚未意识到问题的严重性,认为技术尚未成熟到可以实施诈骗的程度,因此抱有“侥幸”心理。5月31日,深燃直播间特别邀请了瑞莱智慧联合创始人、算法科学家萧子豪以及李旭反传防骗团队负责人,就“如何识别AI诈骗”这一主题进行了深入探讨。两位嘉宾分别来自技术和反传领域,尽管视角不同,但共同致力于“反诈科普”。他们详细解析了AI诈骗的主要手段、易受骗人群以及如何预防AI诈骗等与生活息息相关的实用建议。

  任何技术都是一把双刃剑,既能推动社会进步,也可能挖掘出人性中的恶。因此,任何技术的发展都应在可控、可监督的范围内进行。面对汹涌而来的AI浪潮,我们唯有先了解和学习它,再依靠全社会的力量与之对抗。

  以下是直播实录的整理内容:

1. AI诈骗为何屡禁不绝?

  深燃:利用AI技术进行诈骗是今年才出现的新套路吗?

  李旭:早在2019年,打着AI算命、AI看相旗号的微信公众号、小程序或APP就曾风靡一时,实质上是通过诱导分享来发展用户并吸金。这两年,一些微商团队通过发布明星祝福/宣传视频来发展下线,其中不少视频并非明星真实录制,而是运用了AI换脸、AI语音合成等技术制作。很多人信以为真而加入,结果陷入骗局。还有利用AI生成图片/视频进行裸聊诈骗的案例,受害者被要求下载APP并拷贝手机通讯录,后续以此进行敲诈。

  深燃:AI诈骗有哪些常用手段?

  李旭:第一种是AI声音合成,给受害人打骚扰电话并提取其声音用于后期合成诈骗。比如某公司财务小王接到领导电话要求立即转账2万元,因声音逼真而受骗。第二种是AI换脸,骗子根据受害人发布的信息生成假脸并在视频通话中骗取信任。第三种是AI筛选受害人,通过AI技术筛选目标人群并生产定制化诈骗脚本实施精准诈骗。

2. AI诈骗成功率极高,普通人如何“反杀”?

  深燃:有报道称AI诈骗成功率几乎是100%,为何这么高?

  李旭:骗子善于拿捏受害者心理并利用熟人关系制造骗局。他们研究受害者的人脉关系和好友信息后通过AI技术骗取信任实施诈骗。中老年人因对互联网诈骗手段不熟悉且易受子女担忧影响而容易受骗。此外缺乏防骗意识的人也易上当。识别AI诈骗时可通过观察对方在遮挡或偏转情况下的表现以及询问私密性问题来跳出骗子剧本。

3. AI是把双刃剑,需正确相处

  深燃:除了诈骗外AI技术还被用于哪些违法勾当?

  李旭:有骗子将脸AI换成明星开直播引导刷礼物或带货侵犯肖像权。维权困难因使用AI换脸直播不直接提及明星名字且易采取关闭直播等措施导致无法固定证据。此外有人利用AI换脸“造黄谣”需保持冷静搜集证据并尽快报案。反诈技术包括利用detection技术检测图像视频真实性及加水印追溯源头等。政策层面国家已发布相关管理规定并起草了《生成式人工智能服务管理办法》征求意见稿规范AI发展。正向场景包括短视频平台特效、语音助手、地图导航等并需警惕其滥用风险。AI技术进步对反诈行业带来影响包括提高识别效率等。网友互动中提到了声音诈骗识别方法及跳出骗子剧本的提问策略等话题讨论。萧子豪表示相信未来能在新治理体系下让AI技术风险可控并促进社会发展进步避免信任崩塌。

© 版权声明

相关文章