从换脸骗钱到套壳卖课,AI诈骗如何避坑?

AI百科4个月前发布 快创云
43 0

  在2023年被视为AI元年的背景下,2024年自然而然地成为了AI应用落地的重要一年。然而,AI技术的迅猛发展,在商业化应用之前,却已不幸沦为某些灰色产业的敛财工具。从莫名其妙的电话到热情的异国美女,再到谣言与诈骗,AI骗局在不经意间已悄然渗透到我们的生活中。本文汇总了四大AI新骗局,让我们一同探讨哪些骗局最为常见。

骗局一:语音求救

常见范围:微信、电话

目标人群:覆盖所有,其中家长居多

  面对陌生的号码,人们可能会直接挂断,但如果是家人打来的“求救电话”呢?据中国新闻网报道,去年11月,王欣的母亲接到了一通声称自己被绑架的电话,要求转账30万元。焦急的母亲差点上当,幸好被同事及时拦下。这通电话实际上是骗子利用王欣的AI克隆声音制作的。近年来,AI语音合成技术取得了显著进步,使得生成逼真的克隆音色变得轻而易举。这引发了人们对AI滥用导致防诈骗成本增加的担忧。

骗局二:换脸诈骗

常见范围:微信、线上会议、FaceTime

目标人群:覆盖所有,熟人关系居多、针对女性居多

  “眼见为实”的法则在换脸技术面前也显得脆弱不堪。福州的郭先生就因轻信微信视频中的“朋友”而遭受了损失。骗子利用AI换脸技术伪装成郭先生的朋友,骗取其430万保证金。这种Deepfake深度伪造技术能够合成虚假的个人表情和动作,被用于电影制作中还原年轻演员的形象。然而,这项技术同样可能被用于诈骗,成为伤人的利器。据报道,超过96%的Deepfake图像具有色情性质,且几乎全部针对女性。

骗局三:美女带货

常见范围:视频号、抖音、小红书等多家社交媒体平台

目标人群:覆盖所有,其中男性居多

  以“促进国际友谊”为旗号,AI合成的异国美女在社交媒体上大行其道。她们发布视频,谈论中国社会,收获大量点赞和评论。实际上,这些视频背后是自媒体团队为了变现而精心策划的骗局。通过低成本制作视频积累粉丝后,他们开设橱窗带货。这种套路吸引了大量中老年粉丝,他们纷纷为了“国际友谊”下单购买商品。

骗局四:AI知识付费

常见范围:微博、抖音、小红书等多家社交媒体平台

目标人群:积极学习的年轻群体

  随着AI技术的兴起,学习AI成为新风潮。然而,不少内容创作者利用信息差将免费资源包装成高价课程进行售卖。这些课程通常标价高昂且质量参差不齐但依旧有不少焦虑的年轻人选择购买。授课人通过传播焦虑的方式来促进课件的销售一不小心就会成为“韭菜”。

  以上四种AI骗局只是冰山一角。随着AI技术的不断发展网络安全公司Fortinet发布的《2024全球安全威胁预测》中提到AI已经成为“头号关注”。假视频被频繁用于传播谣言朋友圈照片也可能被拿去换脸。面对这些层出不穷的新骗局我们需保持警惕审慎思考才能有效防范。

© 版权声明

相关文章