AI换脸骗局频现 人工智能使用边界在哪儿

AI百科4个月前发布 快创云
49 0

  在全球范围内,对滥用生成式人工智能技术的担忧日益加剧。这种担忧不仅源于其超越常规技术的“创造能力”和“破坏性”,更因其发展速度之快,使得各国在风险预判与防范上仍处于探索阶段,亟需法律体系的进一步完善。

  近期,多起利用AI技术实施的诈骗案件引发了社会广泛关注。例如,5月22日,包头警方通报了一起利用AI实施电信诈骗的案件,受害人郭先生在10分钟内被“好友”骗走430万元,而这位“好友”实际上是骗子通过AI换脸技术伪装而成的。此类事件不断提醒我们,AI生成的虚假信息可能潜藏着巨大的社会风险。

  英国媒体《每日邮报》曾报道,2019年3月,英国警方逮捕了一名使用AI语音模仿软件的诈骗者,该诈骗者通过模仿当地一家能源公司老板的声音,成功骗取22万欧元。这类案件展示了AI技术在图像和声音模仿方面的强大能力,同时也暴露了其在防范和识别上的脆弱性。

  苏州大学竞争政策与反垄断研究中心研究员方翔指出,近期的AI诈骗案件主要是人工智能技术在图像领域的应用,能够将不同人脸图像的面部特征相互替换。“拟声”技术则借助深度学习模型,根据已有的语音样本生成近似声音,实现与人交谈的效果。这些技术的进步使得AI诈骗手段更加隐蔽和复杂。

  中国互联网协会法工委副秘书长胡钢强调,对于生成式人工智能的正当适度使用可以倍增工作效率,推动创意产业发展,促进消费者福祉增长。然而,虚假使用和过度使用可能引发谣言泛滥、侵害权利、减少就业等问题,甚至成为歪曲真相、撕裂社会的罪恶之源。因此,需要坚持依法崇德治理,形成全社会对人工智能的共识。

  我国在人工智能及数据安全、个人信息保护的立法方面虽然起步较晚,但正在逐步完善。例如,《新一代人工智能发展规划》提出了面向2030年我国新一代人工智能发展的指导思想、战略目标等。此外,《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理办法(征求意见稿)》等法规的出台,也体现了我国对于人工智能监管的决心和行动。

  然而,在构建完善的人工智能法律体系的过程中仍面临挑战。一方面需要提升防范深度合成技术应用生成错误价值导向、虚假信息的能力;另一方面也需要对深度合成信息内容增加标识的具体规范进行细化。同时各国政府都在加快出台人工智能监管法律以应对这一新兴技术的挑战。例如英国竞争和市场管理局正在审查人工智能对消费者、企业和经济的影响考虑是否需要新的监管措施;法国隐私监管机构正在调查与ChatGPT有关的投诉;澳大利亚政府正在咨询科学咨询机构以考虑下一步的监管行动等。

  鉴于人工智能的技术复杂性世界各国对其风险治理均处于探索阶段对其约束和监管仍有赖于法律体系的完善。欧盟目前正在推进全球首部人工智能法案《人工智能法》提案旨在强化对生成式人工智能的监管并将人工智能技术可能带来的风险细化为四个等级这一立法动向值得我国关注并借鉴其经验以完善本国的人工智能法律体系。

© 版权声明

相关文章