被骗2亿港元!香港一男子参加多人视频会议只有自己是真人

AI百科4个月前发布 快创云
46 0

  参加视频会议,却发现自己成了唯一“真人”,这看似不可思议的情节,实则已真实上演。近期,香港警方披露了一起涉及“AI换脸”技术的诈骗案件,涉案金额高达2亿港元。此外,香港还出现了其他利用“AI换脸”技术行骗的事件,如假冒行政长官推荐投资计划等。

  那么,“AI换脸”背后的技术原理是什么?它又是如何实现人脸的精确识别与替换,进而创造出逼真效果的呢?我们该如何识别这类深度伪造技术?有没有好的方法来辨别“AI换脸”呢?

  香港首次出现涉及AI“多人变脸”的诈骗案。在这起案件中,一家跨国公司香港分部的职员受邀参加视频会议,并按照要求转账多次,共计2亿港元。然而,事后发现这些转账都是骗局。据悉,诈骗分子利用了人工智能的深度伪造技术,从YouTube上下载了视频,模仿公司高层人员的声音发出行动指示,再利用Deepfake技术制作伪冒视频,造成多人参与的效果,但实际上只有一名职员是“真人”。

  除了这起案件外,香港近期还出现了其他利用AI换脸行骗的隐患。例如,网上出现以AI伪造的电视节目片段,冒称行政长官向市民推介投资计划。对此,特区政府发言人呼吁市民提高警惕,并严正澄清这些影片全属伪造。

  目前,AI换脸技术更多应用于娱乐视频录制。专家介绍,AI换脸过程包括人脸识别追踪、面部特征提取、人脸变换融合等关键步骤。而要实现视频实时通话中的换脸技术,则需要采集不同角度的近千张照片。

  为了辨别AI换脸技术生成的虚假视频,专家提供了一些方法。例如,在视频对话时要求对方在脸部前挥手进行识别;或在点对点沟通中问一些只有对方知道的问题以验证其真实性。此外,随着科技的不断进步和公众对网络安全意识的提高,防范和识别这类欺诈行为已成为当务之急。

  根据香港警方最新数据,去年1至11月科技罪案激增53%,涉案金额同比增长72%。其中网络投资诈骗显著增加,占总科技罪案的15%。这表明随着科技的发展犯罪分子也在利用新技术进行欺诈活动。因此我们需要时刻保持警惕并加强网络安全意识以应对这些挑战。

  Deepfake技术作为一种利用深度学习生成合成图像、音频或视频的技术正对网络安全带来挑战。它主要依赖于深度神经网络特别是生成对抗网络(GAN)来生成与真实面部特征高度相似的虚假面部特征。目前该技术广泛应用于电影制作、视频编辑等领域但急速发展也带来了网络安全风险需要加以防范和应对。

© 版权声明

相关文章