在AI技术日益成熟的今天,诈骗手段也悄然升级,利用AI换脸、换声技术实施诈骗的案件频发,令人瞠目结舌。从10分钟内被骗430万元,到9秒钟损失245万元,这些惊人的数字背后,隐藏着怎样的技术阴谋?
“眼见不一定为实”,在AI时代,这句话成为了防范诈骗的新格言。诈骗分子通过高科技手段,伪装成受害者的亲朋好友,通过视频通话骗取信任,进而实施诈骗。郭先生和何先生的遭遇,就是这一现象的缩影。前者在微信视频通话中,被“好友”以缴纳保证金为由骗走430万元;后者则因同样的手法,损失了245万元。幸运的是,部分款项被警方及时拦截,但这也再次敲响了警钟。
那么,AI换脸换声技术真的如此“神通广大”吗?实际上,这些技术主要依赖深度学习和计算机视觉技术实现高度逼真的换脸效果。犯罪分子通过特制视频或换脸应用程序,轻松获取对方信任。更令人担忧的是,这些技术在电商平台上的普及,使得任何人都能轻易购买到AI换脸教程,价格低至二三十元。
面对如此高科技的诈骗手段,公众应该如何防范呢?关键在于提高防范意识。遇到涉及资金转移的情况时,应多渠道验证对方身份,比如回拨电话号码进行通话验证。同时,尽量不在社交媒体上发布个人及家人的照片、语音、视频等,以防被诈骗分子利用。此外,对于直播间里出现的“明星”,也要保持警惕,以免被虚假信息所迷惑。
除了个人防范外,社会各界也在积极应对AI诈骗的挑战。国内外已发布专项研究计划及学术竞赛,对AI换脸、换声等深度伪造内容进行鉴别。同时,国家互联网信息办公室也发布了《生成式人工智能服务管理办法(征求意见稿)》,要求生成的内容必须真实准确,并采取措施防止生成虚假信息。
AI技术虽然带来了便利和创新,但也伴随着安全风险。因此,推动建立安全可控的AI治理体系显得尤为重要。企业应在创新探索与合法合情合理之间寻找平衡点,以“合情合理合法”为准绳,积极寻求规范化发展。只有这样,我们才能更好地享受AI带来的红利,同时避免其带来的潜在风险。