人工智能安全模型及其面临的威胁与防御技术
目录
- 引言
- AI 技术与安全模型
- 安全技术
- AI 安全问题分类
- AI技术面临的三大威胁
- AI模型安全性问题
- AI数据与隐私安全性问题
- AI系统安全性问题
- AI 威胁常用防御技术
- AI 应用系统一站式安全解决方案
- 行业介绍
- 多维对抗与AI SDL
- 总结与展望
引言
本文探讨了AI技术在模型、数据、承载系统上对安全性的要求,用保密性、完整性、鲁棒性、隐私性来定义AI技术的安全模型,并总结了人工智能安全目前面临的三大威胁:AI模型安全性问题、AI数据与隐私安全性问题,以及AI系统安全性问题。针对这些威胁,提出了不同的防御方法,包括数据投毒攻击、对抗样本攻击和数据隐私威胁。但在实际场景中,AI系统遇到的威胁往往十分复杂,仅靠单一的防御技术无法有效抵御实际威胁。因此,本文总结了大厂采用的AI安全解决方案,再从中提炼出一套涵盖面更广泛的AI安全解决方案,主要包括多维对抗和AI SDL。
AI 技术与安全模型
2.1 安全技术
AI技术的安全性涉及多个方面,包括模型的保密性、完整性、鲁棒性和隐私性。这些特性确保AI系统在面对各种攻击时能够保持其功能和数据的完整性。例如,保密性要求AI技术生命周期内所涉及的数据与模型信息不会泄露给未授权用户;完整性要求算法模型、数据、基础设施和产品不被恶意植入、篡改、替换和伪造;鲁棒性要求AI技术在面对复杂应用场景和恶意样本时具有稳定性;隐私性则要求在正常构建使用的过程中能够保护数据主体的数据隐私。
2.2 AI 安全问题分类
根据AI技术涉及的三方面:模型、数据、承载系统,将AI安全威胁分为三个大类别,即AI模型安全、AI数据安全与AI承载系统安全。其中,AI模型安全问题包括训练完整性威胁和测试完整性威胁等;AI数据安全问题主要涉及利用模型查询结果的模型窃取和隐私泄露;AI承载系统安全问题则包括软件漏洞和硬件设备安全问题。
AI技术面临的三大威胁
3.1 AI模型安全性问题
AI模型在训练与运行阶段可能遭受功能破坏威胁,如数据投毒攻击和后门攻击,这些攻击破坏了模型的训练完整性。此外,测试阶段的对抗样本攻击也威胁着模型的测试完整性。这些问题如果解决不当,将很难保证AI模型的安全可靠。
3.2 AI数据与隐私安全性问题
数据是AI技术的核心驱动力,但攻击者可以通过多种方式窃取AI模型的数据。例如,基于模型输出结果的数据泄露和基于梯度更新的数据泄露。这些数据泄露攻击严重威胁着用户的隐私和数据安全。
3.3 AI系统安全性问题
承载AI技术的应用系统面临着与传统计算机安全相似的威胁,如软件漏洞和硬件设备安全问题。这些问题可能导致数据泄露、信息篡改和服务拒绝等安全问题。
AI 威胁常用防御技术
为了应对上述威胁,学术界与工业界提出了多种防御技术。这些技术覆盖了数据收集、模型训练、模型测试以及系统部署等AI应用的生命周期,充分考虑了每个阶段可能引发的安全与隐私泄露威胁。例如,为了防止数据投毒攻击,研究者提出了利用聚类模型激活神经元来区分毒化和干净的数据的防御方法;为了防止对抗样本攻击,研究者提出使用JPEG压缩、滤波操作等方法对输入数据进行预处理。
AI 应用系统一站式安全解决方案
在实际场景中,AI系统遇到的威胁往往十分复杂,仅靠单一的防御技术无法有效抵御实际威胁。因此,本文总结了大厂采用的AI安全解决方案,主要包括多维对抗和AI SDL。多维对抗的核心理念是把攻防链路进行切面深度数据化,再充分融合机器智能和专家智能,结合威胁情报,化被动防御为主动攻防。而AI SDL则从安全角度指导AI模型开发过程的管理模式,通过安全指导AI模型的生命周期保障其安全性。
总结与展望
人工智能技术已广泛应用于多个场景,加速了传统行业的智能化变革。然而,其安全性问题也越来越被人们关注。本文聚焦于人工智能安全问题,从AI模型、AI数据和AI承载系统三个角度系统地总结了人工智能技术所面临的威胁及其防御手段,并面向工业界给出了安全的人工智能应用一站式解决方案。为了应对实际场景中复杂的威胁以及不断变化的威胁手段,AI安全研究人员更应从人工智能模型的可解释性等理论角度出发,从根本上解决人工智能模型所面临的安全问题。