发布人:管理员 发布时间:2022-12-17
风险点 |
阶段 |
风险描述及危害 |
数据投毒 |
数据获取 |
训练数据植入被修改的样本,使模型效果不佳, 或定向使得某些实例被检测为指定的结果 |
模型后门注入 |
数据获取 |
模型植入部分具有特定模式特征的样本,训练后使模型产生后门 |
数据滥用 |
数据获取 |
可能使用未经用户授权的数据,或者用户要求“遗忘”的数据,造成法律风险 |
不安全的数据存储 |
数据整理 |
不安全的数据存储环境或配置管理缺陷,可能 导致数据泄露,造成数据隐私泄露 |
风险 |
阶段 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
风险点 |
阶段 |
风险描述及危害 |
数字对抗样本 |
模型部署应用 |
在数字形态的模型输入中添加定向的噪声,欺骗模型,做出错误的预测 |
物理对抗攻击 |
模型部署应用 |
将数字形态对抗样本在物理世界中实现,造成模型错误预测,也可以定向添加噪声 |
模型后门触发 |
模型部署应用 |
输入数据中具有特定的模式,促使模型给出指定的结果,与正常推理相违背 |
模型窃取 |
模型部署应用 |
模型参数被窃取,AI模型被逆向获取,造成企业核心竞争力AI资产损害 |
模型逆向 |
模型部署应用 |
构造特殊的输入及查询模型,通过输出结果来还原输入数据(可为训练集中样本),从而造成数据隐私泄露 |
成员推理攻击 |
模型部署应用 |
利用模型输出置信度分布特征,判断某一样本数据是否在训练数据集中,造成训练集中数据隐私泄露 |
对抗资源消耗攻击 |
模型部署应用 |
利用对抗手段分析模型推理资源消耗,构造样本造成模型推理损耗提高,造成拒绝服务 |
输入预处理攻击 |
模型部署应用 |
攻击者对输入预处理方法(例如图片的预处理缩放算法)进行攻击,向其中定向[敏感词]扰动,使得输入发生顶下扰动,欺骗模型做出错误预测 |
反馈更新投毒 |
模型更新 |
很多模型引入了用户反馈对模型进行更新,攻击者利用投毒反馈数据来对模型进行“诱导”,为攻击谋利 |
AI硬件后门 |
模型部署应用 |
硬件环境中植入后门,在模型部署后使用该硬件执行时触发后门 |
模型部署文件篡改 |
模型部署应用 |
模型部署环境可能存在漏洞,导致模型文件被恶意篡改,植入后门或者窃取信息 |
AI模型侧信号窃取 |
模型部署应用 |
利用AI模型运行时CPU、内存等资源进行侧信道分析, 能够实现对模型的关键信息窃取 |
软件&系统漏洞 |
模型部署应用 |
模型所属业务系统,与传统软件&系统安全面临的威胁相同,可能导致模型泄露或执行恶意程序 |
AI模型滥用 |
模型部署应用 |
AI模型服务被攻击者利用做恶意用途,可能造成危害 |