怎样在数据集(如CIFAR-10)中植入隐蔽的后门攻击?
在AI模型的生命周期中,数据投毒(Data Poisoning)是一种严重的供应链安全威胁。攻击者通过向训练集中植入携带“后门”触发器(Trigger)的恶意样本,使得模型在部署后对常规输入表现正常,但一旦输入中包含特定触发器,模型就会做出...
在AI模型的生命周期中,数据投毒(Data Poisoning)是一种严重的供应链安全威胁。攻击者通过向训练集中植入携带“后门”触发器(Trigger)的恶意样本,使得模型在部署后对常规输入表现正常,但一旦输入中包含特定触发器,模型就会做出...
在AI模型部署到生产环境之前,模型安全审计是至关重要的环节。后门攻击(Backdoor Attack)是一种隐蔽性极强的威胁,它使得模型在遇到特定微小触发器(Trigger)时,会产生预期的恶意输出,而在正常输入下表现如常。对于AI基础设施...