如何保护基于AI的恶意软件检测系统免受对抗样本攻击?
AI模型在恶意软件检测领域展现出强大的能力,但它们天生容易受到对抗样本(Adversarial Examples)的攻击。攻击者可以通过对恶意文件(如PE文件)进行微小、人类不可察觉的字节级修改,使其成功逃避最先进的深度学习分类器的检测。本...
AI模型在恶意软件检测领域展现出强大的能力,但它们天生容易受到对抗样本(Adversarial Examples)的攻击。攻击者可以通过对恶意文件(如PE文件)进行微小、人类不可察觉的字节级修改,使其成功逃避最先进的深度学习分类器的检测。本...