如何用Foolbox/ART工具箱生成针对图像分类模型的PGD对抗样本?
深入理解与实践:使用Foolbox生成L-inf PGD对抗样本 在AI模型部署到生产环境时,模型的鲁棒性(Robustness)是与准确性同等重要的指标。对抗样本(Adversarial Examples)揭示了深度学习模型的脆弱性。其中...
深入理解与实践:使用Foolbox生成L-inf PGD对抗样本 在AI模型部署到生产环境时,模型的鲁棒性(Robustness)是与准确性同等重要的指标。对抗样本(Adversarial Examples)揭示了深度学习模型的脆弱性。其中...
在AI模型部署到真实世界场景中时,一个关键的挑战是模型对于“自然损坏”(Natural Corruptions)的抵抗能力。这些损坏包括雾、雪、亮度变化、数字噪声等。ImageNet-C(ImageNet-Corrupted)基准是量化模型...
在AI模型,特别是大语言模型(LLM)被用于高价值、高风险决策的场景中(如金融风控、医疗诊断或关键基础设施控制),对其进行严格的红队测试(Red Teaming)是确保鲁棒性和安全性的关键步骤。红队测试的目标不仅仅是发现传统的软件漏洞,更重...
在AI模型部署到生产环境,尤其是自动驾驶或医疗等安全攸关领域时,模型的鲁棒性是至关重要的。量化模型的鲁棒性边界,即找到导致模型分类失败的最小输入扰动,是保障系统可靠性的关键步骤。本文将深入探讨如何利用像NVIDIA的VerifAI这样的形式...
在AI模型部署中,数据隐私是一个核心且日益受到关注的问题。成员推断攻击(Membership Inference Attack, MIA)是一种常见的隐私泄露风险测试方法。攻击者试图判断某个特定的数据点是否被用于模型的训练集。 当模型过拟合...
在AI模型部署到生产环境之前,模型安全审计是至关重要的环节。后门攻击(Backdoor Attack)是一种隐蔽性极强的威胁,它使得模型在遇到特定微小触发器(Trigger)时,会产生预期的恶意输出,而在正常输入下表现如常。对于AI基础设施...
模型窃取(Model Stealing)是一种严重的知识产权威胁,攻击者通过反复查询目标模型的API接口,收集输入-输出对,然后利用这些数据训练一个功能相似的“窃取模型”。这种黑盒提取(Black-Box Extraction)方法,特别是...
简介:为什么传统威胁模型在AI领域失效? 随着AI模型大规模投入生产环境,针对AI基础设施的攻击面急剧扩大。传统的威胁建模方法,例如STRIDE(Spoofing, Tampering, Repudiation, Information D...
在现代AI基础设施中,模型的知识产权(IP)保护和用户数据的隐私保护至关重要。这意味着我们需要在数据处于静止状态(Encryption at Rest,如存储在磁盘或S3上)以及数据传输状态(Encryption in Transit,如A...
简介:大模型时代下的隐私挑战 随着大型语言模型(LLM)的广泛应用,模型输出中意外泄露敏感个人信息(PII,Personally Identifiable Information)的风险日益增加。这可能是由于训练数据泄露、模型幻觉、或用户在...