欢迎光临
我们一直在努力

人工智能和大数据

第58页

ChatGPT内部使用PyTorch还是TensorFlow?

andy阅读(300)评论(0)

许多人好奇,像ChatGPT这样的大型语言模型(LLM)底层究竟使用了PyTorch还是TensorFlow?答案是:虽然两者都极其优秀,但在大型生成式AI(尤其是OpenAI/Meta/Hugging Face生态)领域,PyTorch占...

如何通过部署输出扰动来有效防御模型反演攻击?

andy阅读(172)评论(0)

简介:模型反演攻击 (MIA) 的威胁 模型反演攻击(Model Inversion Attack, MIA)是一种严重的隐私泄露威胁,它允许攻击者仅通过访问模型的输出(如置信度分数或 Logits)来重构出训练数据中的敏感特征。例如,在人...

如何利用可解释性(XAI)工具来诊断模型的鲁棒性弱点?

andy阅读(424)评论(0)

在AI模型从开发环境走向生产环境的过程中,模型的鲁棒性(Robustness)是保障服务质量和安全的关键因素。不鲁棒的模型可能因为微小的输入扰动(例如对抗性攻击、传感器噪声)而产生灾难性的错误。可解释性AI(XAI)工具,尤其是基于特征归因...

量化(Quantization)模型后,如何重新评估其鲁棒性?

andy阅读(427)评论(0)

模型量化(Quantization)是将浮点精度(FP32)的模型权重和激活值转换为较低精度(通常是INT8)的过程,以显著减少模型大小、降低内存带宽需求并加速推理。然而,这种精度降低不可避免地引入了量化误差,这不仅可能导致模型的基线精度略...

如何针对时序预测模型发起扰动攻击并评估其业务影响?

andy阅读(428)评论(0)

在金融、供应链和能源管理等领域,时序预测模型(如LSTM或Transformer)是核心决策依据。然而,这些模型对输入数据的微小、恶意修改异常敏感。评估时序模型的鲁棒性是模型部署阶段至关重要的环节。本文将聚焦于如何使用最经典的对抗攻击方法—...