如何为金融业AI模型的巴塞尔协议和监管技术要求提供技术支持?
金融行业的AI模型,尤其是用于信贷风险评估、市场风险量化和欺诈检测的模型,必须满足严苛的监管要求,例如巴塞尔协议(Basel Accords)关于模型风险管理的要求,以及美联储的SR 11-7指引。这些规定核心要求是模型的可追溯性、可解释性...
金融行业的AI模型,尤其是用于信贷风险评估、市场风险量化和欺诈检测的模型,必须满足严苛的监管要求,例如巴塞尔协议(Basel Accords)关于模型风险管理的要求,以及美联储的SR 11-7指引。这些规定核心要求是模型的可追溯性、可解释性...
为什么 ZeRO-3 能让单卡跑起“塞不下”的模型? 随着大语言模型(LLM)的尺寸不断膨胀,GPU的显存往往成为训练过程中的最大瓶颈。一个1750亿参数的模型(如GPT-3),即使使用混合精度(FP16/BF16),仅参数、梯度和优化器状...
导言:为什么我们需要因果解释? 在AI模型部署中,可解释性(XAI)是信任和合规性的基石。然而,传统的XAI方法如LIME和SHAP,本质上是基于特征的局部相关性(Association)。它们能回答“哪些特征导致了当前的预测结果?”,但无...
在将AI模型部署到生产环境时,公平性(Fairness)已成为与性能(Accuracy)同等重要的指标。然而,去偏见技术常常伴随着一个核心挑战:公平性提升是否会以牺牲模型的整体预测性能为代价? 本文将深入探讨如何通过一种实用的AI基础设施技...