详解 PTQ 后量化与 QAT 训练中量化:为何你的模型在手机端精度断崖式下跌
如何解决模型PTQ后在端侧精度断崖式下跌的问题:详解PTQ与QAT量化技术 随着AI模型部署到手机、IoT设备等端侧硬件的需求日益增加,模型量化(Quantization)成为了提升推理速度和减少内存占用的关键技术。然而,许多开发者发现,在...
如何解决模型PTQ后在端侧精度断崖式下跌的问题:详解PTQ与QAT量化技术 随着AI模型部署到手机、IoT设备等端侧硬件的需求日益增加,模型量化(Quantization)成为了提升推理速度和减少内存占用的关键技术。然而,许多开发者发现,在...
在脱离了熟悉的 CUDA 生态后,针对华为昇腾(Ascend)硬件进行深度学习模型推理性能优化,是许多开发者需要面临的挑战。昇腾平台的核心是 CANN(Compute Architecture for Neural Networks)工具链...
金融行业的AI模型,尤其是用于信贷风险评估、市场风险量化和欺诈检测的模型,必须满足严苛的监管要求,例如巴塞尔协议(Basel Accords)关于模型风险管理的要求,以及美联储的SR 11-7指引。这些规定核心要求是模型的可追溯性、可解释性...
混合专家模型(Mixture-of-Experts, MoE)通过稀疏激活实现模型扩展,显著提升了参数量和训练效率。然而,其核心组件——路由器(Router)——在将输入Token分配给不同专家(Expert)时,带来了两大基础设施挑战:专...
TensorFlow Serving (TFS) 是生产环境中部署模型的标准工具。在AI应用迭代速度极快的今天,如何在不中断服务的情况下更新模型(模型热更新,或零停机切换)成为了关键挑战。TFS通过其内置的模型版本管理机制,完美地解决了这个...
如何通过 tf.lite.Optimize 实现权重量化:让你的模型在移动端实现 4 倍压缩 1. 为什么需要权重量化? 在将深度学习模型部署到资源受限的移动设备(如手机、IoT设备)时,模型的体积和推理速度是关键瓶颈。标准的深度学习模型(...
SavedModel 格式详解:为什么它是 TensorFlow 生产环境下模型持久化的唯一真神 在 TensorFlow 生态系统中,模型持久化有两种常见方式:Keras H5 格式(.h5)和 SavedModel 格式。虽然 H5 格...
如何理解和实践Java双亲委派模型的四种“破坏”与修正机制nnJava虚拟机中的双亲委派模型(Parent Delegation Model, DPDM)是保证类加载安全性和唯一性的核心机制。它要求类加载请求首先委派给父加载器,直到顶层的启...
训练大型语言模型(LLM)是计算密集型任务,其成本往往以GPU-Hours(GPU小时数)来衡量。准确估算这一指标,是项目规划和预算控制的关键。本文将基于LLM训练的算力基础公式(Chinchilla Scaling Laws),提供一个实...
在现代 MLOps 实践中,模型资产的合规性和可解释性变得越来越重要。无论是为了满足内部审计要求还是遵循外部监管法规(如欧盟的《人工智能法案》),为每个模型版本提供一份详尽的合规文档(通常称为 Model Card)是必不可少的。然而,手动...