如何通过 SmoothQuant 解决激活值离群点难题:实现端侧 LLM 全量化推理的关键
1. 为什么 LLM 全量化这么难? 在端侧部署大语言模型(LLM)时,W8A8(权重和激活均为8位)全量化是极致加速和节省内存的核心。然而,LLM 在推理时,激活值(Activations)中常会出现极少数数值巨大的“离群点”(Outli...
1. 为什么 LLM 全量化这么难? 在端侧部署大语言模型(LLM)时,W8A8(权重和激活均为8位)全量化是极致加速和节省内存的核心。然而,LLM 在推理时,激活值(Activations)中常会出现极少数数值巨大的“离群点”(Outli...
如何在 Android 端优雅处理 TFLite 模型动态尺寸推理而无需频繁重构计算图 在移动端 AI 开发中,我们经常遇到输入尺寸不固定的场景,如 OCR 识别(文本行长度不一)、超分辨率(图片尺寸各异)或音频处理(时长不同)。传统的做法...
背景:为什么 AI 推理需要 TEE? 在端侧 AI 场景中,模型权重和用户隐私数据(如人脸特征、生物信息)通常是最高级别的核心资产。传统的推理过程在 CPU 或 GPU 的通用内存中进行,极易受到 Root 提权攻击或恶意内存扫描。TEE...
背景 在端侧 AI 部署中,INT8 量化是性能优化的必经之路。但开发者常遇到这样的怪事:同一套浮点权重,在 ncnn 下量化后精度尚可,但在 MNN 下却出现预测结果完全不可用的“崩坏”现象。这并非框架本身的 Bug,而是由量化标准实现、...
如何通过 ncnn 的 Mat 结构理解端侧内存对齐:详解 32 字节对齐对 SIMD 加速的意义 在高性能端侧推理框架(如腾讯的 ncnn)中,性能优化往往精确到每一位内存布局。在阅读 ncnn 源码时,你会发现其核心数据结构 ncnn:...
如何针对瑞芯微 RK3588 NPU 进行算子裁剪与加速:实现边缘 AI 的极致响应 在边缘计算领域,瑞芯微 RK3588 以其 6TOPS 的 NPU 算力成为国产芯片的佼佼者。然而,许多开发者发现直接部署模型时,推理速度远达不到预期。这...
背景 随着《个人信息保护法》等法规的完善,开发者在处理用户数据(如人脸、语音、健康数据)时面临巨大的合规压力。传统的云端训练需要将原始数据上传服务器,这存在严重隐私风险。端侧训练(On-device Learning)技术通过在用户手机本地...
MediaPipe 是 Google 开源的一个跨平台、可定制的机器学习框架,它在端侧推理和实时数据流处理方面表现出色。手势识别(如 MediaPipe Hands)是其最经典的用例之一。理解 MediaPipe 如何调度其内部的多任务处理...
随着大模型(LLM)的飞速发展,将这些强大的AI能力部署到资源受限的手机等端侧设备上,成为了AI工程化的一大挑战。Llama系列模型虽然效果优秀,但其巨大的参数量和高昂的内存需求,使得直接部署几乎不可能。本文将详细讲解如何通过4-bit量化...
在资源受限的端侧设备(如手机、IoT设备)上部署深度学习模型时,模型量化(通常是转换为INT8)是降低延迟和功耗的关键技术。然而,量化方案并非只有一种。本文将对比静态离线量化(Static Post-Training Quantizatio...