MNN 与 ncnn 深度对比:针对不同移动端芯片(高通 vs 联发科)如何选型框架
在移动端 AI 推理领域,MNN(阿里巴巴)和 NCNN(腾讯)是两个最受欢迎的深度学习推理框架。它们的性能差异往往取决于底层的硬件加速能力和驱动适配情况,尤其是在面对高通(Qualcomm Adreno)和联发科(MediaTek Mal...
在移动端 AI 推理领域,MNN(阿里巴巴)和 NCNN(腾讯)是两个最受欢迎的深度学习推理框架。它们的性能差异往往取决于底层的硬件加速能力和驱动适配情况,尤其是在面对高通(Qualcomm Adreno)和联发科(MediaTek Mal...
在传统的操作系统(OS)中,计算的最小单位是进程(Process)或线程(Thread)。应用程序通过调用系统API,由进程负责资源的分配(CPU时间片、内存空间、I/O访问)。这种模型在处理通用计算任务时非常高效,但面对现代AI和大数据的...
概述:AI公平性透明度的技术挑战 近年来,针对AI系统决策的公平性和透明度要求日益严格。以美国加州为例,未来可能出台的法规将要求AI系统明确披露其在不同受保护群体(如种族、性别、年龄等)上产生的偏差影响。对于AI基础设施和模型部署团队而言,...
循环分块(Loop Tiling),也称为循环阻塞(Loop Blocking),是高性能计算中优化内存局部性(Temporal and Spatial Locality)的关键技术。通过将大型计算任务分解为可放入缓存(Cache)的小块,...
在高性能计算和深度学习推理领域,我们经常遇到这样的瓶颈:模型计算量不大,但由于由大量细小、串联的计算操作(Kernel)组成,导致整体性能不佳。瓶颈不在于GPU的计算能力(SMs),而在于CPU与驱动层(Driver)频繁通信以发射(Lau...
在将深度学习模型部署到移动端或嵌入式设备时,模型的大小和推理速度是至关重要的指标。许多从PyTorch或TensorFlow导出的ONNX模型,在计算图中包含大量冗余节点、不必要的初始化器(Initializers)或可合并的常量操作(如S...
在当前的大模型(LLM)时代,NVIDIA H100 Tensor Core GPU 是训练和推理的主力核心。但一块 H100 GPU 本身并不能单独完成大规模训练任务。AI 服务器的设计精髓在于如何高效地将多块 H100 连接起来,形成一...
在AI模型部署中,偏见(Bias)和公平性(Fairness)评估往往是脱节的:数据科学家生成报告,然后需要人工审查来决定模型是否安全。要真正将偏见评估结果转化为业务决策,我们需要将其嵌入到持续集成/持续部署(CI/CD)流程中,作为模型发...
在将复杂的 TensorFlow 模型部署到端侧(如移动设备或嵌入式系统)时,我们通常需要使用 TensorFlow Lite (TFLite) 转换器。然而,当模型中包含自定义层、复杂的控制流或某些非核心 TensorFlow 算子时,转...
模型量化(Quantization)是端侧推理加速的关键技术之一,它将浮点数(FP32)权重和激活值转换为低比特整数(如INT8),显著减少了模型大小并提高了计算效率。然而,量化方式的选择——特别是对称量化(Symmetric Quanti...