摩尔线程 MUSA 架构详解:如何利用兼容 CUDA 的编程接口快速迁移现有深度学习项目
引言 随着国产 GPU 算力的快速发展,摩尔线程推出的 MUSA (Moore Threads Unified System Architecture) 架构因其对 CUDA 生态的高度兼容性,成为 AI 开发者实现国产化替代的首选路径之一...
引言 随着国产 GPU 算力的快速发展,摩尔线程推出的 MUSA (Moore Threads Unified System Architecture) 架构因其对 CUDA 生态的高度兼容性,成为 AI 开发者实现国产化替代的首选路径之一...
如何通过 AclLite 封装大幅简化昇腾推理程序的开发流程 在国产昇腾(Ascend)芯片上进行 AI 推理开发时,开发者通常需要直接面对 CANN (Compute Architecture for Neural Networks) 的...
怎么解决深度学习模型在不同手机芯片上的推理结果不一致问题 在将AI模型部署到移动端(如安卓或iOS)时,开发者经常发现同样的模型在不同手机上的输出结果存在微小差异。这种现象在跨芯片平台(如从高通骁龙迁移到联发科天玑)或跨推理后端(如从CPU...
在 Android 端侧推理项目中,我们通常需要集成各种高性能计算库(如 TNN, MNN, NCNN 或 TensorFlow Lite的自定义 Delegate),这些库都以 .so 动态链接库的形式提供。管理这些 .so 文件面临两大...
在云原生环境中,尤其是 Kubernetes 集群中,日志管理面临巨大的挑战:容器的短暂生命周期、日志输出的分散性以及对高性能、低延迟的需求。日志的统一收集、存储和分析是保障系统稳定运行和快速排障的关键。 本文将聚焦于最流行的云原生日志架构...
华为昇腾(Ascend)系列芯片搭载了基于达芬奇(DaVinci)架构的NPU,旨在提供极致的AI推理性能。然而,将PyTorch或TensorFlow训练的模型部署到昇腾NPU上,需要经过严格的图优化和格式转换。本文将聚焦于使用核心工具A...
在传统的 Kubernetes 部署中,即使应用长时间处于闲置状态,也会保持至少一个或多个 Pod 运行,这导致了计算资源的浪费。Serverless 架构的核心优势之一就是能够按需启动和关闭应用,实现“零副本”待机。Knative,作为构...
随着大模型的体积不断增长,如何在资源受限的端侧设备上高效运行这些模型成为了关键挑战。Apple M系列芯片,特别是最新的M3系列,通过其独特的统一内存架构(Unified Memory Architecture, UMA),为端侧大模型推理...
存算一体架构(CIM):AI算力下一阶段的性能飞跃还是工程挑战? 随着AI模型(尤其是大语言模型和Transformer架构)的规模爆炸式增长,对算力的需求也急剧上升。然而,传统的冯·诺依曼(Von Neumann)架构正在成为限制AI加速...
Megatron-LM是由NVIDIA开发的一套用于训练超大规模语言模型的框架。随着模型参数量突破万亿级别,任何单一的并行技术都难以高效地在有限的硬件资源上完成训练。Megatron-LM通过巧妙地结合三种主要的并行策略——张量并行(Ten...