Checkpoint 重计算技术:用时间换空间,解决大模型训练 OOM 的最后一根稻草
梯度检查点(Checkpointing Recomputation):用时间换空间的终极手段 随着深度学习模型规模的爆炸式增长,特别是大型语言模型(LLMs)的出现,训练过程中 GPU 显存不足(OOM, Out Of Memory)成为了...
梯度检查点(Checkpointing Recomputation):用时间换空间的终极手段 随着深度学习模型规模的爆炸式增长,特别是大型语言模型(LLMs)的出现,训练过程中 GPU 显存不足(OOM, Out Of Memory)成为了...
如何使用 PyTorch FSDP 解决超大模型单卡显存不足问题 随着大语言模型(LLM)的参数量突破百亿甚至万亿级别,传统的分布式训练方案(如DDP,数据并行)已经无法满足需求,因为DDP要求每张GPU都复制完整的模型权重、梯度和优化器状...
为什么 ZeRO-3 能让单卡跑起“塞不下”的模型? 随着大语言模型(LLM)的尺寸不断膨胀,GPU的显存往往成为训练过程中的最大瓶颈。一个1750亿参数的模型(如GPT-3),即使使用混合精度(FP16/BF16),仅参数、梯度和优化器状...
在训练大规模深度学习模型(特别是LLMs)时,单块GPU的计算能力和内存往往无法满足需求。分布式训练是解决这一问题的核心手段。面试中,区分数据并行(DP)、模型并行(MP/TP)和流水线并行(PP)及其切分依据,是考察候选人分布式系统理解能...
计算机体系结构中有一个长期存在的瓶颈,称为“内存墙”(Memory Wall)。它描述了处理器速度增长(基于摩尔定律)远快于内存访问速度和带宽增长的现象。对于传统的CPU计算任务,这早已是性能限制因素;而对于今天的大型语言模型(LLMs),...
在智能座舱(Smart Cockpit)系统中,视觉模型(如高分辨率感知、驾驶员/乘客监控DMS/OMS模型)往往体积庞大且计算密集。单个算力单元(如特定的NPU或DSP)可能无法提供足够的内存或吞吐量。模型分片(Model Shardin...
在训练深度学习模型,尤其是如Transformer这类拥有数百甚至数千层的超大模型时,GPU显存往往成为瓶颈。标准的反向传播算法需要存储前向传播中每层的所有中间激活值(Activations),以便在计算梯度时使用,这消耗了大量的显存。当模...
在现代人工智能,特别是大型语言模型(LLM)的训练中,GPU的核心计算能力(TFLOPS)固然重要,但常常被忽视的瓶颈是数据移动的速度。本文将详细解释GPU中使用的HBM(High Bandwidth Memory,高带宽显存)技术,以及为...
在AI模型部署,尤其是涉及信贷、招聘或司法等高风险场景时,确保模型决策的公平性(Fairness)至关重要。传统的公平性指标(如群体平等机会或统计奇偶性)仅能发现群体偏差,但无法解释模型对特定个体的决策是否公平。 反事实分析(Counter...
在AI模型部署实践中,我们常常依赖总体准确率(Overall Accuracy)作为衡量模型性能的主要指标。然而,对于数据分布极度不均衡的场景,特别是针对少数或数据匮乏的群体(如特定的语言使用者、罕见疾病患者或特定的地理区域用户),高企的总...