RDMA 与 RoCE v2 深度解析:为什么大模型训练离不开这种“零拷贝”网络
如何利用RDMA/RoCE v2实现大模型训练的极致加速:深度解析‘零拷贝’网络通信 随着AI模型规模(如LLM)的爆炸式增长,分布式训练已成为常态。然而,传统的网络通信方式(基于TCP/IP)在多GPU节点间传输海量梯度和参数时,会造成严...
如何利用RDMA/RoCE v2实现大模型训练的极致加速:深度解析‘零拷贝’网络通信 随着AI模型规模(如LLM)的爆炸式增长,分布式训练已成为常态。然而,传统的网络通信方式(基于TCP/IP)在多GPU节点间传输海量梯度和参数时,会造成严...
FlashAttention v1/v2 演进史:它是如何通过减少显存读写让速度飞起来的 自Transformer架构诞生以来,Attention机制一直是其核心但也是性能瓶颈所在。当序列长度 $N$ 增大时,标准Attention的计算复...