PD 分离架构:将 LLM 的预填充与生成阶段放在不同显卡上跑的收益分析
大型语言模型(LLM)的推理过程通常分为两个截然不同的计算阶段:预填充(Pre-fill)和生成(Decode)。这两个阶段的计算和资源需求特性存在巨大差异,如果在同一块GPU上混合执行,往往会导致资源利用率低下,尤其是在高并发的服务环境中...
大型语言模型(LLM)的推理过程通常分为两个截然不同的计算阶段:预填充(Pre-fill)和生成(Decode)。这两个阶段的计算和资源需求特性存在巨大差异,如果在同一块GPU上混合执行,往往会导致资源利用率低下,尤其是在高并发的服务环境中...
概述:为什么需要分布式 Faiss 检索 随着深度学习模型产生的向量维度和数量爆炸式增长(例如,十亿级以上的向量),单台服务器的内存和计算能力(即使配备了多张高性能 GPU)也难以完全容纳和处理。Faiss 提供了强大的机制来应对这种超大规...