汤不热吧

欢迎光临
我们一直在努力

最新发布 第13页

ai-infra

假如你是架构师:如何在保持低延时的前提下,利用多副本模型支撑百万级的并发长文本请求?

andy阅读(40)评论(0)

作为架构师,支撑百万级的并发长文本(如大模型推理)请求,同时保证低延时,是一个极具挑战性的任务。长文本推理的挑战在于:推理时间长(Token生成速度慢),且显存消耗大(KV Cache占用)。纯粹的增加服务器并不能解决根本问题,我们需要一套...

VPS和建站

几百 GB 的附件,从旧机器搬到新机器,怎么传最快?

andy阅读(52)评论(0)

对于个人站长来说,当旧的VPS或虚拟机性能不足,需要将网站(尤其是包含数百GB附件、媒体文件或备份)迁移到新的高性能机器时,如何快速、不中断地传输海量数据是一个关键挑战。传统的FTP或SCP传输效率低下且容易断线。 我们将使用行业标准的命令...