跳转至

服务与批处理

向数千并发用户提供LLM服务需要的不只是加载模型和运行推理。本文涵盖预填充-解码分离、连续批处理、PagedAttention和vLLM、调度策略、分离式服务、多模型和LoRA服务,以及关键指标

  • 单个LLM推理请求很简单:输入token,生成输出token。但要向10,000个并发用户提供低延迟、高吞吐量的LLM服务,这是一个系统工程问题。朴素方法(一次处理一个请求)浪费了90%以上的GPU容量。智能批处理和调度可以在不增加硬件的情况下将吞吐量提高10-50倍。

预填充 vs 解码:两个截然不同的阶段

  • LLM推理有两个不同的阶段,具有根本不同的计算特征:

  • 预填充(提示处理):同时处理所有输入token。这是一个单次大规模矩阵乘法:\(O(\text{prompt\_length} \times d_{\text{model}}^2)\)。提示可以并行处理(所有token都已知)。预填充是计算受限的:GPU的ALU是瓶颈。

  • 解码(token生成):自回归地一次生成一个token。每个新token需要通过KV缓存关注所有先前的token。解码是内存带宽受限的:GPU大部分时间花在从内存加载模型权重和KV缓存上,而不是计算。每个解码步骤只产生一个token,但必须加载整个模型(70B FP16模型约140 GB)。

  • 含义:

预填充 解码
处理的token 一次性全部(并行) 一次一个(顺序)
瓶颈 计算(FLOPS) 内存带宽
算术强度 非常低
GPU利用率 高(50-80%) 低(1-10%),无批处理时
延迟指标 首token时间(TTFT) 每输出token时间(TPOT)
  • TTFT影响用户体验(多久直到响应开始流式传输)。TPOT决定感知的生成速度。用户可以容忍较高的TTFT(1-5秒),但期望快速的TPOT(对话应用每token 30-100毫秒)。

静态批处理(朴素方法)

  • 最简单的批处理:收集\(B\)个请求,填充到相同长度,作为单个批次处理。

  • 问题1:请求有不同的提示长度,并生成不同数量的输出token。短请求提前完成,但必须等待批次中最长的请求完成后才能开始下一个批次。GPU在为剩余的一个长请求生成token时处于空闲状态。

  • 问题2:填充浪费计算。如果最长提示是2000个token,最短是50个,批次被填充到2000。GPU为短请求处理了1950个填充token——纯属浪费。

静态批处理在等待最长请求时浪费GPU槽位;连续批处理立即填充释放的槽位

连续批处理

  • 连续批处理(也称为迭代级批处理)通过在单个解码步骤的粒度上操作来解决这两个问题,而不是整个请求。

  • 在每个解码步骤:

    1. 所有进行中的请求并行生成一个token(作为一个批次)。
    2. 完成的请求(生成EOS token)立即从批次中移除
    3. 队列中的新请求立即插入到释放的槽位中。
  • 批次大小每步动态变化。GPU从不等候落后者,也没有浪费的填充(每个请求只使用它需要的槽位)。

  • 影响:连续批处理通常比静态批处理提高吞吐量2-10倍,模型质量不变且延迟无明显增加。

PagedAttention和vLLM

  • KV缓存造成了一个内存管理噩梦。每个请求都有一个随着每个生成的token而增长的KV缓存。不同请求处于不同阶段(不同缓存大小)。为每个请求分配连续内存浪费空间(必须为最大可能长度分配,即使请求只生成几个token)。

PagedAttention将虚拟KV缓存页映射到非连续的物理GPU内存,消除碎片并实现按需分配

  • PagedAttention(Kwon等人,2023)将操作系统虚拟内存的概念(第13章)应用于KV缓存。缓存被划分为固定大小的(token位置的块)。页按需分配,在物理GPU内存中可以是非连续的。

  • 优势:

    • 无碎片:页大小统一,因此请求之间没有浪费内存的"空洞"。
    • 惰性分配:仅在token实际生成时分配内存,而不是预分配最大长度。
    • 写时复制:共享共同前缀(例如系统提示)的请求共享相同的KV缓存页。仅当请求分叉时才复制页。
  • vLLM是基于PagedAttention构建的推理引擎。通过几乎消除KV缓存内存浪费,它实现了比静态分配服务(如没有分页注意力的HuggingFace text-generation-inference)高2-4倍的吞吐量。

调度策略

  • 当多个请求在等待且GPU只能处理有限批次时,调度决定服务哪些请求:

  • 先来先服务(FCFS):按到达顺序处理请求。简单但不公平:一个提交10K-token生成的用户会阻塞所有后面的用户。

  • 最短作业优先(SJF):处理最先完成的请求。最小化平均延迟,但惩罚长时间运行的请求(它们可能被饿死)。在实践中,估计输出长度未知,因此SJF使用启发式方法(提示长度、用户历史)。

  • 抢占:如果高优先级请求到达,暂停低优先级的进行中请求(将其KV缓存交换到CPU内存或SSD),服务高优先级请求,然后恢复暂停的请求。vLLM支持此功能。

  • 基于优先级:为用户或请求类型分配优先级。实时交互查询比批处理作业获得更高优先级。结合抢占,这确保高优先级流量的延迟SLO。

  • Token预算:限制活跃批次中的总token数。这防止少量长请求独占GPU内存并饿死新请求。

分离式服务

  • 预填充和解码具有相反的计算特征。在同一GPU上运行两者意味着GPU在计算受限(预填充)和内存带宽受限(解码)之间交替,从未充分利用任一资源。

  • 分离式服务将它们分开:

    • 预填充节点:为计算优化的GPU(高FLOPS,可能内存较少)。处理所有传入提示。
    • 解码节点:为内存带宽优化的GPU(大KV缓存容量,高内存带宽)。处理所有token生成。
  • 预填充节点计算初始KV缓存并通过NVLink或网络将其发送到解码节点。解码节点使用接收到的缓存生成token。

  • 这是Mooncake(月之暗面)的架构,并正在被多个LLM服务团队探索。好处:每个GPU类型与其工作负载特征匹配,提高整体利用率。

多模型和LoRA服务

  • 在生产中,你通常服务多个模型(不同层级的模型大小不同,不同任务的微调变体不同)。

  • 模型复用:在同一GPU上加载多个模型,将请求路由到相应模型。GPU内存共享:一个40 GB GPU可能同时持有一个13B模型(26 GB)和一个7B模型(14 GB)。

  • LoRA服务:不是部署单独的微调模型,而是部署一个基础模型并带有多个LoRA适配器(第6章)。每个适配器增加<1%的参数。请求在推理时路由到相应的适配器。

  • S-LoRA(Sheng等人,2023):从一个基础模型服务数千个LoRA适配器。适配器存储在CPU上,按需分页到GPU内存。基础模型的KV缓存和权重被共享;只有小的LoRA矩阵因请求而异。

  • Punica(Chen等人,2023):通过使用自定义CUDA内核在同一批次中为不同请求应用不同的LoRA矩阵,跨不同LoRA适配器对请求进行批处理。这避免了每个请求切换适配器的开销。

受限和引导生成

  • 许多应用需要LLM以特定格式产生输出:有效的JSON、SQL查询、特定语言的代码或遵循模式的响应。受限生成保证输出符合语法或模式。

  • 语法受限解码:在每个解码步骤,屏蔽会违反语法的token。如果到目前为止的输出是{"name": "Alice", "age":且语法要求接下来是整数,则屏蔽除数字外的所有token。LLM的概率分布在有效token上重新归一化。

  • Outlines(Willard & Louf,2023):将JSON模式或正则表达式编译成有限状态机(FSM)。在每个解码步骤,FSM确定哪些token是有效的后续。无效token获得概率0。这保证了100%的模式合规,零重试。

  • SGLang原生集成受限生成:你用Python指定输出结构,引擎高效处理token掩码和缓存。这与RadixAttention(前缀缓存)结合,使得结构化输出重用缓存的公共前缀。

  • 为什么重要:没有受限生成,你自由生成然后解析输出,失败时重试。对于复杂JSON模式,重试率通常为10-30%,浪费计算。受限生成完全消除了重试。

请求路由

  • 并非每个查询都需要最大的模型。请求路由根据估计的难度将查询定向到不同的模型:

  • 级联:先尝试小模型。如果小模型的置信度低于阈值(例如,top token的softmax概率<0.8),则升级到更大的模型。简单查询(80%+的流量)由小模型廉价服务;只有困难查询使用昂贵模型。

  • 学习型路由:训练一个轻量级分类器(或使用小模型的困惑度)来预测查询需要哪个模型层级。将"2+2等于多少?"路由到3B模型,将"解释量子纠缠的数学基础"路由到70B模型。

  • 影响:如果80%的查询可以由成本低10倍的模型处理,平均每查询成本下降约70%。这是多模型部署中影响最大的成本优化之一。

  • 设备端+云混合路由Cactusgithub.com/cactus-compute/cactus)在设备级别实现请求路由。它通过自定义ARM SIMD内核在设备端(手机、笔记本电脑、可穿戴设备)运行小模型,并在本地模型置信度低或查询超出设备能力时自动路由到云端模型。应用为两条路径使用OpenAI兼容API——路由是透明的。这是在基础设施级别的级联:第一层是免费的(设备端),第二层花钱(云API)。对于大多数查询简单的应用(助手问答、自动补全、转录),设备端处理覆盖70-90%的流量,边际成本为零。

推理指标

  • 正确的指标取决于用例:
指标 测量内容 目标(对话式) 目标(批处理)
TTFT 首token时间 <1 s 不太重要
TPOT 每输出token时间 <100 ms 不太重要
吞吐量 token/秒(总计) 不太重要 最大化
p99延迟 最差的1%请求 <5 s <30 s
每token成本 $/100万token 最小化 最小化
SLO合规率 满足延迟目标的请求百分比 >99% >95%
  • TTFT vs TPOT权衡:激进的批处理增加吞吐量(总token数/秒更多),但增加TPOT(每个token耗时更长,因为GPU处理更多请求)。调度策略必须平衡吞吐量(收入)与延迟(用户体验)。

  • 每token成本是生产的最终指标。它结合了硬件成本(GPU租金)、吞吐量(token/秒)和利用率。运行在50% GPU利用率的系统比100%利用率的系统每token成本高2倍。这就是批处理、调度和PagedAttention如此重要的原因——它们提高了利用率。

编程任务(使用CoLab或notebook)

  1. 模拟连续vs静态批处理并测量吞吐量差异。

    import random
    import time
    
    def simulate_static_batching(requests, batch_size=8):
        """在固定批次中处理请求。等待所有完成。"""
        total_tokens = 0
        total_time = 0
    
        for i in range(0, len(requests), batch_size):
            batch = requests[i:i + batch_size]
            max_len = max(r['output_len'] for r in batch)
            # 批次中所有请求耗时等于最长请求
            batch_time = max_len * 0.01  # 每token 10ms
            total_time += batch_time
            total_tokens += sum(r['output_len'] for r in batch)
    
        return total_tokens / total_time  # token/秒
    
    def simulate_continuous_batching(requests, max_batch=8):
        """使用连续批处理处理。移除完成请求,添加新请求。"""
        total_tokens = 0
        total_time = 0
        active = []
        queue = list(requests)
    
        while active or queue:
            # 填充批次
            while len(active) < max_batch and queue:
                active.append({'remaining': queue.pop(0)['output_len']})
    
            if not active:
                break
    
            # 一个解码步骤:所有活跃请求生成1个token
            for req in active:
                req['remaining'] -= 1
            total_tokens += len(active)
            total_time += 0.01  # 每步10ms
    
            # 移除完成的请求
            active = [r for r in active if r['remaining'] > 0]
    
        return total_tokens / total_time
    
    # 生成具有不同输出长度的请求
    random.seed(42)
    requests = [{'output_len': random.randint(10, 500)} for _ in range(100)]
    
    static_tps = simulate_static_batching(requests)
    continuous_tps = simulate_continuous_batching(requests)
    
    print(f"静态批处理:     {static_tps:.0f} tokens/s")
    print(f"连续批处理: {continuous_tps:.0f} tokens/s")
    print(f"加速比: {continuous_tps / static_tps:.1f}x")
    

  2. 计算PagedAttention的KV缓存内存节省。比较预分配(最坏情况)vs分页(实际使用)。

    def paged_vs_preallocated(n_requests, max_seq_len, avg_seq_len, page_size, kv_per_token_bytes):
        """比较内存使用:预分配vs分页KV缓存。"""
        # 预分配:每个请求获得max_seq_len个槽位
        preallocated_gb = n_requests * max_seq_len * kv_per_token_bytes / 1e9
    
        # 分页:只分配使用的部分(按页粒度)
        import math
        avg_pages = math.ceil(avg_seq_len / page_size)
        paged_gb = n_requests * avg_pages * page_size * kv_per_token_bytes / 1e9
    
        waste_preallocated = (max_seq_len - avg_seq_len) / max_seq_len
        waste_paged = (avg_pages * page_size - avg_seq_len) / (avg_pages * page_size)
    
        print(f"请求数: {n_requests}, 最大序列: {max_seq_len}, 平均序列: {avg_seq_len}")
        print(f"  预分配: {preallocated_gb:.1f} GB (浪费: {waste_preallocated:.0%})")
        print(f"  分页:        {paged_gb:.1f} GB (浪费: {waste_paged:.0%})")
        print(f"  节省:      {preallocated_gb - paged_gb:.1f} GB ({preallocated_gb/paged_gb:.1f}x)")
        print()
    
    # Llama-70B:每层每token约1.3 KB,80层 = 每token约100 KB总计
    kv_bytes = 100_000
    
    # 场景1:短请求,大最大值
    paged_vs_preallocated(256, max_seq_len=4096, avg_seq_len=256, page_size=16, kv_per_token_bytes=kv_bytes)
    
    # 场景2:不同长度
    paged_vs_preallocated(256, max_seq_len=8192, avg_seq_len=1024, page_size=16, kv_per_token_bytes=kv_bytes)
    
    # 场景3:长上下文
    paged_vs_preallocated(64, max_seq_len=131072, avg_seq_len=16000, page_size=16, kv_per_token_bytes=kv_bytes)