SGLang是一个快速的大型语言模型和视觉语言模型服务框架。通过联合设计后端运行时和前端语言,它使您与模型的交互更快速、更可控。
核心特性包括:
- 快速后端运行时:通过RadixAttention进行前缀缓存、跳跃前向约束解码、连续批处理、令牌注意力(分页注意力)、张量并行、flashinfer内核和量化(AWQ/FP8/GPTQ/Marlin)实现高效服务。
- 灵活的前端语言:通过链式生成调用、高级提示、控制流、多模态、并行性和外部交互,轻松编程LLM应用程序。
新闻
- [2024/07] 🔥 使用SGLang运行时实现更快的Llama3服务(相比TensorRT-LLM和vLLM)(博客)。
- [2024/04] SGLang被官方**LLaVA-NeXT(视频)**发布使用(博客)。
- [2024/02] SGLang通过压缩有限状态机实现3倍更快的JSON解码(博客)。
目录
安装
方法1:使用pip
pip install --upgrade pip
pip install "sglang[all]"
# 安装FlashInfer CUDA内核
pip install flashinfer -i https://flashinfer.ai/whl/cu121/torch2.4/
方法2:从源代码安装
# 使用最新的发布分支
git clone -b v0.2.13 https://github.com/sgl-project/sglang.git
cd sglang
pip install --upgrade pip
pip install -e "python[all]"
# 安装FlashInfer CUDA内核
pip install flashinfer -i https://flashinfer.ai/whl/cu121/torch2.4/
方法3:使用docker
Docker镜像可在Docker Hub上找到,名为lmsysorg/sglang,基于Dockerfile构建。
将下面的<secret>
替换为您的huggingface hub token。
docker run --gpus all \
-p 30000:30000 \
-v ~/.cache/huggingface:/root/.cache/huggingface \
--env "HF_TOKEN=<secret>" \
--ipc=host \
lmsysorg/sglang:latest \
python3 -m sglang.launch_server --model-path meta-llama/Meta-Llama-3.1-8B-Instruct --host 0.0.0.0 --port 30000
方法4:使用docker compose
如果您计划将其作为服务运行,推荐使用此方法。 更好的方法是使用k8s-sglang-service.yaml。
- 将compose.yml复制到本地机器
- 在终端中执行命令
docker compose up -d
。
通用说明
- FlashInfer目前是SGLang必须安装的依赖之一。如果您使用的是sm80以下的NVIDIA GPU设备,如T4,暂时无法使用SGLang。我们预计很快会解决这个问题,请保持关注。如果您在sm80+设备(如A100、L40S、H100)上遇到任何与FlashInfer相关的问题,可以考虑使用Triton的内核,方法是添加
--disable-flashinfer --disable-flashinfer-sampling
,并提出一个issue。 - 如果您只需要使用OpenAI后端,可以通过
pip install "sglang[openai]"
来避免安装其他依赖。
后端:SGLang运行时(SRT)
SGLang运行时(SRT)是一个高效的服务引擎。
快速开始
启动服务器
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --port 30000
发送请求
curl http://localhost:30000/generate \
-H "Content-Type: application/json" \
-d '{
"text": "从前有一个",
"sampling_params": {
"max_new_tokens": 16,
"temperature": 0
}
}'
在这里了解更多关于参数格式的信息。
兼容OpenAI的API
此外,服务器支持兼容OpenAI的API。
import openai
client = openai.Client(
base_url="http://127.0.0.1:30000/v1", api_key="EMPTY")
# 文本补全
response = client.completions.create(
model="default",
prompt="法国的首都是",
temperature=0,
max_tokens=32,
)
print(response)
# 聊天补全
response = client.chat.completions.create(
model="default",
messages=[
{"role": "system", "content": "你是一个乐于助人的AI助手"},
{"role": "user", "content": "列出3个国家及其首都。"},
],
temperature=0,
max_tokens=64,
)
print(response)
它支持流式传输、视觉,以及OpenAI API参考中指定的Chat/Completions/Models/Batch端点的大多数功能。
附加服务器参数
- 添加
--tp 2
以启用多GPU张量并行。如果报错"peer access is not supported between these two devices",请在服务器启动命令中添加--enable-p2p-check
。
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --port 30000 --tp 2
- 添加
--dp 2
以启用多GPU数据并行。它也可以与张量并行一起使用。如果有足够的内存,数据并行对吞吐量更有利。
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --port 30000 --dp 2 --tp 2
- 如果在服务过程中看到内存不足错误,请尝试通过设置较小的
--mem-fraction-static
值来减少KV缓存池的内存使用。默认值为0.9
。
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --port 30000 --mem-fraction-static 0.7
- 有关调整超参数以获得更好性能的信息,请参阅hyperparameter_tuning.md。
- 如果在处理长提示时出现内存不足错误,请尝试设置较小的分块预填充大小。
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --port 30000 --chunked-prefill-size 4096
- 添加
--nnodes 2
以在多个节点上运行张量并行。如果您有两个节点,每个节点有两个GPU,想要运行TP=4,让sgl-dev-0
作为第一个节点的主机名,50000
作为可用端口。
# 节点0
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --tp 4 --nccl-init sgl-dev-0:50000 --nnodes 2 --node-rank 0
# 节点1
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --tp 4 --nccl-init sgl-dev-0:50000 --nnodes 2 --node-rank 1
- 如果模型在Hugging Face tokenizer中没有模板,您可以指定一个自定义聊天模板。
- 要启用实验性的torch.compile支持,您可以添加
--enable-torch-compile
。它可以加速小批量大小下的小型模型。 - 要启用fp8量化,您可以在fp16检查点上添加
--quantization fp8
,或者直接加载fp8检查点而不指定任何参数。
支持的模型
- Llama / Llama 2 / Llama 3 / Llama 3.1
- Mistral / Mixtral / Mistral NeMo
- Gemma / Gemma 2
- Qwen / Qwen 2 / Qwen 2 MoE
- DeepSeek / DeepSeek 2
- LLaVA 1.5 / 1.6
python -m sglang.launch_server --model-path liuhaotian/llava-v1.5-7b --tokenizer-path llava-hf/llava-1.5-7b-hf --chat-template vicuna_v1.1 --port 30000
python -m sglang.launch_server --model-path liuhaotian/llava-v1.6-vicuna-7b --tokenizer-path llava-hf/llava-1.5-7b-hf --chat-template vicuna_v1.1 --port 30000
python -m sglang.launch_server --model-path liuhaotian/llava-v1.6-34b --tokenizer-path liuhaotian/llava-v1.6-34b-tokenizer --port 30000
- LLaVA-NeXT-Video
- Yi-VL
- StableLM
- Command-R
- DBRX
- Grok
- ChatGLM
- InternLM 2
支持新模型的说明在这里。
使用ModelScope中的模型
要使用ModelScope中的模型,请设置环境变量SGLANG_USE_MODELSCOPE。
export SGLANG_USE_MODELSCOPE=true
启动Qwen2-7B-Instruct服务器
SGLANG_USE_MODELSCOPE=true python -m sglang.launch_server --model-path qwen/Qwen2-7B-Instruct --port 30000
运行Llama 3.1 405B
## 在单个节点上运行405B (fp8)
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3.1-405B-Instruct-FP8 --tp 8
## 在两个节点上运行405B (fp16)
# 将`172.16.4.52:20000`替换为你自己的第一个节点的IP地址和端口,暂时禁用CUDA Graph
# 在第一个节点上
GLOO_SOCKET_IFNAME=eth0 python3 -m sglang.launch_server --model-path meta-llama/Meta-Llama-3.1-405B-Instruct --tp 16 --nccl-init-addr 172.16.4.52:20000 --nnodes 2 --node-rank 0 --disable-cuda-graph --mem-frac 0.75
# 在第二个节点上
GLOO_SOCKET_IFNAME=eth0 python3 -m sglang.launch_server --model-path meta-llama/Meta-Llama-3.1-405B-Instruct --tp 16 --nccl-init-addr 172.16.4.52:20000 --nnodes 2 --node-rank 1 --disable-cuda-graph --mem-frac 0.75
性能基准测试
- 通过运行以下命令对单个静态批次进行基准测试,无需启动服务器。参数与
launch_server.py
相同。请注意,这不是动态批处理服务器,因此对于真实服务器可以处理的批次大小,它可能会耗尽内存。真实服务器会将预填充截断成几个批次,而这个单元测试不会。对于准确的大批量测试,请考虑使用sglang.bench_serving
。python -m sglang.bench_latency --model-path meta-llama/Meta-Llama-3-8B-Instruct --batch 32 --input-len 256 --output-len 32
- 对在线服务进行基准测试。首先启动一个服务器,然后运行以下命令。
python3 -m sglang.bench_serving --backend sglang --num-prompt 10
前端:结构化生成语言(SGLang)
前端语言可以与本地模型或API模型一起使用。它是OpenAI API的替代方案。对于复杂的提示工作流程,你可能会发现它更容易使用。
快速开始
下面的例子展示了如何使用sglang来回答一个多轮问题。
使用本地模型
首先,使用以下命令启动服务器
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --port 30000
然后,连接到服务器并回答一个多轮问题。
from sglang import function, system, user, assistant, gen, set_default_backend, RuntimeEndpoint
@function
def multi_turn_question(s, question_1, question_2):
s += system("你是一个乐于助人的助手。")
s += user(question_1)
s += assistant(gen("answer_1", max_tokens=256))
s += user(question_2)
s += assistant(gen("answer_2", max_tokens=256))
set_default_backend(RuntimeEndpoint("http://localhost:30000"))
state = multi_turn_question.run(
question_1="美国的首都是哪里?",
question_2="列举两个当地景点。",
)
for m in state.messages():
print(m["role"], ":", m["content"])
print(state["answer_1"])
使用OpenAI模型
设置OpenAI API密钥
export OPENAI_API_KEY=sk-******
然后,回答一个多轮问题。
from sglang import function, system, user, assistant, gen, set_default_backend, OpenAI
@function
def multi_turn_question(s, question_1, question_2):
s += system("你是一个乐于助人的助手。")
s += user(question_1)
s += assistant(gen("answer_1", max_tokens=256))
s += user(question_2)
s += assistant(gen("answer_2", max_tokens=256))
set_default_backend(OpenAI("gpt-3.5-turbo"))
state = multi_turn_question.run(
question_1="美国的首都是哪里?",
question_2="列举两个当地景点。",
)
for m in state.messages():
print(m["role"], ":", m["content"])
print(state["answer_1"])
更多示例
Anthropic和VertexAI(Gemini)模型也受支持。 你可以在examples/quick_start找到更多示例。
语言特性
首先,导入sglang。
import sglang as sgl
sglang
提供了一些简单的原语,如gen
、select
、fork
、image
。
你可以在由sgl.function
装饰的函数中实现你的提示流程。
然后,你可以用run
或run_batch
来调用这个函数。
系统将为你管理状态、聊天模板、并行性和批处理。
以下示例的完整代码可以在readme_examples.py中找到
控制流
你可以在函数体内使用任何Python代码,包括控制流、嵌套函数调用和外部库。
@sgl.function
def tool_use(s, question):
s += "为了回答这个问题:" + question + "。"
s += "我需要使用" + sgl.gen("tool", choices=["计算器", "搜索引擎"]) + "。"
if s["tool"] == "计算器":
s += "数学表达式是" + sgl.gen("expression")
elif s["tool"] == "搜索引擎":
s += "要搜索的关键词是" + sgl.gen("word")
并行性
使用fork
来启动并行提示。
由于sgl.gen
是非阻塞的,下面的for循环会并行发出两个生成调用。
@sgl.function
def tip_suggestion(s):
s += (
"以下是两个保持健康的建议:"
"1. 均衡饮食。2. 定期锻炼。\n\n"
)
forks = s.fork(2)
for i, f in enumerate(forks):
f += f"现在,将建议{i+1}扩展成一个段落:\n"
f += sgl.gen(f"detailed_tip", max_tokens=256, stop="\n\n")
s += "建议1:" + forks[0]["detailed_tip"] + "\n"
s += "建议2:" + forks[1]["detailed_tip"] + "\n"
s += "总结" + sgl.gen("summary")
多模态
使用sgl.image
来传递图像作为输入。
@sgl.function
def image_qa(s, image_file, question):
s += sgl.user(sgl.image(image_file) + question)
s += sgl.assistant(sgl.gen("answer", max_tokens=256))
另请参见srt_example_llava.py。
约束解码
使用regex
来指定一个正则表达式作为解码约束。
这只支持本地模型。
@sgl.function
def regular_expression_gen(s):
s += "问:Google DNS服务器的IP地址是什么?\n"
s += "答:" + sgl.gen(
"answer",
temperature=0,
regex=r"((25[0-5]|2[0-4]\d|[01]?\d\d?).){3}(25[0-5]|2[0-4]\d|[01]?\d\d?)",
)
JSON解码
使用regex
来用正则表达式指定一个JSON模式。
character_regex = (
r"""\{\n"""
+ r""" "name": "[\w\d\s]{1,16}",\n"""
+ r""" "house": "(格兰芬多|斯莱特林|拉文克劳|赫奇帕奇)",\n"""
+ r""" "blood status": "(纯血统|混血|麻瓜出身)",\n"""
+ r""" "occupation": "(学生|教师|傲罗|魔法部|食死徒|凤凰社)",\n"""
+ r""" "wand": \{\n"""
+ r""" "wood": "[\w\d\s]{1,16}",\n"""
+ r""" "core": "[\w\d\s]{1,16}",\n"""
+ r""" "length": [0-9]{1,2}\.[0-9]{0,2}\n"""
+ r""" \},\n"""
+ r""" "alive": "(在世|已故)",\n"""
+ r""" "patronus": "[\w\d\s]{1,16}",\n"""
+ r""" "bogart": "[\w\d\s]{1,16}"\n"""
+ r"""\}"""
)
@sgl.function
def character_gen(s, name):
s += name + "是《哈利·波特》中的一个角色。请填写以下关于这个角色的信息。\n"
s += sgl.gen("json_output", max_tokens=256, regex=character_regex)
另请参阅json_decode.py以获取使用Pydantic模型指定格式的附加示例。
批处理
使用run_batch
来执行连续批处理的一批请求。
@sgl.function
def text_qa(s, question):
s += "问:" + question + "\n"
s += "答:" + sgl.gen("answer", stop="\n")
states = text_qa.run_batch(
[
{"question": "英国的首都是哪里?"},
{"question": "法国的首都是哪里?"},
{"question": "日本的首都是哪里?"},
],
progress_bar=True
)
流式传输
添加stream=True
以启用流式传输。
@sgl.function
def text_qa(s, question):
s += "问:" + question + "\n"
s += "答:" + sgl.gen("answer", stop="\n")
state = text_qa.run(
question="法国的首都是哪里?",
temperature=0.1,
stream=True
)
for out in state.text_iter():
print(out, end="", flush=True)
角色
在使用聊天模型时,使用sgl.system
、sgl.user
和sgl.assistant
来设置角色。您还可以使用开始和结束标记定义更复杂的角色提示。
@sgl.function
def chat_example(s):
s += sgl.system("你是一个乐于助人的助手。")
# 等同于:s += s.system("你是一个乐于助人的助手。")
with s.user():
s += "问题:法国的首都是哪里?"
s += sgl.assistant_begin()
s += "回答:" + sgl.gen(max_tokens=100, stop="\n")
s += sgl.assistant_end()
技巧和实现细节
sgl.gen
中的choices
参数是通过计算所有选项的标准化令牌长度对数概率并选择概率最高的一个来实现的。sgl.gen
中的regex
参数是通过自回归解码与logit偏置掩码结合来实现的,根据正则表达式设置的约束。它与temperature=0
和temperature!=0
兼容。
基准测试和性能
在这篇博客中了解更多。
路线图
引用和致谢
如果您发现该项目有用,请引用我们的论文SGLang: 结构化语言模型程序的高效执行。 我们还从以下项目的设计中学习并重用了代码:Guidance、vLLM、LightLLM、FlashInfer、Outlines和LMQL。