#LLMPerf
llmperf-leaderboard - LLM推理服务性能基准测试与比较
LLMPerfLLM推理提供商性能基准测试吞吐量响应时间Github开源项目
LLMPerf Leaderboard 项目对多家LLM推理服务进行性能评测,主要衡量输出令牌吞吐量和首个令牌响应时间(TTFT)。测试涵盖Llama-2系列的7B、13B和70B聊天模型,为开发者提供客观透明的性能数据和可复现的测试方法,有助于选择合适的LLM服务。
llmperf - 开源工具评估大语言模型API性能
LLMPerfLLM性能评估API测试RayGithub开源项目
LLMPerf是一个评估大语言模型API性能的开源工具。它通过负载测试和正确性测试来衡量模型的响应延迟、生成吞吐量和输出准确性。该工具支持OpenAI、Anthropic、TogetherAI等主流LLM API,并可扩展适配新API。LLMPerf采用Ray框架处理并发请求,能够模拟实际负载环境。开发者和研究人员可利用LLMPerf便捷地评估和对比不同LLM API的性能表现。