#并行解码
相关项目
LookaheadDecoding
LookaheadDecoding项目开发了一种创新的并行解码算法,旨在加速大型语言模型(LLM)的推理过程。该方法不依赖草稿模型或数据存储,而是结合Jacobi迭代和n-gram缓存技术,有效减少解码步骤。实验结果显示,在多个数据集上可将延迟降低1.5到2.3倍。项目提供便捷的安装和使用方式,并支持FlashAttention技术,可广泛应用于各类LLM场景。
Consistency_LLM
Consistency Large Language Models (CLLMs) 是一种创新的大语言模型技术,通过Jacobi并行解码方法显著提升推理速度。实验表明,CLLMs在多种任务中可实现2.4到3.4倍的性能提升。该技术无需额外模型或架构改动,易于集成,为大语言模型应用带来更高效、灵活的解决方案。