ChunkLlama
ChunkLlama项目开发了双重块注意力(DCA)技术,无需额外训练即可将大语言模型的上下文窗口扩展至原始长度的8倍以上。DCA可与主流外推技术和高效推理库兼容,支持Llama、Mistral等多种模型。实验表明,应用DCA后的Llama-2/3 70B模型能处理长达100k的上下文,并在长文本任务中表现出色。