#长上下文

Chinese-LLaMA-Alpaca-2学习资源汇总 - 基于Llama-2的开源中文大语言模型

2 个月前
Cover of Chinese-LLaMA-Alpaca-2学习资源汇总 - 基于Llama-2的开源中文大语言模型

InternLM学习资料汇总 - 先进的大规模语言模型项目

2 个月前
Cover of InternLM学习资料汇总 - 先进的大规模语言模型项目

ChunkLlama: 突破大语言模型长上下文限制的无训练方法

3 个月前
Cover of ChunkLlama: 突破大语言模型长上下文限制的无训练方法

Gemma 2B - 突破10M上下文长度的开创性模型

3 个月前
Cover of Gemma 2B - 突破10M上下文长度的开创性模型

CodeQwen1.5: 阿里云推出的革命性代码生成AI模型

3 个月前
Cover of CodeQwen1.5: 阿里云推出的革命性代码生成AI模型

Chinese-LLaMA-Alpaca-2: 新一代开源中文大语言模型

3 个月前
Cover of Chinese-LLaMA-Alpaca-2: 新一代开源中文大语言模型

InternLM: 开源大语言模型的新标杆

3 个月前
Cover of InternLM: 开源大语言模型的新标杆
相关项目
Project Cover

InternLM

InternLM2.5系列采用最新技术,专注于AI研究和商业应用的长文本处理和逻辑推理,提供1M文本窗口处理能力和优化的指令遵循与用户互动体验。适合广泛的应用场景。

Project Cover

Chinese-LLaMA-Alpaca-2

Chinese-LLaMA-Alpaca-2项目基于Meta的Llama-2模型开发,提供了全新的中文LLaMA-2基座模型和Alpaca-2指令精调大模型,专注于优化中文词表和扩展模型训练。模型支持大规模中文数据增量训练,显著提升中文语义和指令理解能力。支持4K至64K上下文长度,实现人类偏好对齐,提供多种工具支持部署和应用推广。适用于企业和研究机构进行语言模型深度研发和实用应用,如对话系统和文本分析等。

Project Cover

gemma-2B-10M

gemma-2B-10M项目采用递归局部注意力机制,在32GB内存限制下实现了处理1000万token上下文的能力。该项目为Gemma 2B模型提供CUDA优化的推理功能,显著提升了处理效率。项目设计简洁易用,便于开发者快速应用。虽然目前处于早期阶段,但在长文本处理领域展现出巨大潜力,有望推动相关技术的进步。

Project Cover

ChunkLlama

ChunkLlama项目开发了双重块注意力(DCA)技术,无需额外训练即可将大语言模型的上下文窗口扩展至原始长度的8倍以上。DCA可与主流外推技术和高效推理库兼容,支持Llama、Mistral等多种模型。实验表明,应用DCA后的Llama-2/3 70B模型能处理长达100k的上下文,并在长文本任务中表现出色。

Project Cover

CodeQwen1.5

CodeQwen1.5是一款专用于代码生成的大型语言模型,支持92种编程语言,具备64K tokens的长文本处理能力。该模型在代码生成、文本到SQL转换和bug修复等任务中表现优异,为开发者提供了高效的AI编码辅助工具。作为Qwen1.5的专用代码版本,CodeQwen1.5采用transformer架构,在多项基准测试中展现出卓越性能。

Project Cover

360zhinao

360Zhinao是一系列开源大语言模型,包括基础模型和聊天模型。该项目利用3.4万亿高质量语料训练,在多项基准测试中表现优异。其聊天模型支持4K、32K和360K三种上下文长度,其中360K(约50万中文字符)为开源中文模型最长。此外,360Zhinao还发布了搜索和重排模型,在C-MTEB排行榜上表现出色。该项目持续更新,不断推进大语言模型技术发展。

Project Cover

LongCite-llama3.1-8b

LongCite-llama3.1-8b是基于Meta-Llama-3.1-8B训练的开源模型,专为长上下文问答中的引用生成而设计,支持128K标记的上下文窗口。项目采用transformers库,提供了Python示例代码用于展示模型部署与应用,并建议使用torch的bfloat16数据类型及自动设备映射功能。vllm项目的示例代码可供进一步探索高效部署模型。

Project Cover

jina-colbert-v1-en

Jina-ColBERT是一个基于JinaBERT的ColBERT模型,它能处理8k的上下文长度,实现快速准确的检索。与ColBERTv2相比,使用了jina-bert-v2-base-en为主干,并在MSMARCO数据集上训练,表现优于部分基准模型,尤其在长上下文环境中表现更佳,适用于长文档检索场景。

Project Cover

Phi-3.5-mini-instruct-bnb-4bit

Phi-3.5-mini-instruct是一款轻量级开源语言模型,支持128K上下文长度。经过监督微调和优化,该模型在多语言能力和长文本理解方面表现出色。适用于内存受限环境、低延迟场景和推理任务,可作为AI系统的基础组件。在商业和研究领域都有广泛应用前景。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号