Project Icon

REST

创新检索式推测解码加速大语言模型生成

REST是一种创新检索式推测解码方法,利用数据存储检索草稿令牌以加速大语言模型生成。无需额外训练,可即插即用于现有语言模型。在HumanEval和MT-Bench测试中,REST展现显著速度提升,为提高大语言模型效率开辟新途径。

LLaMA-Factory - 提升语言模型微调效率的统一平台
GithubLLaMA Factory大语言模型开源项目快速微调性能优化模型量化热门
LLaMA-Factory是一个高效的语言模型微调工具,支持多种模型和算法。该平台专注于提高微调速度,支持连续预训练、监督微调和激励建模等策略。LLaMA-Factory利用LoRA技术实现高效训练,并提供详尽的数据监控和快速推理能力。此外,新版本还增加了PiSSA算法,且支持多种开发平台如Colab和DSW,适合高质量文本生成和智能应用开发。
bge-reranker-v2.5-gemma2-lightweight - 多语言轻量级模型提供高效排序和相似度评估
GithubHuggingfacebge-reranker-v2.5-gemma2-lightweight压缩比多语言开源项目性能表现模型轻量化
该多语言轻量级排序模型通过词元压缩和逐层优化,节省资源同时维持高性能。根据使用场景和资源限制,用户可灵活选择模型的压缩比例和输出层次,实现高效推理。项目已在BEIR和MIRACL上达到新SOTA性能,技术细节报告将于稍后发布。
retvec - 多语言文本向量化的高效解决方案
GithubRETVecTensorFlow多语言对抗性弹性开源项目文本向量化
RETVec是一种创新的文本向量化工具,为高效处理多语言文本而开发。它具有内置的抗干扰能力,可应对各种字符级修改。该工具支持超过100种语言,无需额外的词汇表。RETVec作为一个轻量级组件,可无缝集成到TensorFlow模型中。它同时提供TensorFlow Lite和JavaScript版本,适用于移动设备和网页应用。RETVec在提升模型稳定性的同时,保证了计算效率,是文本处理任务的理想选择。
ModelCache - 优化大型语言模型响应的语义缓存工具
Codefuse-ModelCacheGithub多租户大语言模型嵌入模型开源项目语义缓存
ModelCache 是一种优化大型语言模型(LLMs)响应的语义缓存工具,通过缓存预计算的模型结果,迅速响应相似请求,提升用户体验。它支持多租户,并通过 Redis Search 将缓存与向量数据库的交互时间减至 10ms。该项目整合了多种嵌入框架及本地存储选项如 sqlite 和 faiss,便于用户迅速测试。其目标是降低推理部署成本、提升模型性能和提供可扩展的大型模型服务。
llama-160m-accelerator - 基于多阶段MLP的LLaMA-160M模型推理加速器
DockerGithubHuggingfacevLLM开源项目文本生成模型模型加速深度学习
这是一个为JackFram/llama-160m模型设计的加速器项目,借鉴了Medusa推测解码架构的思想。该加速器通过改造MLP为多阶段结构,实现了基于状态向量和先前采样令牌的单token预测,有效提升了模型推理速度。项目支持与vLLM和Hugging Face TGI等工具集成,为大型语言模型的高效部署提供了实用解决方案。加速器的训练过程轻量化,能够在短时间内完成,适用于各种规模的生成式模型。
EasyContext - 优化语言模型上下文长度至百万级的开源项目
EasyContextGithub开源项目注意力机制训练技巧语言模型长上下文模型
EasyContext 是一个开源项目,致力于优化语言模型的上下文长度至 100 万个标记。项目结合序列并行、Deepspeed zero3 卸载和 Flash attention 等技术,实现了对 Llama2-7B 和 Llama2-13B 模型的全参数微调。通过最小化硬件需求,EasyContext 展示了长上下文扩展的可行性,并提供简洁的实现代码和评估结果,为自然语言处理研究和开发提供了有价值的资源。
RWKV-LM - 高性能并行化RNN,探索和应用RWKV模型
GithubRNNRWKVTransformer并行化开源项目性能
RWKV是一个高性能的并行化RNN,具有变换器级别的性能。该模型实现了快速的推理和训练速度,不依赖于传统的注意力机制,而是通过隐藏状态进行计算,优化了VRAM的使用,并支持处理无限长度的文本上下文。RWKV的这些特点使其在进行句子嵌入和处理复杂文本任务时显示出优越的能力。
deepseek-moe-16b-base - 采用稀疏混合专家架构的开源大语言模型
DeepSeek MoEGithubHuggingface人工智能代码生成开源项目机器学习模型模型训练
DeepSeek MoE 16B Base是一个基于稀疏混合专家(MoE)架构的开源大语言模型,支持商业应用。模型使用bfloat16格式,可通过Transformers库调用,擅长文本生成和补全。它采用查询-键值对映射的注意力机制,高效处理自然语言处理任务。该项目遵循MIT许可,提供详细文档和示例代码,便于开发者集成使用。
OLMo - 开源语言模型加速科学研究
GithubOLMo人工智能开源语言模型开源项目机器学习自然语言处理
OLMo是一个开源语言模型项目,提供多种规模的先进模型,如1B、7B和7B Twin 2T,全部基于Dolma数据集训练。该项目支持模型训练、微调和推理,提供详细配置和检查点以确保研究可重现。OLMo还包含数据检查和评估工具,为语言模型研究提供全面支持,旨在加速这一领域的科学进展。
ESFT - 专家专门化微调提升稀疏大语言模型性能
ESFTGithub专家混合大语言模型开源项目效率提升模型微调
ESFT项目提出专家专门化微调方法,针对Mixture-of-Experts架构的大语言模型进行高效定制。通过仅调整任务相关部分,该方法提高了模型效率和性能,同时降低资源消耗。项目开源了训练代码和评估脚本,方便研究人员应用于自有模型和数据集。这一技术为大规模语言模型的个性化和优化提供了新思路。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号