Project Icon

InternEvo

开源轻量级框架提升大规模模型训练效率

InternEvo是一个轻量级开源训练框架,支持大规模预训练和单GPU微调。该框架在1024个GPU上达到近90%加速效率,适用于InternLM系列等大语言模型训练。通过集成高性能算子和Hybrid Zero技术,InternEvo优化了计算与通信效率,显著提升了训练性能。

evalverse - 开源大语言模型评估工具集
AI研究EvalverseGithubLLM评估开源项目评估报告
Evalverse是一个开源的大语言模型评估工具集,提供统一、标准化的评估解决方案。支持多种评估方法,可无代码进行评估并生成报告。通过子模块扩展评估能力,集成lm-evaluation-harness和FastChat等框架。生成的详细报告包含分数、排名和可视化,便于比较不同模型性能。适用于AI研究人员及LLM领域新手。
DeepSeek-MoE - 创新MoE架构打造高效大规模语言模型
DeepSeekMoEGithubMoE架构大语言模型开源模型开源项目模型评估
DeepSeek-MoE项目开发了创新的混合专家架构语言模型,采用细粒度专家分割和共享专家隔离策略。该16.4B参数模型仅使用40%计算量就达到DeepSeek 7B和LLaMA2 7B的性能水平。模型可在单个40GB内存GPU上直接部署运行,无需量化,为学术和商业研究提供了高效便捷的工具。
LLMCompiler - 提升大语言模型性能的并行函数调用框架
GithubLLMCompiler优化编排并行函数调用开源项目效率提升模型兼容
LLMCompiler框架通过并行函数调用提升大语言模型的执行效率。它自动识别可并行任务,减少延迟和成本,同时提升准确性。用户只需提供工具和上下文示例,LLMCompiler就能优化函数调用编排。支持开源和闭源模型,包括LLaMA和OpenAI的GPT模型。LLMCompiler在不同任务中展示了显著的延迟加速、成本节省和准确性提升,是处理复杂问题的理想工具。
EasyContext - 优化语言模型上下文长度至百万级的开源项目
EasyContextGithub开源项目注意力机制训练技巧语言模型长上下文模型
EasyContext 是一个开源项目,致力于优化语言模型的上下文长度至 100 万个标记。项目结合序列并行、Deepspeed zero3 卸载和 Flash attention 等技术,实现了对 Llama2-7B 和 Llama2-13B 模型的全参数微调。通过最小化硬件需求,EasyContext 展示了长上下文扩展的可行性,并提供简洁的实现代码和评估结果,为自然语言处理研究和开发提供了有价值的资源。
PowerInfer - 消费级GPU上大型语言模型高效推理引擎
GPU加速GithubPowerInfer大语言模型局部性设计开源项目混合CPU/GPU使用
PowerInfer是一款在个人电脑上针对消费级GPU设计的高效大型语言模型(LLM)推理引擎。它结合激活局部性原理和CPU/GPU混合技术,通过优化热/冷激活神经元的处理方式,显著提高推理速度并降低资源消耗。软件还融入了适应性预测器和神经元感知技术,优化了推理效率和精度,支持快速、低延迟的本地模型部署。
uptrain - 开源平台评估优化LLM应用
GithubLLM应用UpTrain开源平台开源项目改进评估
UpTrain是一个专注于评估和优化大型语言模型(LLM)应用的开源平台。它提供全面的工具和功能,用于衡量LLM应用性能、识别问题并持续改进。该平台支持自动化评估、错误分析和性能跟踪,有助于提高LLM应用的质量和可靠性。UpTrain提供多种评估指标和定制选项,适用于各种LLM应用场景。
FasterTransformer - 基于NVIDIA平台的高性能Transformer编解码器实现与调优
BERTFasterTransformerGPTGithubNVIDIATensorRT-LLM开源项目
FasterTransformer不仅支持多框架集成,还针对NVIDIA新一代GPU优化了编解码性能,极大提升了操作效率和处理速度。包含模型支持、性能对比及API演示的详细文档,有助于用户深入了解并有效使用FasterTransformer。
horovod - 分布式深度学习训练框架,支持TensorFlow, Keras, PyTorch和MXNet
GithubHorovodPyTorchTensorFlow分布式深度学习开源项目性能优化
Horovod是一个分布式深度学习训练框架,提供对TensorFlow, Keras, PyTorch, Apache MXNet的支持。它优化了多GPU并行训练的过程,使得在多GPU上进行训练既快速又简单,无需重大代码修改。Horovod展示了高达90%的扩展效率,适合大规模深度学习应用,同时兼容NCCL和Gloo等高效的集合通信库,确保在各种环境下的高效运行。
nanotron - 高效的大规模模型预训练库
GithubNanotronTransformer并行计算开源项目模型预训练深度学习
Nanotron是一个开源的Transformer模型预训练库。它提供灵活API,支持自定义数据集预训练。该库特点包括高性能、可扩展性强,支持3D并行、专家并行、AFAB和1F1B调度策略、ZeRO-1优化器等先进技术。Nanotron适用于大规模模型训练,旨在提高预训练效率。
ffcv-imagenet - 高效ImageNet训练框架提升模型性能
GithubImageNetPyTorchResNetffcv开源项目深度学习
ffcv-imagenet是一个高效的ImageNet训练框架,采用单文件PyTorch脚本实现。该项目能在标准方法1/10的时间内达到相同精度,支持多GPU并行和多模型同时训练。框架提供丰富的配置选项,结合FFCV数据加载和优化训练流程,使研究人员能更快迭代实验并获得高质量模型。项目还包含多种预设配置,适用于不同的训练需求和硬件环境。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号