Project Icon

snowflake-arctic-instruct

探索混合变换架构在企业AI中的高效应用

Snowflake Arctic由AI研究团队开发,是一种将稠密变换器与稀疏门控混合架构结合的模型,提供开源的LLM解决方案。Arctic的模型汇集合计480亿参数,支持Arctic-Base和Arctic-Instruct版本,适用于研究和产品开发。通过DeepSpeed和transformers库的配合,支持自定义代码,实现文本和代码生成。Arctic的教程和cookbook帮助用户定制混合架构模型并优化训练数据质量。

vram-24 - 探索Transformer库在机器学习和NLP中的创新应用
AIGithubHuggingfacetransformers开源项目机器学习模型深度学习绘图
transformers库在机器学习和自然语言处理中的应用,凭借强大的算法和灵活的工具,增强数据分析及模型部署能力,提高AI开发效率,为研究和应用提供创新支持。
mixtral-instruct-awq - AWQ量化的Mixtral Instruct模型替代方案
AWQGithubHuggingfaceMixtral Instruct人工智能开源项目模型量化
这是一个经AWQ量化的Mixtral Instruct工作版本,旨在解决官方版本的功能问题。项目提供了Mixtral-8x7B-Instruct-v0.1模型的稳定实现,适合在资源受限环境中部署大型语言模型。该替代方案为开发者和研究人员提供了一个可靠的选择,有助于提高模型在实际应用中的效率。
lightning-flash - 跨数据领域和任务的AI模型训练与处理解决方案
AIGithubPyTorchlightning-flash开源项目模型训练深度学习
Lightning Flash提供多任务和多数据领域的AI解决方案,用户只需三步即可完成数据加载、模型配置和微调。项目支持多种预训练模型和优化策略,简化深度学习工作流程,适用于各种数据域和任务类型。其功能包括模型预测、训练策略、优化器和调度器选择,以及自定义数据变换。Flash旨在让用户无需自行开发复杂的研究框架,即可在生产环境中应用AI模型。
Qwen2-1.5B-Instruct - 性能卓越的开源指令调优语言模型
GithubHuggingfaceQwen2人工智能大语言模型开源项目机器学习模型自然语言处理
Qwen2-1.5B-Instruct是Qwen2系列中的指令调优语言模型,在语言理解、生成、多语言处理、编码和数学推理等方面表现优异。该模型基于改进的Transformer架构,通过大规模预训练和偏好优化,在多项基准测试中超越了大多数开源模型。Qwen2-1.5B-Instruct易于部署,适用于多种AI应用场景,能够高效处理复杂的语言任务。
granite-3.0-8b-instruct-GGUF - 文本生成模型的量化优化与性能提升
GithubHuggingfacegranite-3.0huggingface开源项目数据集文本生成模型量化
项目通过llama.cpp对granite-3.0-8b-instruct模型进行量化优化,适用于低内存环境的高效运行。根据硬件资源,用户可以从多种量化模型中选择,实现性能与质量的最佳平衡。项目支持代码生成、数学推理和多语言处理等任务,并提升了在IFEval、AGI-Eval等数据集上的表现。提供了从高质量全权重到ARM架构优化模型的多种选择,加速模型推断过程,展示了在文本生成领域的有效实践。
transformers-code - 对Transformers从入门到高效微调的全方位实战指南
GithubNLPTransformers分布式训练开源项目微调模型训练
课程提供丰富的实战代码和案例,从基础入门到高效微调以及低精度和分布式训练。涵盖命名实体识别、机器阅读理解和生成式对话机器人等NLP任务。帮助深入理解Transformers的核心组件和参数微调技术,包括模型优化和分布式训练。适合对Transformers应用和实践感兴趣的学习者。课程在B站和YouTube持续更新,紧跟技术前沿。
llama-30b-instruct-2048 - 语言处理模型,专为增强文本生成能力设计
AI绘图GithubHuggingfaceLLaMA伦理考量开源项目数据集模型高性能
Llama-30b-instruct-2048模型由Upstage研发,基于LLaMA架构,优化用于生成文本,支持动态扩展处理10k+输入符号。在多项基准数据集上表现出色,并结合DeepSpeed与HuggingFace工具进行微调。使用该模型需获得持有Meta授权表单的许可。
Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic - 多语种量化优化模型,显著降低内存占用
GithubHuggingfaceLlama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic多语言支持开源项目文本生成模型模型优化量化
通过将权重和激活量化为FP8格式,该项目优化了Llama-3.1-Nemotron模型,显著降低了GPU内存与磁盘的占用。模型适用于商业与研究,支持多语言开发和会话助手的构建。利用vLLM,可以实现高效部署并具有OpenAI兼容性。Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic在诸多测试中表现优良,在Arena-Hard评估中达99.41%的恢复率。
Llama-3-8B-Instruct-GPTQ-4-Bit - 利用GPTQ量化优化模型性能的新方法
Apache AirflowGPTQGithubHuggingfaceMeta-Llama-3-8B-Instruct开源项目数据协调模型量化
Astronomer的4比特量化模型通过GPTQ技术减少VRAM占用至不足6GB,比原始模型节省近10GB。此优化提高了延迟和吞吐量,即便在较便宜的Nvidia T4、K80或RTX 4070 GPU上也能实现高效性能。量化过程基于AutoGPTQ,并按照最佳实践进行,使用wikitext数据集以减小精度损失。此外,针对vLLM和oobabooga平台提供详细配置指南,以有效解决加载问题。
LLM101n - 深度学习课程教你构建AI讲故事模型
AIGithubLLMPythonTransformer开源项目深度学习
LLM101n深度学习课程从零教授构建AI讲故事模型。内容涵盖语言建模、机器学习、Transformer架构等核心知识,指导学员开发功能完善的Web应用。课程采用Python、C和CUDA编程,适合具备基础计算机科学知识的学习者。除核心AI技术外,还包括分布式优化、量化推理、微调等高级主题,以及多模态AI应用开发。通过实践,学员将掌握AI、大型语言模型和深度学习原理,能够独立创作、优化并为小故事配图。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号