Project Icon

LLM-Pruner

通过结构剪枝技术高效压缩大型语言模型的工具

LLM-Pruner项目专注于通过结构剪枝技术高效压缩大型语言模型,在保留多任务处理能力的同时减少训练数据需求。仅需3分钟剪枝及3小时后训练,此方法利用50,000个公开样本快速实现剪枝与再训练。支持Llama系列、Vicuna、BLOOM、Baichuan等多种LLM,自动化剪枝过程简化了新模型的剪枝步骤。该技术允许根据需要调整模型规模,优化资源使用。

Chinese-Llama-2 - 开源项目提升Llama-2模型中文处理能力
Chinese-Llama-2GithubLlama-2中文大模型开源项目自然语言处理
Chinese-Llama-2是一个开源项目,致力于增强Llama-2大语言模型的中文处理能力。项目采用LoRA微调、全参数指令微调和二次预训练等方法,并在中文指令数据集上训练Llama-2模型。提供了训练所需的数据集、教程和模型参数,旨在推动中文自然语言处理研究与应用。经过优化的模型在中文理解、生成和翻译等任务中表现出明显提升。
MicroLlama - 预算内的大规模语言模型构建:300M Llama模型的探索
GithubHuggingfaceMicroLlamahuggingface开源开源项目文本生成模型语言模型
该项目在有限预算内,通过全面开源的方法构建了一个300M Llama语言模型。尽管性能不及更大型的模型,但以不到500美元的投入,在多数据集上表现出色,并在与类似参数的BERT模型比较时展现优势。项目使用Vast.ai的计算资源和AWS S3存储,对TinyLlama模型进行了调整,重点优化Slimpajama数据集。这一项目展示了低成本大规模模型开发的潜力,并为细化应用如轻量级聊天机器人提供了坚实基础。
TinyLlama-1.1B-intermediate-step-955k-token-2T - 探讨紧凑型1.1B参数模型的高效预训练
GithubHuggingfaceTinyLlama参数开源项目模型计算预训练
TinyLlama项目目标是在3万亿标记上预训练一个具备1.1B参数的Llama模型。通过优化技术,该项目可在90天内使用16个A100-40G GPU完成训练。采用与Llama 2相同的架构和分词器,确保与其他开源项目的兼容性。TinyLlama的紧凑设计适合计算和内存受限的应用。该项目于2023年9月1日启动,计划在2023年12月1日前完成,并会逐步发布中间检查点。详细信息请查看TinyLlama GitHub页面。
Llama-Chinese - Llama大模型中文社区
GithubLlama3Llama中文社区中文预训练模型开源项目模型微调社区活动
Llama中文社区致力于提供最先进的Llama中文模型优化技术,透过持续更新的Llama2和Llama3模型,支持更精准的中文处理。社区集结全球开发者与研究者,通过丰富的在线活动、专业讲座和技术交流,共同推动中文自然语言处理技术的创新与进步。Llama中文模型在技术进步和中文自然语言处理创新方面的影响。
Meta-Llama-3.1-8B-Instruct-abliterated-GGUF - 基于Meta-Llama的无限制大语言模型优化版本
AI开源GithubHuggingfaceLLMMeta-Llama大语言模型开源项目模型模型训练
Meta-Llama-3.1-8B-Instruct优化版本采用abliteration技术对原模型进行调整,移除了默认的输出限制。项目基于transformers库开发,继承原版核心性能的同时提供更自由的输出空间。模型使用llama3.1许可证,适用于需要更灵活输出的AI开发场景。
sparsegpt - 开源项目实现大型语言模型高效压缩
GithubSparseGPT开源项目模型压缩神经网络剪枝稀疏化语言模型
SparseGPT是一个致力于大型语言模型压缩的开源项目。它提供了一套工具,可在单次操作中对OPT、BLOOM和LLaMA等大规模语言模型进行精确剪枝。该项目支持非结构化、n:m结构化和稀疏量化压缩方法,并包含在WikiText2、PTB和C4子集上评估模型性能的脚本。SparseGPT能有效缩减模型规模的同时保持准确性,为研究人员和开发者提供了探索语言模型压缩的实用工具。
llm - LLM实验项目集合 探索大型语言模型应用
API密钥GithubLLM实验OpenAIPinecone开源项目虚拟环境
该开源项目提供了一系列LLM实验。内容包括虚拟环境设置、必要包安装以及API集成指南。通过这些实验,开发者可以深入了解大型语言模型的应用,探索AI文本处理和向量数据库技术。项目注重实践,为AI领域学习者提供了有价值的资源。
llm - 大型语言模型CLI工具,支持本地和远程模型
GithubLLMPython库命令行工具开源项目插件模型
一款CLI工具和Python库,用于与大型语言模型交互,支持远程API和本地安装模型。可从命令行运行提示、将结果存储在SQLite中、生成嵌入等。通过插件目录,可访问更多模型。
gpt-llm-trainer - AI模型训练自动化工具 从任务描述到高性能模型
AI训练GPT-3.5GithubLLaMA 2开源项目数据集生成模型微调
gpt-llm-trainer是一个AI模型训练自动化工具,简化了从任务描述到高性能模型的开发流程。该工具利用Claude 3或GPT-4生成数据集,为LLaMA 2或GPT-3.5模型创建系统提示并进行微调。gpt-llm-trainer通过自动化处理复杂的技术细节,使AI模型开发变得更加简单高效,适合快速开发特定任务AI模型的需求。
LiteLLM - 多语言模型的统一API管理和负载均衡解决方案
AI工具API统一LLM代理LiteLLM企业级服务开源
LiteLLM是一个代理服务器,为100多种大型语言模型提供统一API接口。它支持负载均衡、故障转移和支出跟踪,采用OpenAI格式。该工具简化了认证、资源分配和成本控制。LiteLLM提供开源和企业级解决方案,适用于不同规模组织。它拥有大量Docker下载量和请求服务量,得到众多贡献者支持。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号