Project Icon

opt-125m-dummy-lora

基于PEFT库的工具用于大型语言模型的优化与微调

opt-125m-dummy-lora项目借助PEFT库优化大型语言模型,提供基本使用指导,并探讨模型在训练及评估中的偏见、风险、限制。低碳排放对环保友好,适用于关注高效环保的AI开发者。

Platypus - 高效经济的大语言模型微调开源项目
GithubLLMPlatypus开源开源项目微调模型合并
Platypus是一个开源项目,提供基于LLaMA和LLaMa-2架构的微调和融合模型。该项目使用LoRA和PEFT技术,实现高效的大语言模型微调。Platypus包含完整的训练流程,涵盖数据集精炼、模型微调和权重合并。在多项基准测试中,Platypus展现出优秀性能。这个项目为研究人员和开发者提供了优化定制语言模型的工具。
Prompt-Engineering-Toolkit - 多模型AI对话提示优化工具
API集成GithubPrompt Engineering Tool大语言模型开源项目提示词优化用户界面
Prompt-Engineering-Toolkit是一个用于优化AI语言模型对话提示的Web应用。支持OpenAI和Anthropic等多个LLM提供商,可同时测试多个模型并比较输出结果。具备变量管理、提示模板保存加载、模型配置管理等功能。适用于开发者、研究人员和内容创作者,有助于提升AI对话效果。界面采用响应式设计,支持调整面板大小和模型温度参数。
Pretrained-Language-Model - 先进预训练语言模型与优化技术集合
GithubMindSporePyTorchTensorFlow开源项目自然语言处理预训练语言模型
此开源项目汇集了多个先进的预训练语言模型和相关优化技术。包含200B参数中文语言模型PanGu-α、高性能中文NLP模型NEZHA、模型压缩技术TinyBERT和DynaBERT等子项目。这些模型在多项中文NLP任务中表现出色,支持MindSpore、TensorFlow和PyTorch等多种深度学习框架。
LazyLLM - 低代码开发大语言模型应用的工具
AI应用GithubLazyLLM低代码开发多智能体应用开源项目模型微调
LazyLLM,一个创新的低代码平台,旨在帮助开发者低成本构建多智能体大语言模型应用。它简化了AI应用的构建及部署流程,支持一键式部署和跨平台操作,有效简化了初学者和技术专家的AI开发工作。
exploring-AI-optimization - 人工智能模型优化技术的精选学习资源
AI优化Github剪枝开源项目深度学习编译器蒸馏量化
Exploring AI optimization项目是一个聚焦AI优化技术的资源库,收录了量化、剪枝等领域的高质量论文、教程和课程。该项目每周更新AI优化领域的重要研究见解,为研究人员和开发者提供学习参考,推动AI技术发展。资源库开放社区贡献,鼓励知识交流与分享。
qwen2.5-7b-ins-v3-GGUF - 量化优化AI模型的多样化选择指南
GithubHuggingfaceQwen2.5-7b-ins-v3quantization参数嵌入权重开源项目模型
该项目利用llama.cpp的b3901版本和imatrix选项对AI模型进行量化优化,支持各种硬件的量化格式下载。在LM Studio中运行这些模型,可通过缩小文件大小实现更高效的部署。K-quant格式在低资源环境中表现突出,而I-quants则在某些情况下显示出其新方法的优越性能,尤其建议ARM芯片用户选择Q4_0_X_X以获取更快速的响应。
LangDrive - 开源大语言模型微调的统一API解决方案
AI助手AI工具APILangDrive开源LLM模型训练
LangDrive为开源大语言模型微调提供统一API接口,支持100多种LLM。该AI框架允许开发者连接私有数据、训练模型并部署至Hugging Face。平台功能包括自定义数据导入、自动化训练流程和完全的模型权重所有权。适用于自然语言处理、文本生成等多种AI应用场景,LangDrive还提供免费LLM微调服务和在线模型试用,简化了自定义AI模型的开发和应用过程。
Megatron-LM - 优化GPU训练技术 加速大规模Transformer模型
GPU优化GithubMegatron-CoreMegatron-LM分布式训练大语言模型开源项目
Megatron-LM框架利用GPU优化技术实现Transformer模型的大规模训练。其Megatron-Core组件提供模块化API和系统优化,支持自定义模型训练。该项目可进行BERT、GPT、T5等模型预训练,支持数千GPU分布式训练百亿参数级模型,并提供数据预处理、模型评估和下游任务功能。
offsite-tuning - 隐私保护的高效模型微调框架
GithubOffsite-Tuning基础模型开源项目效率提升迁移学习隐私保护
Offsite-Tuning是一种迁移学习框架,允许在不完全访问原始模型的情况下对大型基础模型进行微调。该方法使用轻量级适配器和压缩仿真器,保护模型所有者和数据所有者的隐私,同时提高计算效率。与传统全模型微调相比,Offsite-Tuning保持相当准确性,同时实现6.5倍速度提升和5.6倍内存减少,适用于大规模语言和视觉模型。
awesome-huge-models - 大型AI模型最新动态与开源资源汇总
AI训练GithubLLMdeep learning模型大模型开源开源项目
详尽介绍大型AI语言模型最新进展及开源资源,包括训练代码、数据集和预训练权重。收录Baichuan、Falcon、OpenLLaMA等模型,并关注开源与分布式训练框架如PyTorch和XLA生态。提供全面资源链接,帮助研究人员和开发者了解当前AI模型的最前沿动态。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号