Project Icon

Yi-1.5-34B-Chat-GGUF

多种量化选项助力Yi-1.5-34B-Chat模型优化

本文介绍了Yi-1.5-34B-Chat模型的多种量化方法,通过llama.cpp的imatrix选项,为不同需求提供多种文件版本和质量等级。用户可依据硬件条件选择合适的量化文件,满足RAM与VRAM的需求。文中附有使用指导和性能比较图表链接,帮助用户在性能和文件大小间权衡。此外,还说明了I-quant和K-quant的区别及应用场景,便于用户在不同硬件环境中高效应用该文本生成模型。

Codestral-22B-v0.1-IMat-GGUF - Codestral-22B-v0.1量化模型及IMatrix文件下载指南
Codestral-22B-v0.1GithubHuggingfaceIMatrix下载步骤代码生成开源项目模型量化
Codestral-22B-v0.1项目提供了多种量化版本,包括Q8_0、Q6_K、Q4_K等,并支持IMatrix数据集的应用。用户可通过huggingface-cli下载这些文件,对于较大的文件,可使用gguf-split工具进行合并。更新版本修复了FIM标记缺失,并通过部分量化方法提升性能。项目涵盖的量化文件类型多样且灵活,满足不同的应用需求。
ChatGLM-Efficient-Tuning - 微调ChatGLM-6B模型,支持多种训练和量化方法
ChatGLMGithubRLHF开源项目数据集机器学习高效微调
ChatGLM-Efficient-Tuning项目提供高效微调ChatGLM-6B模型的工具和方法,支持LoRA、P-Tuning V2等多种微调方式,适用于单GPU和多GPU训练。项目还提供Web UI和CLI操作,支持4-bit和8-bit量化训练。通过丰富的数据集和功能,如强化学习和模型评估,满足不同场景的微调需求。详情请参见项目Wiki。
Tiny-Vicuna-1B-GGUF - 量化的Tiny Vicuna 1B GGUF模型文件优化文本生成效率
GithubHuggingfaceTiny-Vicuna-1B开源项目文件文本生成模型量化
此项目提供了afrideva量化的Tiny Vicuna 1B GGUF模型文件,涵盖q2_k、q3_k_m、q4_k_m、q5_k_m、q6_k和q8_0等量化方法,文件大小从482.14 MB到1.17 GB不等。模型由Jiayi-Pan在TinyLLama 1.1B基础上创建,利用WizardVicuna数据集进行微调,适合早期的实验迭代。模型旨在提升文本生成任务的效率,具备高效性能和简便操作,适合紧凑存储需求的应用。
stablelm-2-12b-chat-GGUF - 多样化质量需求的文本生成解决方案
GithubHuggingfaceLlamaEdgestablelm-2-12b-chat开源项目文本生成模型模型量化稳定性AI
Stablelm-2-12b-chat-GGUF项目提供多种量化策略,支持多样化文本生成需求。项目由Second State Inc.完成量化,优化性能同时缩小模型体积。推荐Q5_K_M和Q5_K_S版本,以其低损失特性适合高精度文本生成。集成LlamaEdge服务和命令行应用,支持灵活的上下文配置,助力优化文本处理。
Llama-2-13B-chat-AWQ - 增强Transformer模型推理效率的AWQ量化技术
GithubHuggingfaceLlama 2Meta对话优化开源项目文本生成模型模型量化
Llama-2-13B-chat-AWQ项目利用AWQ低比特量化提高Transformer模型推理效率,支持4比特量化技术,相较于传统GPTQ方法,能更快速地实现多用户并发推理,降低硬件要求和部署成本。AWQ现已兼容vLLM平台进行高吞吐量推理,尽管总体吞吐量较未量化模型略有不如,但可通过较小的GPU实现高效部署,比如70B模型仅需一台48GB GPU即可运行。
Yi - Yi系列打造领先的开源双语大语言模型
01.AIGithubYi双语大语言模型开源开源项目
Yi项目旨在开发新一代开源双语大语言模型。基于3T多语言语料训练,Yi系列模型在语言理解、常识推理和阅读理解等方面表现优异。Yi-34B-Chat模型在AlpacaEval排行榜上位居第二,仅次于GPT-4 Turbo。Yi基于Transformer和Llama架构,通过独特的训练数据、流程和基础设施实现了卓越性能。
OmniQuant - 简便高效的大型语言模型量化技术
GithubLLaMAOmniQuant大语言模型开源项目量化高效QAT
OmniQuant是一种高效的量化技术,支持多种大型语言模型(LLM)的权重和激活量化,包括LLaMa和OPT等。其实现了4位及更低精度的权重量化,并通过MLC-LLM优化在多种硬件设备上的推理性能和内存占用。此外,项目还支持Mixtral和Falcon模型的压缩应用,大幅降低内存需求,提高运行效率。
chatllm.cpp - 跨多模型的高效纯C++实时推理工具
CPU推理ChatLLM.cppGPT模型Githubggml开源项目量化模型
ChatLLM.cpp项目支持从1B到300B多种模型的高效推理,适用于本地电脑的实时聊天。通过优化的KV缓存和并行计算提升内存使用效率,并提供int4/int8量化以减少内存占用。该项目基于ggml库实现,支持Retrieval Augmented Generation、LoRA以及Python和JavaScript绑定等功能。发布了多种最新模型和工具调用,适合深度学习和自监督学习研究者。
Llama3-Chinese-Chat - 基于Llama 3的中英双语优化大语言模型
ChineseGithubLlama3人工智能开源项目自然语言处理语言模型
Llama3-Chinese-Chat项目基于Meta-Llama-3-8B-Instruct模型开发,采用ORPO方法优化训练,大幅提升中英双语交互能力。该模型具备角色扮演、工具使用等功能,提供多种版本选择。最新v2.1版本在数学、角色扮演和函数调用方面性能显著提升,训练数据集扩充至10万对。项目同时提供Ollama模型和量化版本,便于快速部署使用。
chatglm.cpp - C++实现的ChatGLM实时聊天工具
C++ChatGLMGithub实时聊天开源项目机器学习模型量化
ChatGLM.cpp 是一个使用C++实现的实时聊天项目,支持ChatGLM-6B、ChatGLM2-6B、ChatGLM3和GLM-4模型,兼容多种硬件和操作系统。项目通过int4/int8量化、优化的KV缓存和并行计算技术,实现了高效的CPU推理,并支持P-Tuning v2和LoRA微调模型。该项目还提供Python绑定、网络演示和API服务器,扩展了使用场景,适用于高效实时聊天。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号