#性能提升

openvino - 提升深度学习模型部署与优化的开源工具包
OpenVINO深度学习模型优化模型部署AI应用性能提升Github开源项目热门
OpenVINO™是一款开源软件工具包,用于优化和部署深度学习模型。它支持多种框架如TensorFlow、PyTorch等,能在从边缘到云的多种平台上高效部署。此工具包还包含大量社区资源和教程,助力提升计算机视觉、自然语言处理等领域的模型性能。
GPTCache - 用于为 LLM 查询创建语义缓存的库
GPTCache缓存策略大语言模型API成本节约性能提升Github开源项目
GPTCache专为大型语言模型(LLM)设计,通过建立语义缓存库存储响应,以有效降低API调用费用并加快响应速度。项目兼容多种LLM,实现常见查询的缓存,简化重复请求,适合高效部署于生产环境。欢迎访问最新文档和发布通告。
unsloth - 提高模型速度,降低内存消耗
Unsloth.aiLlama 3.1性能提升免费notebooks内存优化Github开源项目
Unsloth提供高效AI模型调优方案,能将处理速度提升2倍,内存消耗降低60%。支持多种NVIDIA GPU型号,并适用于Llama 3.1、Mistral及Gemma等多种模型,全程无需更换硬件。易于操作的免费笔记本特别适合AI初学者。探索我们的网站,体验这一领先技术。
Chinese-LLaMA-Alpaca-3 - 中文Llama-3大模型及其精调版本的特性
Llama-3-Chinese中文大模型指令精调开源性能提升Github开源项目
Chinese-LLaMA-Alpaca-3项目推出了基于Meta新一代Llama-3技术的中文模型版本,涵盖原始及指令精调版本。这些模型利用海量中文数据增强了语义理解与指令执行性能,可广泛适用于多种中文文本处理任务。
ChatGLM2-6B - 基于GLM技术开发的中英双语对话模型
ChatGLM2-6B模型开源性能提升推理速度显存占用Github开源项目
ChatGLM2-6B,基于GLM技术开发的中英双语对话模型,1.4T中英数据预训练后展现出改善的多语言处理效果,支持长达32K的上下文长度,新技术支持更快的推理速度和更好的对话体验。适用于学术研究和商业应用,如聊天机器人和客服AI,提供技术支持与灵活部署方案。
YAYI2 - 中科闻歌研发的多语言开源大模型
YAYI2-30B多语言大语言模型开源中文预训练性能提升Github开源项目
YAYI 2,由中科闻歌研发,30B参数的多语言开源大模型。采用超过2万亿Tokens的多语言语料进行预训练,通过百万级指令和人类反馈强化学习微调,极大提升其在多领域的应用效率。现开源YAYI2-30B,助力全球中文AI技术的创新与进步。
unify - 整合多模型使用与提升性能的工具
UnifyLLM模型切换API性能提升Github开源项目
Unify通过统一接口简化了不同提供商Large Language Models(LLM)的使用,无需管理多个API密钥或处理不同格式。用户可以通过自定义测试和评估,优化模型质量、成本和速度,并实现最佳模型路由,快速部署应用。安装包并获取API密钥后,即可管理模型、提供商与端点,自定义提示、多消息发送及异步处理和流式响应。更多详情,请访问Unify文档。
CFU-Playground - 提高机器学习任务性能的FPGA处理器优化平台
CFU PlaygroundFPGA机器学习性能提升定制指令Github开源项目
CFU-Playground项目为工程师、实习生和学生提供了一个用于设计和评估FPGA“软”处理器增强功能的框架,专注于提升机器学习任务的性能。用户可以快速上手、自定义指令,并进行效率测试和性能测量,实现多次迭代。项目还包含TensorFlow Lite模型优化、硬件要求和软件工具链的详细设置指导,除Vivado外,所有工具均为开源。
FCOS - 完全卷积单阶段对象检测技术
FCOS目标检测卷积神经网络ResNet-50性能提升Github开源项目
FCOS算法是一种完全卷积的单阶段对象检测方法,通过避免使用锚点框,提高了检测性能和速度。在COCO minival数据集上,FCOS实现了46FPS和40.3的AP评分,并在各种模型和硬件上表现出色,包括ResNe(x)t和MobileNet等。与Faster R-CNN相比,FCOS在ResNet-50平台上表现更佳(38.7对36.8的AP),且训练和推理时间更短。该项目已基于Detectron2实现,并引入了多项优化和改进。
dlss-swapper - 游戏DLSS版本管理工具
DLSS SwapperDLSS游戏优化NVIDIA性能提升Github开源项目
DLSS Swapper是一款开源工具,用于下载、管理和替换游戏中的DLSS dll文件。它允许用户在无需等待官方更新的情况下,自由切换DLSS版本。该工具提供直观的界面,支持多个DLSS版本,并自动备份原始文件。虽然不能为原本不支持DLSS的游戏添加此功能,但DLSS Swapper为玩家提供了优化DLSS性能的灵活选择。
readyset - 针对Postgres和MySQL的自动同步透明数据库缓存解决方案
ReadySet数据库缓存SQL优化性能提升数据同步Github开源项目
ReadySet是一个为Postgres和MySQL设计的透明数据库缓存工具。它提供内存键值存储级别的性能和扩展性,无需修改应用代码或手动管理缓存。通过位于应用和数据库之间,ReadySet能将复杂SQL查询转化为高速查找。它利用数据库复制流自动同步缓存数据,兼容现有ORM和数据库客户端,为数据库查询提供显著的性能提升。
MG-LLaVA - 融合多粒度视觉特征的大语言模型
MG-LLaVA多粒度视觉指令调优多模态大语言模型视觉处理性能提升Github开源项目
MG-LLaVA是一种创新的多模态大语言模型,通过整合低分辨率、高分辨率和物体中心特征,显著提升了视觉处理能力。模型引入高分辨率视觉编码器捕捉细节,并利用Conv-Gate网络融合视觉特征。同时集成离线检测器的物体级特征,增强了物体识别能力。仅基于公开多模态数据进行指令微调,MG-LLaVA在多项基准测试中展现出优异的感知表现。
NEFTune - 革新语言模型指令微调的噪声嵌入技术
NEFTuneLLM微调嵌入向量噪声增强性能提升Github开源项目
NEFTune是一种创新的语言模型指令微调技术,通过向嵌入向量添加随机噪声来提升模型性能。这种方法无需额外计算资源或数据,却能显著改善对话质量。在AlpacaEval评估中,NEFTune将LLaMA-2-7B模型的性能从29.8%提升至64.7%。作为一种高效的LLM微调方案,NEFTune为模型优化提供了低成本、高收益的解决方案。
optimizer - Windows系统优化和隐私保护工具
OptimizerWindows优化隐私保护系统安全性能提升Github开源项目
Optimizer是一款功能全面的Windows系统优化工具,致力于提升系统性能和加强隐私保护。支持24种语言,可禁用多余Windows服务和遥测功能,控制自动更新,快速安装实用程序,清理系统,修复注册表等。此外,Optimizer还提供硬件检查、自定义右键菜单和自动化操作,适合需要优化Windows系统体验的用户。
playbook - Windows系统优化与定制工具
ReviOSWindows优化系统定制性能提升隐私保护Github开源项目
ReviOS Playbook是一款Windows系统优化工具,通过删除冗余组件、优化性能和加强隐私保护,提供轻量、稳定的系统体验。它支持多个Windows 10和11版本,内置Revision Tool允许进一步定制。兼容AME Wizard,只需拖放playbook即可开始优化过程,操作简便,为Windows系统带来显著改善。
million - 高效优化 React 组件性能的工具
Million.jsReact优化虚拟DOM性能提升组件编译Github开源项目
Million.js 是一款优化 React 应用性能的工具,通过改进虚拟 DOM 实现,可将组件速度提升至多 70%。它无缝集成于现有 React 项目,减少渲染开销,帮助开发者实现接近原生 JavaScript 的运行效率,同时保留 React 的开发优势。
osx-optimizer - macOS系统性能优化脚本集合
OSX-OptimizermacOS优化性能提升系统设置虚拟机优化Github开源项目
OSX-Optimizer是一套为macOS设计的系统优化脚本集合。通过调整系统设置,该工具旨在提高启动速度、加载效率,并减少性能限制。项目包含多种优化选项,如禁用Spotlight索引、启用性能模式和减少动画效果等,尤其适用于虚拟机环境。这些脚本可根据具体需求进行选择,有助于提升macOS的整体性能和响应速度。
buffer-of-thought-llm - 思维缓冲技术提升大语言模型推理效能
Buffer of Thoughts大语言模型推理性能提升思维模板Github开源项目
Buffer of Thoughts (BoT)是一种创新的思维增强推理方法,通过元缓冲区存储思维模板并动态更新,显著提升了大语言模型的推理能力。在10项复杂推理任务中,BoT表现优异,如在Game of 24、Geometric Shapes和Checkmate-in-One等任务上分别提升11%、20%和51%。研究发现,结合BoT的Llama3-8B模型在性能上有望超越Llama3-70B模型。
Mistral-Small-Instruct-2409-bnb-4bit - 优化模型效率,降低内存消耗,实现免费微调
开源项目模型Github性能提升HuggingfaceMistral模型微调记忆节省Unsloth
Mistral-Small-Instruct-2409利用Unsloth技术实现了快速微调,与传统方法相比,显著降低约70%的内存使用,提高2到5倍的效率。该项目提供易于上手的Google Colab免费笔记本,支持多种导出格式包括GGUF和vLLM,同时提供详尽的安装和使用指南。Mistral-Small-Instruct-2409还支持函数调用和简易命令行交互,适合需高效生产推理的用户。
Meta-Llama-3.1-8B-Instruct - 创新技术实现大型语言模型微调的高效优化
UnslothHuggingface模型内存优化模型微调Github开源项目Llama 3.1性能提升
该项目开发了一种高效方法,大幅提升Llama 3.1、Gemma 2和Mistral等大型语言模型的微调效率。通过提供多个免费的Google Colab笔记本,项目使各类用户都能便捷地微调Llama-3 8B、Gemma 7B和Mistral 7B等模型。这些笔记本界面友好,适合各层次用户使用。采用此方法可将微调速度提升2-5倍,同时将内存使用降低最多70%,显著优化了资源利用。
Qwen1.5-4B-Chat - 支持多语种与长上下文的高级语言模型
开源项目模型Github多语言支持性能提升HuggingfaceTransformerQwen1.5语言模型
Qwen1.5是一种基于变压器架构的语言模型,提供八种型号,支持多语言处理和32K字符的上下文长度。这一版本在聊天模型的人类偏好方面表现显著提升,且不需要信任远程代码。改进涉及高级激活函数、注意力机制和多语言适应分词器。模型已在Hugging Face Transformers库上线,建议使用最新版本以避免可能错误。适用于多种文本生成任务,包含多种量化轻量化模型以满足不同需求。
Qwen1.5-72B - 支持多语言与性能提升的单向解码模型
Transformer架构开源项目性能提升Qwen1.5模型语言模型Huggingface多语言支持Github
Qwen1.5是一种基于Transformer架构的单向解码语言模型,提供包括0.5B至72B的多种尺寸,以及一个14B的MoE版本。该模型支持多语言和稳定的32K上下文长度,并显著提高聊天模型的性能。其采用SwiGLU激活和改进的分词器,适合多语言应用。建议结合SFT、RLHF等后续训练使用,无需依赖远程代码,是一种实用的文本生成工具。
mistral-7b-instruct-v0.3 - 高效finetune解决方案,减少内存占用提升速度
神经网络MistralHuggingface性能提升开源项目模型GithubUnsloth调优
这款通过Unsloth技术的Google Colab笔记本集合,简化了Mistral、Gemma和Llama等AI模型的finetune过程。简单操作即可提高模型速度超过两倍,并显著降低内存占用,同时允许将优化的模型导出为GGUF、vLLM,或上传至Hugging Face,适合初学者使用。
Qwen2.5-1.5B-Instruct-bnb-4bit - Unsloth功能提升模型微调效率,优化内存占用
Github性能提升模型指令微调开源项目多语言支持TransformerHuggingfaceQwen2.5
Qwen2.5系列包括多种尺寸和优化功能,提升编程与数学能力,支持29种语言,并具备长上下文处理能力。利用Google Colab上的免费notebook,可实现模型微调的速度提升和内存使用优化。Qwen2.5-1.5B-Instruct强化了指令响应、长文本生成、多语言处理及结构化数据处理能力。