#GPU加速

libplacebo - 跨平台GPU加速视频处理开源库
libplacebo视频渲染GPU加速色彩管理着色器系统Github开源项目
libplacebo是一个开源的GPU加速视频处理库,提供高质量上采样、HDR色调映射和色彩管理等功能。支持Vulkan、OpenGL和Direct3D 11,并提供高级API。该库已被VLC和FFmpeg等项目采用,适用于需要高性能视频渲染的应用。libplacebo注重算法质量和API易用性,为开发者提供强大而简洁的视频处理解决方案。
Harbeth - Swift图像处理库 支持GPU加速和实时相机滤镜
图像处理MetalGPU加速滤镜SwiftGithub开源项目
Harbeth是基于Metal的Swift图像处理库,提供GPU加速和实时相机捕捉功能。库内置100多种滤镜,涵盖混合、模糊、像素处理等模块。支持iOS和macOS平台,兼容UIKit/AppKit及SwiftUI。可为图像和视频添加滤镜效果,支持自定义LUT滤镜。此外还具备实时相机捕捉和流畅视频播放能力。
warp-drive - GPU驱动的高效多智能体强化学习框架
WarpDrive深度强化学习GPU加速多智能体并行计算Github开源项目
WarpDrive是一款开源的强化学习框架,专为GPU环境优化。它支持单GPU或多GPU上的端到端多智能体强化学习,通过充分利用GPU并行计算能力,显著提升训练速度。WarpDrive通过减少CPU和GPU间的数据传输,并在多智能体和多环境副本间并行运行模拟,大幅提高了计算效率。这使得同时运行海量并发模拟成为可能,实现了比传统CPU方案高出百倍的训练吞吐量。
models - 推荐系统深度学习模型库
Merlin Models推荐系统深度学习TensorFlowGPU加速Github开源项目
Merlin Models是专为推荐系统设计的深度学习库,提供从经典机器学习到前沿深度学习的多种高质量模型实现。该库简化了模型训练和部署流程,内置行业最佳实践,并支持GPU加速。Merlin Models主要提供TensorFlow API,包含矩阵分解、双塔模型等经典和最新推荐模型架构。此外,它还提供可重用的构建块,便于自定义模型,并与Merlin平台其他组件无缝集成,支持构建完整的推荐系统流程。
rl_games - 强化学习框架支持多环境及算法的高性能实现
RL Games强化学习GPU加速机器人学习多智能体训练Github开源项目
rl_games是一个高性能强化学习库,实现了PPO、A2C等算法,支持NVIDIA Isaac Gym、Brax等环境的GPU加速训练。该库具备异步actor-critic、多智能体训练、自对弈等功能,可在多GPU上并行。rl_games提供Colab notebook示例便于快速上手,在多个基准测试中表现出色。作为一个功能丰富的强化学习工具,rl_games兼具高性能和易用性。
GPUMD - GPU加速的分子动力学模拟和机器学习势能开发工具
GPUMD分子动力学GPU加速机器学习势能NEPGithub开源项目
GPUMD是一款在GPU上实现的高效分子动力学模拟工具。它支持神经进化势能(NEP)的训练和使用,提供热传导计算、光谱分解等功能。该工具性能高效,易于使用,适用于Linux和Windows系统。GPUMD提供丰富的教程、文档和相关Python包,便于进行大规模原子模拟和数据分析。
heavydb - 开源关系型列式数据库引擎 支持CPU和GPU高性能计算
HeavyDB数据库引擎SQLGPU加速大数据处理Github开源项目
HeavyDB是一款开源的SQL关系型列式数据库引擎,利用CPU和GPU的并行计算能力,可在毫秒级查询数十亿行数据,无需索引或预处理。支持混合CPU/GPU及纯CPU系统,采用多级缓存和即时查询编译技术优化性能。适用于大规模数据分析场景,提供高效的查询处理能力。
llm-api - 灵活易用的跨平台大语言模型API框架
LLM API大语言模型API接口Docker容器GPU加速Github开源项目
LLM-API是一个灵活的大语言模型API框架,支持在多种硬件平台上运行各类LLM模型。通过简单的YAML配置,它能自动下载模型并提供统一的API接口。支持Docker容器和本地运行,兼容Llama、GPT等多种模型。项目还包含Python客户端和LangChain集成,大大简化了LLM的应用开发过程,使其强大功能更易于开发者使用。
kitty - 快速功能丰富的跨平台开源GPU驱动终端模拟器
kitty终端模拟器跨平台GPU加速开源软件Github开源项目
kitty是一个开源的GPU驱动终端模拟器,特点是速度快、功能丰富且支持跨平台使用。项目提供详细文档,并在GitHub和Reddit上有活跃的社区支持。kitty持续更新维护,在多个软件仓库中保持良好的打包状态,确保了稳定性和广泛的可用性。这款终端模拟器支持Unicode、真彩色显示和自定义快捷键等现代化功能。
redroid-doc - 云端Android解决方案支持GPU加速
redroidAndroid虚拟化GPU加速容器化云端AndroidGithub开源项目
redroid是一个云端Android解决方案,支持GPU加速,适用于云游戏、虚拟手机和自动化测试。该项目兼容arm64和amd64架构,可通过Docker、podman或k8s在Linux主机上部署多个实例。redroid支持Android 14至8.1版本,允许自定义显示、网络和GPU设置。它还提供Native Bridge功能,使x86实例能运行arm应用,并支持集成GMS和WebRTC流媒体。
docker-pytorch - PyTorch开发环境的Docker镜像
PyTorchDockerCUDAGPU加速深度学习Github开源项目
docker-pytorch项目提供预配置的Docker镜像,整合Ubuntu、PyTorch和可选的CUDA。该镜像支持GPU加速,便于搭建深度学习环境。用户可运行PyTorch脚本和图形化应用,也可自定义镜像。这个项目为PyTorch开发者提供了便捷的环境配置方案。
raft - 可复用CUDA函数库加速向量搜索与机器学习
RAFTGPU加速机器学习向量搜索CUDAGithub开源项目
RAFT是一个CUDA加速的C++头文件库,为机器学习和信息检索提供基础算法和原语。它实现了先进的向量相似度搜索方法,包括暴力搜索、IVF-Flat、IVF-PQ和CAGRA。RAFT还提供可重用原语,用于构建涵盖数据生成、模型评估、分类回归、聚类等领域的机器学习算法。通过跨项目复用和集中核心计算,RAFT加速了算法开发,并使未来优化能广泛应用于各种算法。
Waifu2x-Extension-GUI - 多功能AI图像视频超分辨率和帧率提升工具
Waifu2x-Extension-GUI超分辨率视频插帧AI图像处理GPU加速Github开源项目
Waifu2x-Extension-GUI是一款集成多种AI算法的开源多媒体处理工具,支持图片、GIF和视频的超分辨率放大及帧率提升。可处理2D动漫和实景内容,兼容AMD/Nvidia/Intel GPU加速。软件提供友好界面和灵活设置,支持多GPU并行处理以提高效率。项目持续更新,是图像视频质量提升的有力工具。
torchquantum - 快速可扩展的PyTorch量子计算框架
TorchQuantum量子计算PyTorchGPU加速量子电路模拟Github开源项目
TorchQuantum是基于PyTorch的开源量子计算框架,支持多达30个量子比特的GPU加速模拟。它具有动态计算图、自动梯度计算和批处理模式等特性,适用于量子算法设计、参数化量子电路训练和量子机器学习研究。与同类框架相比,TorchQuantum在GPU支持和张量化处理方面表现出色。
pytorch-onn - 基于PyTorch的光子神经网络仿真与优化框架
PyTorch光子集成电路神经网络AI计算GPU加速Github开源项目
pytorch-onn是一个基于PyTorch的光子神经网络仿真框架。该框架支持GPU加速的相干和非相干光学神经网络训练与推理,可扩展至百万参数规模。它提供了高度优化的并行处理和多功能API,支持从器件到系统级的协同设计与优化。这一工具主要面向神经形态光子学、光学AI系统和光子集成电路优化等领域的研究人员。
vkdt - 基于GPU加速的开源RAW图像和视频处理工具
vkdt原始图像处理GPU加速图像处理工作流开源软件Github开源项目
vkdt是一个基于GPU加速的开源RAW图像和视频处理工具。它使用灵活的处理节点图作为核心,支持实时动画、延时摄影和RAW视频处理。通过GLSL着色器和Vulkan技术,vkdt实现了高效的图像处理。该工具还提供全窗口色彩管理、噪声分析和命令行界面等功能,适用于各种复杂的图像处理任务。
Swallow-7B-Instruct-GGUF - 适用于多平台的高效量化模型
GGUF格式Swallow 7B InstructHuggingface文本生成量化开源项目模型GithubGPU加速
Swallow 7B Instruct 采用GGUF格式,以高效的量化技术实现文本生成。该模型支持多种位数和硬件平台,可通过llama.cpp及text-generation-webui等软件使用并提供GPU加速,适合于需要高质量文本生成的多种应用。
libvpl - 开源GPU加速视频处理库
Intel VPLGPU加速视频处理AI推理硬件加速Github开源项目
Intel VPL是开源的GPU加速视频处理库,提供硬件加速的视频解码、编码和处理功能。适用于AI视觉推理、媒体传输、云游戏等场景。包含API头文件、调度器和示例代码,支持多种GPU平台。可通过源码或包管理器安装,并支持CMake和pkg-config集成。使用时需安装至少一个实现库。
phi-2-GGUF - 以多平台兼容性著称的高效GGUF格式模型
Github模型开源项目Phi 2GPU加速下载和运行量化方法模型兼容性Huggingface
探讨2023年8月由llama.cpp团队引入的微软Phi 2项目GGUF格式。页面包含详细的使用指南和应用案例,适合文本生成和推理。Phi 2具备跨平台兼容性和多种量化选项,支持GPU加速,是自然语言处理的良好选择。
Xwin-LM-70B-V0.1-GGUF - 提升AI模型兼容性的最新GGUF格式
Huggingface模型文件人工智能量化开源项目模型GithubGPU加速Xwin-LM 70B V0.1
Xwin-LM 70B V0.1采用全新的GGUF格式,取代了GGML,支持多种量化方法如Q2_K、Q3_K、Q4_K等,提升GPU和CPU兼容性。该模型兼容多种平台,如llama.cpp、text-generation-webui、KoboldCpp等,应用场景多样。提供详细的量化文件下载和使用说明,适合开发者和研究人员进行AI模型优化。
deepseek-coder-6.7B-instruct-GGUF - Deepseek全新GGUF格式 高效代码智能助手专注计算机科学
Huggingface量化开源项目模型Github计算机科学GPU加速模型格式Deepseek Coder 6.7B Instruct
DeepSeek引入新型GGUF格式,提供高效代码助手,专注计算机科学问题。该模型经Massed Compute硬件进行量化优化,兼容llama.cpp、text-generation-webui及KoboldCpp等多种框架,并支持GPU加速。用户能接触到从小尺寸到高保真度的量化模型文件,多样化应用场景支持丰富。资源库还提供未量化的DeepSeek原始fp16模型及适用于GPU推理的AWQ和GPTQ模型。
Yi-Coder-9B-Chat-GGUF - 多位宽量化的Yi-Coder-9B-Chat GGUF代码生成模型
模型GPU加速开源项目HuggingfaceGGUF格式Yi-Coder-9B-Chat本地运行Github模型文件
Yi-Coder-9B-Chat-GGUF是01-ai原始代码生成模型的GGUF格式版本,提供2至8位量化选项。该模型兼容多种GGUF支持工具,如llama.cpp和LM Studio,便于本地部署。不同位宽的量化版本可满足各种性能和资源需求,适用于多样化的代码生成场景。
jina-bert-flash-implementation - 将BERT与Flash-Attention结合的高效模型实现
模型模型配置BERTFlash-AttentionGithub深度学习Huggingface开源项目GPU加速
本项目展示了一种将Flash-Attention技术与BERT模型相结合的实现方案。内容涵盖了依赖安装指南、参数配置说明和性能优化策略。核心功能包括Flash Attention的应用、局部注意力窗口的实现以及稀疏序列输出。此外,项目还引入了多项可调节的配置选项,如融合MLP和激活检查点,以适应各种训练环境和硬件条件。该实现的目标是提高BERT模型在处理大规模数据集时的训练效率和内存利用率。
f-coref - 高效指代消解模型显著提升自然语言处理效率
共指消解HuggingfaceGPU加速模型深度学习Github开源项目自然语言处理F-Coref
F-Coref是一种先进的指代消解模型,能在25秒内处理2800份OntoNotes文档,比其他主流模型快数倍。该模型通过蒸馏技术和创新的批处理方法实现了性能突破,在保持高准确率的同时大幅提升了处理速度。F-Coref在速度和内存使用方面都优于现有解决方案,为自然语言处理领域提供了高效可靠的指代消解工具。
TinyLlama-1.1B-Chat-v0.3-GGUF - 探索TinyLlama 1.1B Chat v0.3的GGUF格式模型
GGUFGPU加速Huggingface量化方法Github开源项目TinyLlama模型兼容性
项目为TinyLlama 1.1B Chat v0.3提供GGUF格式模型,该格式由llama.cpp团队于2023年推出,支持多种客户端和库如text-generation-webui和LM Studio,并提供GPU加速。用户可获取不同量化参数的模型文件,以适应各种需求。项目还详细介绍了在命令行、Python代码及LangChain中使用模型的方法,帮助技术用户在多平台上实现高效运行。
EstopianMaid-13B-GGUF - 量化格式的EstopianMaid-13B模型,兼容多平台与多UI
HuggingfaceLlama量化开源项目模型GithubGPU加速EstopianMaid 13BApache 2.0
EstopianMaid 13B的GGUF格式文件由llama.cpp团队推出取代GGML。项目涵盖多种量化与文件规格,兼容包括llama.cpp在内的多种平台和UI。详细的下载指导帮助用户选择最佳配置,支持GPU和CPU推理,适用于多种文本生成场景。
CodeLlama-13B-Instruct-GGUF - 探索GGUF在高效处理与兼容性上的独特优势
Github编程助手CodeLlama 13B InstructGPU加速Huggingface模型量化模型开源项目文本生成
CodeLlama 13B Instruct项目引入了由llama.cpp团队开发的GGUF格式,提供了比GGML更优的解决方案。在标记分词、特殊标记及元数据支持方面有所改进,并提供多种量化模型选项,从Python到Web UI的广泛兼容性及GPU加速支持,使其成为性能与便捷性的优秀结合。
llama-30b-supercot-GGUF - Llama 30B Supercot GGUF:多种量化格式与GPU加速
开源项目模型文件模型GPU加速HuggingfaceLlama 30B Supercot量化Github新格式
GGUF格式的Llama 30B Supercot模型支持GPU加速,具备多个量化选项。由ausboss创建,提供多种格式适应不同需求,推荐Q4_K_M格式以实现性能与质量的平衡。GGUF是GGML的替代格式,兼容多种用户界面和库,如llama.cpp、text-generation-webui,适合于机器学习和AI领域应用。
Phind-CodeLlama-34B-v2-GGUF - 利用GGUF格式提升模型性能,兼容多平台GPU加速
Github开源项目文本生成CodeLlamaGPU加速格式转换Huggingface模型量化模型
Phind's CodeLlama 34B v2采用GGUF格式,由llama.cpp团队在2023年8月21日推出替代GGML。GGUF实现了更优的标记化及特殊标记支持,并且具有可扩展性。兼容多种第三方界面与库(如text-generation-webui和KoboldCpp),并支持GPU加速。量化模型在保持高质量的同时降低了资源占用,适用多种场景,建议使用Q4_K_M与Q5_K_M模型以实现最佳性能及质量平衡。
guanaco-65B-GGUF - 解析新型GGUF格式及其多平台兼容性
Guanaco 65BGithub开源项目量化GPU加速模型格式HuggingfaceTim Dettmers模型
此项目涵盖了2023年8月21日由llama.cpp团队推出的GGUF格式,作为已停用的GGML格式的替代方案。该项目提供了多种比特的量化文件,适用于CPU和GPU的推理需求。用户能够通过多种客户端和库,如llama.cpp和text-generation-webui,下载并高效使用这些模型,提供本地及网络接口支持。所支持的量化方法包括GGML_TYPE_Q4_K,提供质量与性能的平衡。
Llama-3.2-3B-Instruct-uncensored-GGUF - 高效文本生成的前沿模型格式
GPU加速量化模型格式Llama-3.2-3B-Instruct-uncensored-GGUF模型Github开源项目文本生成Huggingface
Llama-3.2-3B-Instruct-uncensored-GGUF采用了最新的GGUF格式,替代了不再支持的GGML,提升了大规模文本生成的性能。它兼容多种客户端与库,从llama.cpp到进阶GPU工具,包括Python库和用户友好的图形界面,如LM Studio和text-generation-webui,以及适用于故事创作的KoboldCpp。此更新提升了模型推理效率,具有广泛的兼容性,适用于多种系统平台,实现快速响应与多功能扩展。
Wizard-Vicuna-13B-Uncensored-GGUF - Wizard Vicuna大语言模型的GGUF量化实现
Github开源项目量化AI模型GPU加速GGUFHuggingfaceLLM模型
Wizard Vicuna 13B模型的GGUF量化版本,提供2-bit至8-bit多种量化精度选项。GGUF作为llama.cpp最新支持的模型格式,可实现高效的本地部署和推理。模型支持CPU与GPU加速,采用Vicuna对话模板,适用于多种文本生成场景。
Mistral-7B-v0.1-GGUF - 多平台支持的GGUF格式模型文件,提升推理效率
Github开源项目文本生成GPU加速Mistral 7B v0.1Huggingface量化方法开源模型模型
Mistral AI发布的Mistral 7B v0.1模型以GGUF格式支持多种文本生成任务。此格式由llama.cpp团队开发,替代旧的GGML格式,兼容多平台和库,包括支持GPU加速的text-generation-webui、KoboldCpp和LM Studio等。项目提供多样的量化模型文件,适配不同推理需求,保证了启发式使用中的高效性能。用户可通过简单的下载及命令行操作获取模型,并支持Python等语言的集成,为文本生成任务提供了高性能的解决方案。
CodeLlama-7B-Instruct-GGUF - 多模式推理的新型代码生成工具
GPU加速GPTQ模型量化方法CodeLlama 7B Instruct模型Github开源项目文本生成Huggingface
CodeLlama-7B-Instruct-GGUF由Meta开发,是一款采用GGUF格式的代码生成工具,支持多种量化方法和标记优化。适合多种推理场景,包括GPU和CPU协同使用,兼容多种第三方接口和库。
stable-diffusion - 基于Habana Gaudi处理器实现高性能AI图像生成方案
Github模型开源项目Stable DiffusionGPU加速Huggingface人工智能Habana混合精度训练
Stable Diffusion模型在Habana Gaudi处理器上的优化配置方案。该方案集成了Hugging Face生态系统,支持高效的模型训练和部署,可在单处理器或多处理器环境下运行,适用于需要高性能图像生成的应用场景。
Arabic-Orpo-Llama-3-8B-Instruct-GGUF - 阿拉伯语AI文本生成:支持新GGUF格式的创新工具
技术更新模型选择开源项目GGUF接口支持模型GPU加速HuggingfaceGithub
GGUF格式是llama.cpp团队在2023年推出的创新替代方案,旨在取代过时的GGML格式。多个应用程序和库已支持该格式,如ollama、llama.cpp和llama-cpp-python,后者提供GPU加速和OpenAI兼容功能。这些工具不仅提高了文本生成的效率,也为Windows、Linux和macOS用户提供了更多便利,尤其是支持故事生成和其他高级功能,为需要先进人工智能功能的用户提供理想解决方案。