#GPU支持
Flux.jl
Flux.jl是一个基于100%纯Julia技术栈的机器学习框架,结合原生GPU和自动微分支持,提供简洁优雅的解决方案。该框架使简单任务易于实现,并且高度可定制。适用于Julia 1.9及更高版本,支持快速模型构建与训练。了解更多信息,请参阅快速入门和文档页面。
dask-sql
dask-sql是一个分布式SQL查询引擎,结合Python和SQL,支持无限扩展计算。通过pip或conda安装,可与Jupyter Notebook或BI工具集成,并支持CUDA GPU查询加速。dask-sql支持多种数据格式和存储位置,通过UDFs增强查询能力,适用于本地和云端大规模计算。详细信息请参考官方文档。
lancedb
LanceDB 是一款开源的多模态向量数据库,具备持久存储功能,能够简化嵌入的管理与检索。它支持生产级别的向量搜索,无需管理服务器,可存储、查询和过滤向量、元数据以及多模态数据(包括文本、图片、视频、点云等)。它还支持向量相似性搜索、全文搜索和SQL查询,并提供原生的Python和JavaScript/TypeScript支持,同时实现零拷贝和自动版本管理。LanceDB 与 LangChain、LlamaIndex、Apache-Arrow、Pandas、Polars、DuckDB 等多个生态系统集成。其核心由Rust编写,基于Lance构建,专为高性能机器学习工作负载而设计。
pomegranate
新版本将计算后端从Cython迁移到PyTorch,提升了速度和灵活性。新特性包括GPU支持、半精度计算、多变量分布、缺失值处理以及更好的社区贡献。改进后的pomegranate在混合模型、贝叶斯网络和隐马尔科夫模型的构建中表现出色,实现了高度的灵活性和效率。
stable-audio-metrics
stable-audio-metrics是一个评估音乐和音频生成模型的开源指标集合。它包含基于Openl3的Fréchet距离、基于PaSST的Kullback-Leibler散度和基于CLAP-LAION的CLAP分数。该项目针对长形式全频带立体声生成进行了优化,支持可变长度输入,并提供了详细文档和示例。适用于评估MusicCaps、AudioCaps和Song Describer等数据集的音频生成质量。
docker-whisperX
docker-whisperX项目优化了WhisperX语音识别工具的Docker镜像构建流程。该项目实现了175个10GB大小Docker镜像的并行构建,提供多种预构建镜像和自定义选项,支持不同语言和模型。用户可通过GPU加速,获得包含逐字时间戳和说话人分离的高质量语音转文字结果。
candle
Candle是一款基于Rust开发的机器学习框架,专注于性能优化和易用性。它支持GPU加速计算,提供LLaMA、Stable Diffusion等多种AI模型示例。Candle采用类PyTorch的简洁语法,支持模型训练和自定义操作。该框架具有优化的CPU和CUDA后端,同时支持WebAssembly。作为一个轻量级但功能强大的框架,Candle适用于机器学习应用的快速开发和部署。
whisper-asr-webservice
whisper-asr-webservice是一个开源的语音识别Web服务,基于OpenAI Whisper模型。它支持OpenAI Whisper和Faster Whisper引擎,提供多语言语音识别、翻译和语言识别功能。项目提供Docker镜像,支持CPU和GPU部署。这个服务具有高性能和易用性,适合各种语音识别应用场景。
node-mlx
node-mlx是基于MLX的Node.js机器学习框架,支持Apple Silicon GPU加速及x64 Mac和Linux平台。该框架提供丰富的API和示例,涵盖语言模型训练和文本生成等应用。node-mlx通过简化复杂的机器学习任务,使JavaScript开发者能够更便捷地构建和部署AI模型。