#高性能

cnosdb - 开源分布式时序数据库 专注物联网和工业互联网应用
CnosDB时序数据库高性能云原生开源Github开源项目
CnosDB是一款开源分布式时序数据库,专为物联网、工业互联网、车联网和IT运维领域设计。该数据库充分利用时序数据特性,具有高性能、高压缩比和易用性。CnosDB支持无限时间序列数据、聚合查询和历史数据补充,提供标准SQL接口和第三方工具集成。作为云原生解决方案,CnosDB适用于公有云、私有云和混合云部署,支持水平扩展。
picologging - Python高性能日志库 显著提升处理速度
picologgingPython日志库高性能兼容性Github开源项目
picologging是一个高性能Python日志库,可作为标准库logging模块的替代品。它提供4-17倍的速度提升,支持与logging相同的API,可直接替换现有应用。该库设计简单易用,适合需要高效日志处理的Python项目,能显著提升应用性能。
julia - 科技计算领域的高性能动态编程语言
Julia编程语言技术计算高性能开源Github开源项目
Julia语言为科技计算领域提供了高性能的动态编程环境。它支持并行和分布式计算,拥有活跃的社区和丰富的包生态系统。Julia在数值计算和数据分析方面表现优异,适用于机器学习、科学模拟和金融建模等领域。该语言融合了高性能与易用性,为科研和工程应用提供了强大的工具。
fes-design - Vue3高性能组件库,按需引入与主题定制
Vue3组件库Fes Design高性能按需引入主题配置Github开源项目
Fes Design是基于Vue3和TypeScript构建的高性能组件库,支持按需引入、国际化和主题配置。该库提供丰富的UI组件和图标,安装便捷,可通过npm或pnpm快速集成。Fes Design旨在提高开发效率,同时保持灵活的定制性,适用于多种现代Web应用场景。其简洁API和完善文档有助于开发者快速上手,为前端项目提供强大的UI支持。
reductstore - 专为大容量非结构化数据设计的高性能时序数据库
ReductStore时序数据库blob数据高性能边缘计算Github开源项目
ReductStore是一款高性能时序数据库,专门用于存储和管理大量非结构化数据。它具有出色的写入和实时查询性能,支持数据批处理,适用于边缘计算、计算机视觉和物联网等应用场景。该数据库提供HTTP(S) API、实时FIFO存储桶配额和数据标记功能,并支持多种编程语言的客户端SDK,有效简化了开发流程。
MMKV - 跨平台高性能键值存储框架
MMKV键值存储多平台高性能跨进程Github开源项目
MMKV是一款高效、轻量级的跨平台键值存储框架,在微信等应用中广泛使用。它支持Android、iOS/macOS、Windows、POSIX和HarmonyOS NEXT等多个平台。MMKV通过mmap实现内存与文件同步,并使用protobuf进行数据编解码,达到卓越性能。框架支持多进程并发访问,无需额外同步操作,所有修改即时保存。MMKV代码结构简洁,二进制大小仅约50K,是理想的轻量级存储方案。
static-web-server - 高性能跨平台静态文件服务器
Static Web Server静态文件服务高性能跨平台异步Github开源项目
Static Web Server是一个轻量级高性能静态文件服务器。它采用Rust语言开发,支持Linux、macOS和Windows等多个平台。该服务器特点包括内存安全、资源占用低,支持HTTP/2和TLS,以及GZip和Brotli压缩。此外,它还提供目录列表、CORS支持和URL重写等功能,可满足各类静态文件托管需求。
HP-Socket - 跨平台高性能网络通信框架 支持大规模并发
HP-Socket网络框架高性能C++服务器组件Github开源项目
该框架基于IOCP/EPOLL模型,通过内存池和私有堆技术实现高效内存管理。HP-Socket支持服务器、代理和客户端组件,适合大规模并发通信。框架提供C++和C接口,集成SSL加密和HTTP协议支持。项目包含详细开发文档和类图,并有MacOS及.NET版本的扩展。
buffalo - 高性能开源推荐系统框架
Buffalo推荐系统开源项目高性能KakaoGithub
Buffalo是一款由Kakao开发的开源推荐系统框架,具有高性能和可扩展性。它针对CPU和SSD进行了优化,同时在GPU上也有良好表现,能够有效利用系统资源。Buffalo已在多个Kakao服务的生产环境中得到验证,支持Python 3.8+,需要cmake 3.17+和支持C++14的gcc/g++编译器。该项目采用Apache 2许可证,为开发者提供了灵活的使用空间。
lucene - Java高性能全功能文本搜索引擎库
Apache Lucene全文搜索引擎Java库开源项目高性能Github
Apache Lucene是一个Java编写的文本搜索引擎库。它提供索引和搜索功能,支持多种语言和数据格式。Lucene具有可扩展性,适用于不同规模的应用。它支持布尔查询、短语查询、邻近查询等多种查询类型,并提供高效的倒排索引机制。Lucene拥有开源社区,持续更新,并提供开发文档。它可用于构建搜索应用或优化现有系统。
solr - 开源高性能搜索引擎
Apache Solr搜索平台开源企业级高性能Github开源项目
Apache Solr是基于Lucene的开源搜索引擎,提供高效的全文检索和实时索引功能。支持分布式搜索、灵活配置、容器化部署和集群管理。Solr具备强大的搜索和分析能力,适用于企业、电商和数据分析等场景。其丰富的功能(如facet搜索)、卓越的性能和高扩展性可满足复杂的搜索需求。凭借易用的管理界面,Solr成为构建现代搜索应用的理想选择。
tailcall - 将GraphQL后端构建简化为无代码API编排工具
GraphQLTailcallAPI高性能开源Github开源项目
Tailcall是一款开源的GraphQL后端构建工具,通过配置文件定义架构和解析逻辑,实现无代码API编排。该工具在性能测试中表现优异,支持N+1查询优化,安装和使用简便。Tailcall为开发者提供了一种高效构建现代化、可扩展GraphQL API的解决方案。
ioredis - Node.js的全功能Redis客户端
ioredisRedisNode.js数据库高性能Github开源项目
ioredis是一个功能全面的Node.js Redis客户端。它支持Redis集群、哨兵、流处理、管道操作和Lua脚本等特性。ioredis提供直观的API,支持回调和Promise,具备命令参数转换、键前缀等功能。此外,它还支持二进制数据处理、TLS加密和离线队列。ioredis使用TypeScript开发,提供类型声明,兼容Redis 2.6.12及更高版本。
uWebSockets.js - 轻量高效的Node.js Web服务器
uWebSockets.jsWeb服务器高性能Node.jsV8插件Github开源项目
uWebSockets.js是一个开源的高性能Web服务器,专为实时通信和高并发场景设计。它是C++编写的Node.js原生V8插件,在性能测试中表现出色,比Socket.IO快10倍,比Fastify快8.5倍。这个项目以简单、安全和标准兼容为特点,适合高要求的应用场景。作为Bun的核心组件之一,uWebSockets.js提供详细文档和示例,方便开发者快速上手。
deepkit-framework - 企业级TypeScript应用开发的高性能实时框架
Deepkit FrameworkTypeScript高性能实时企业应用Github开源项目
Deepkit Framework是一个面向企业级应用开发的TypeScript框架。它集成了独立的TypeScript库,提供高性能和实时处理能力。框架支持HTTP、RPC和CLI控制器,包含ORM集成和GraphQL支持。Deepkit生态系统涵盖OpenAPI生成、Serverless适配器等社区包,为开发者提供多样化的功能选择。
revogrid - 百万级数据处理的高性能网格组件
RevoGrid数据网格组件高性能虚拟滚动框架兼容Github开源项目
RevoGrid是一款基于StencilJS构建的数据网格组件,可高效处理百万级单元格和上千列数据。它支持虚拟滚动、公式计算、拖放操作等功能,具有高性能、无障碍设计和丰富的自定义选项。RevoGrid适用于多种框架,适合大规模数据展示和编辑场景。
all-in-one - Nextcloud全功能集成方案 简化云存储部署与管理
Nextcloud容器化备份自动化高性能Github开源项目
Nextcloud All-in-One是一款集成度高的云存储解决方案,集成了Nextcloud核心、高性能后端、Office套件、通讯服务等多项功能。该方案部署简便、维护方便,具备Web界面操作、自动更新备份、高性能配置等特点。支持多平台运行,兼容Docker和Kubernetes,适合快速搭建安全可靠的私有云存储系统。
krakend-ce - 开源高性能API网关 专为微服务架构设计
KrakenDAPI网关微服务高性能可扩展Github开源项目
作为开源高性能API网关,KrakenD-CE专注于微服务架构。它提供内容聚合、安全保护和流量控制功能,易于扩展且可靠。支持GitOps和声明式配置,适配多种平台,有助于API的高效构建和管理,同时优化运营成本。
rocketmq - 开源的分布式消息和流处理系统
Apache RocketMQ分布式消息系统流处理平台高性能可靠性Github开源项目
Apache RocketMQ是一个开源的分布式消息和流处理系统,以低延迟、高性能和可靠性著称。该系统支持万亿级消息吞吐量,具有灵活的扩展能力。RocketMQ支持发布/订阅、请求/回复等多种消息模式,并提供流处理功能。系统特性包括金融级事务消息、内置容错机制、高可用性配置、消息追踪和大数据生态系统集成。RocketMQ可应用于订单处理、库存管理和实时数据分析等多个领域。
cphalcon - 快速高效的PHP Web开发框架
PhalconPHP框架高性能开源C扩展Github开源项目
Phalcon是一款基于C扩展的开源PHP Web框架,以高性能和低资源消耗著称。该框架采用Zephir/C语言开发,可在Windows、Linux、FreeBSD和macOS等多个平台上运行。Phalcon不仅提供完善的安装指南和API文档生成工具,还拥有活跃的社区支持。框架使用BSD 3-Clause许可证,并持续更新以满足现代Web开发需求。
puck - 高效近似最近邻搜索库 专注大规模数据集性能
PuckANN搜索向量索引高性能内存优化Github开源项目
Puck是一个高效的C++近似最近邻(ANN)搜索库,其名称来源于莎士比亚作品中的精灵角色。该项目包含Puck和Tinker两种算法,在多个1B数据集上表现出色。Puck采用两层倒排索引架构和多级量化,可在有限内存下实现高召回率和低延迟,适用于大规模数据集。Tinker则针对较小数据集优化,性能超过Nmslib。该库支持余弦相似度、L2和IP距离计算,并提供Python接口,方便开发者集成使用。
lnx - 基于 tantivy 的高性能可定制搜索引擎
lnx搜索引擎全文检索高性能开源项目Github
lnx 是一个基于 tantivy 搜索引擎的高性能 REST 部署方案。它结合了 tokio-rs 运行时和 hyper 网络框架,实现毫秒级索引和高效搜索。lnx 支持复杂查询解析、模糊查询和 More-Like-This 查询等功能,并提供性能调优选项。该项目适用于处理大规模数据集,能够提供快速、准确的搜索服务。
dicom - Go语言开源DICOM医学影像解析库
DICOM医学图像解析Go语言高性能开源库Github开源项目
dicom是一个开源的Go语言库和命令行工具,用于处理DICOM医学影像文件。它支持多帧图像解析、流式处理和数据集编码等功能。该项目采用Go模块和语义化版本,为开发者提供高效易用的DICOM解析工具。
NoromaidxOpenGPT4-2-GGUF-iMatrix - 模型融合提升性能与灵活性
NoromaidxOpenGPT4Instruct模型Huggingface非商业用途高性能开源项目模型模型合并Github
NoromaidxOpenGPT4-2通过合并Noromaid-8x7b-Instruct和Open_Gpt4_8x7B_v0.2模型,提升了性能和灵活性。与早期版本相比,新版本基于Open_Gpt4_8x7B_v0.2,采用TIES合并方法。用户可以下载imatrix文件进行额外量化操作。独特的方法使每个版本都有其特定优势。
distil-small.en - 轻量快速的英语语音识别模型,保持高准确率
语音识别Github开源项目高性能TransformersDistil-Whisper模型Huggingface模型压缩
distil-small.en是Whisper模型的轻量化版本,参数量为166M。相比原始模型,速度提升6倍,体积减少49%,在外部数据集上的识别准确率仅降低1%。支持短长音频转录,可通过Transformers等多种框架使用。适合资源受限场景,采用编码器-解码器架构,通过精简解码器提升推理效率。
gte-multilingual-reranker-base - 高效多语言文本重排模型,提升信息检索性能
多语言处理开源项目文本嵌入阿里巴巴云gte-multilingual-reranker-base模型Huggingface高性能Github
gte-multilingual-reranker-base是GTE系列中的多语言文本重排模型,适用于多语言信息检索。其采用编码器架构,在推理速度和硬件需求上均有显著优势,支持超70种语言及处理长达8192词元的文本。另有商业API版本可通过阿里云获得,实验结果获得优秀评价,详见相关论文。
llama-30b-instruct-2048 - 语言处理模型,专为增强文本生成能力设计
伦理考量HuggingfaceGithub高性能开源项目LLaMA模型AI绘图数据集
Llama-30b-instruct-2048模型由Upstage研发,基于LLaMA架构,优化用于生成文本,支持动态扩展处理10k+输入符号。在多项基准数据集上表现出色,并结合DeepSpeed与HuggingFace工具进行微调。使用该模型需获得持有Meta授权表单的许可。
Gemma-2-9B-It-SPPO-Iter3-GGUF - 探讨Gemma-2-9B模型量化版本的性能与存储选择
数据集量化高性能开源项目模型GithubHuggingfaceGemma-2-9B-It-SPPO-Iter3下载指南
该项目利用llama.cpp进行量化,推出多种Gemma-2-9B-It-SPPO-Iter3模型版本以适应不同的内存及性能需求。用户可按RAM和VRAM状况选择合适的量化格式,如高质量的Q6_K_L或经济型IQ2_M。量化文件大小介于4GB至37GB之间,且可通过Huggingface下载。根据VRAM选择合适模型尺寸,有助于优化运行速度,并提供多样化选项以满足不同性能与存储需求。