#Docker容器

BentoML学习资源汇总 - 构建高效可靠的AI服务系统

2 个月前
Cover of BentoML学习资源汇总 - 构建高效可靠的AI服务系统

LLM-API: 统一接口让大型语言模型触手可及

3 个月前
Cover of LLM-API: 统一接口让大型语言模型触手可及

Yet Another Applied LLM Benchmark: 一个实用的大语言模型评测基准

3 个月前
Cover of Yet Another Applied LLM Benchmark: 一个实用的大语言模型评测基准

深入解析Hugging Face的api-inference-community项目:为开源AI模型提供推理API服务

3 个月前
Cover of 深入解析Hugging Face的api-inference-community项目:为开源AI模型提供推理API服务

BentoML: 构建和扩展复合AI系统的统一框架

3 个月前
Cover of BentoML: 构建和扩展复合AI系统的统一框架
相关项目
Project Cover

api-inference-community

api-inference-community是一个开源项目,旨在帮助第三方库与Hugging Face Hub集成。它提供Docker容器创建功能,使库能实现类似transformers的Hub小部件。项目包含通用模板和指南,便于开发者集成新库和AI任务。支持的任务包括语音识别、文本生成和图像识别等。项目提供完整的开发、测试和部署流程,促进AI推理API的开发和社区协作。

Project Cover

docker-webtop

docker-webtop 提供基于 Alpine、Ubuntu、Fedora 和 Arch 的容器化远程桌面环境,支持 XFCE、KDE、MATE 等多种桌面环境。通过现代浏览器即可访问完整桌面,具备 GPU 加速和国际化支持。该项目集成应用管理、自定义设置和持久化存储功能,适合远程办公和开发测试等多种使用场景。

Project Cover

yet-another-applied-llm-benchmark

yet-another-applied-llm-benchmark是一个评估大语言模型在实际应用场景中表现的基准测试项目。该项目包含近100个源自真实使用情况的测试案例,涵盖代码转换、反编译、SQL生成等多种任务。通过简单的数据流DSL设计测试,项目提供了一个灵活的框架来评估大语言模型的实际能力。这个基准虽不是严格的学术标准,但为开发者提供了衡量大语言模型在日常编程任务中表现的实用方法。

Project Cover

pinchflat

Pinchflat是一款基于yt-dlp的自托管YouTube内容下载工具。该应用轻量化、自包含、操作简便,能够自动检测并下载YouTube频道或播放列表的最新内容。Pinchflat适用于需要将YouTube内容下载至媒体中心应用(如Plex、Jellyfin、Kodi)或进行媒体存档的用户。它具备灵活的命名系统、直观的Web界面和RSS源支持等特性,为YouTube媒体下载管理提供了全面的解决方案。

Project Cover

Cargoship

Cargoship是一个开源模型集成平台,让开发者无需机器学习知识即可为应用添加AI功能。平台提供预训练模型,包括图像识别和语言处理等,这些模型以易用API形式封装。开发者可从持续更新的模型库中选择,快速部署或获取API访问权限。支持Docker容器和HuggingFace模型,极大简化了AI集成过程。Cargoship紧跟AI发展趋势,不断更新模型选择,确保用户始终能使用最新技术。作为开源项目,欢迎社区参与,并通过Discord提供及时的技术支持和更新。

Project Cover

tobab

tobab是一个开源的Passkey身份验证代理工具,可与Caddy、Nginx或Traefik集成。它提供用户管理、Web UI管理界面和单Docker容器部署,专注于Passkey技术,不支持其他认证方式。tobab目标是实现简单强大的身份验证和访问管理。该项目正在开发中,计划添加指标统计、API密钥支持等功能,旨在提供更全面的身份验证解决方案。

Project Cover

orbstack

OrbStack 是 macOS 平台上的轻量级容器和 Linux 环境管理工具。它启动迅速,资源占用低,支持 Docker、Kubernetes 和多种 Linux 发行版。通过优化的网络和文件系统,以及自动化功能,OrbStack 为开发者提供了高效的工作环境。

Project Cover

llm-api

LLM-API是一个灵活的大语言模型API框架,支持在多种硬件平台上运行各类LLM模型。通过简单的YAML配置,它能自动下载模型并提供统一的API接口。支持Docker容器和本地运行,兼容Llama、GPT等多种模型。项目还包含Python客户端和LangChain集成,大大简化了LLM的应用开发过程,使其强大功能更易于开发者使用。

Project Cover

BentoML

BentoML是一个开源模型服务框架,简化了AI和ML模型的生产部署。可以将任何模型推理脚本轻松转化为REST API服务器,并通过简单配置文件管理环境、依赖和模型版本。BentoML支持高性能推理API的构建,利用动态批处理、模型并行化和多阶段流水线等优化功能,最大化CPU/GPU利用率。此外,还支持自定义AI应用、异步推理任务和定制化前后处理逻辑。通过Docker容器或BentoCloud可轻松部署至生产环境,适用于各种机器学习框架和推理运行时。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号