#AI模型
llama-cpp-wasm: 在浏览器中运行大型语言模型的革命性技术
onnx
ONNX是一个开放生态系统,提供AI模型的开源格式,支持深度学习和传统机器学习。通过定义可扩展的计算图模型和内置操作符及标准数据类型,ONNX增强了不同框架间的互操作性,加速了从研究到生产的转化。ONNX广泛支持各种工具和硬件,助力AI社区快速创新。了解ONNX的文档、教程和预训练模型,加入社区,共同推动ONNX的发展。
PaddleHub
PaddleHub提供超过400种高质量AI模型,覆盖计算机视觉、自然语言处理和语音识别等领域。用户仅需3行代码即可进行模型预测,同时支持模型即服务,通过简单命令即可部署。最新版本v2.3.0引入了ERNIE-ViLG、Disco Diffusion和Stable Diffusion等模型,并支持在HuggingFace平台上发布。PaddleHub兼容Linux、Windows和MacOS,适合多平台开发。
LibreChat
LibreChat是一个开源AI聊天平台,提供类似ChatGPT的用户界面,支持暗黑模式和流媒体功能。用户可以选择使用OpenAI、Azure、Google等多种AI模型,并可在远程和本地AI服务之间切换。平台支持多语言界面,提供图像分析、多模态聊天、对话分支和插件等功能。LibreChat允许创建、保存和分享自定义预设,支持多用户安全认证和社区驱动开发,并提供本地和云端部署选项。
mistral-inference
该项目提供了简洁高效的代码库,支持Mistral 7B、8x7B和8x22B模型的部署和运行。通过命令行界面和Python接口,可以方便地下载、安装和测试模型,并与其互动。项目包含详细的使用示例和多GPU环境的部署指南,为开发者和研究人员提供了可靠的支持。
dalai
Dalai项目允许用户在Linux、Mac和Windows系统上运行LLaMA和Alpaca模型,提供用户友好的Web应用和JavaScript API。通过简单的安装步骤即可在本地使用这些模型,支持多种模型尺寸,适应不同计算机配置。详细的安装和故障排除指南帮助用户快速上手。
BentoML
BentoML是一个开源模型服务框架,简化了AI和ML模型的生产部署。可以将任何模型推理脚本轻松转化为REST API服务器,并通过简单配置文件管理环境、依赖和模型版本。BentoML支持高性能推理API的构建,利用动态批处理、模型并行化和多阶段流水线等优化功能,最大化CPU/GPU利用率。此外,还支持自定义AI应用、异步推理任务和定制化前后处理逻辑。通过Docker容器或BentoCloud可轻松部署至生产环境,适用于各种机器学习框架和推理运行时。
generative-ai
此资源库提供关于在Google Cloud上使用Generative AI的指南和示例,包括笔记本、代码样本和应用程序示例,帮助用户开发和管理生成式AI工作流。
ludwig
Ludwig是一个低代码深度学习框架,用于构建定制的人工智能模型,如LLMs和其他深度神经网络。它支持多任务和多模态学习,优化了批量大小选择,分布式训练和模型微调,确保高效处理大规模数据集。Ludwig的模块化设计允许用户轻松实验不同的模型架构,支持超参数优化和丰富的度量可视化,适用于生产环境,并整合了Docker和Ray等工具,支持模型导出到Torchscript和Triton,一键上传至HuggingFace。
cog-face-to-many
face-to-many项目可以将任何面部图像转换为3D、像素艺术、电子游戏、粘土动画和玩具效果。该项目可在Replicate和ComfyUI上运行,提供了必要的自定义节点,如ComfyUI Controlnet Aux、InstantID和IPAdapter Plus等。通过克隆仓库、创建虚拟环境并安装依赖项,用户可以在本地运行该项目。详细的安装和运行指南帮助用户快速启动并体验项目功能。