布局: forward
目标: https://developers.google.com/mediapipe
标题: 首页
导航顺序: 1
注意: 自2023年4月3日起,我们已将MediaPipe的主要开发者文档网站迁移至https://developers.google.com/mediapipe。
注意:MediaPipe Solutions Preview是早期发布版本。了解更多。
为每个人提供设备端机器学习
通过创新的机器学习功能让您的客户满意。MediaPipe包含您定制和部署到移动设备(Android、iOS)、网页、桌面、边缘设备和物联网所需的一切工具,轻松实现。
开始使用
您可以通过查阅视觉、文本和音频任务的开发者指南来开始使用MediaPipe Solutions。如果您需要帮助设置与MediaPipe任务配合使用的开发环境,请查看Android、网页应用和Python的设置指南。
解决方案
MediaPipe Solutions提供了一套库和工具,帮助您在应用中快速应用人工智能(AI)和机器学习(ML)技术。您可以立即将这些解决方案嵌入到您的应用中,根据需要进行定制,并在多个开发平台上使用。MediaPipe Solutions是MediaPipe开源项目的一部分,因此您可以进一步定制解决方案代码,以满足您的应用需求。
以下库和资源为每个MediaPipe解决方案提供核心功能:
- MediaPipe任务:用于部署解决方案的跨平台API和库。了解更多。
- MediaPipe模型:预训练的、可直接运行的模型,用于每个解决方案。
这些工具允许您定制和评估解决方案:
旧版解决方案
我们已于2023年3月1日结束了对这些MediaPipe旧版解决方案的支持。所有其他MediaPipe旧版解决方案将升级为新的MediaPipe解决方案。详情请参阅解决方案指南。我们将继续按现状提供所有MediaPipe旧版解决方案的代码库和预构建的二进制文件。
关于旧版解决方案的更多信息,请参阅文档。
框架
要开始使用MediaPipe框架,请安装MediaPipe框架并开始在C++、Android和iOS中构建示例应用。
MediaPipe框架是用于构建高效设备端机器学习管道的底层组件,类似于预制的MediaPipe解决方案。
在使用MediaPipe框架之前,请先熟悉以下关键框架概念:
社区
- MediaPipe用户的Slack社区。
- 讨论区 - MediaPipe的通用社区讨论。
- Awesome MediaPipe - 精选的MediaPipe相关框架、库和软件列表。
贡献
我们欢迎贡献。请遵循这些指南。
我们使用GitHub问题跟踪请求和错误。请在Stack Overflow上使用“mediapipe”标签发布问题。
资源
出版物
- 通过AR赋予艺术作品生命,发表于Google开发者博客
- 通过MediaPipe手部追踪控制假肢,发表于Google开发者博客
- SignAll SDK:使用MediaPipe的手语接口现已面向开发者开放,发表于Google开发者博客
- MediaPipe Holistic - 同时进行面部、手部和姿态预测,适用于设备,发表于Google AI博客
- Google Meet中的背景功能,由Web ML提供支持,发表于Google AI博客
- MediaPipe 3D面部变换,发表于Google开发者博客
- 使用MediaPipe的即时运动追踪,发表于Google开发者博客
- BlazePose - 设备端实时人体姿态追踪,发表于Google AI博客
- MediaPipe Iris:实时眼睛追踪与深度估计,发表于Google AI博客
- MediaPipe KNIFT:基于模板的特征匹配,发表于Google开发者博客
- Alfred Camera:使用MediaPipe的智能摄像头功能,发表于Google开发者博客
- 移动设备上的实时3D对象检测,发表于Google AI博客
- AutoFlip:智能视频重构的开源框架,发表于Google AI博客
- Web上的MediaPipe,发表于Google开发者博客
- 使用MediaPipe进行对象检测与追踪,发表于Google开发者博客
- 设备端的实时手部追踪,发表于Google AI博客
- MediaPipe:构建感知管道的框架