Project Icon

robotic-transformer-pytorch

RT1机器人控制Transformer模型的PyTorch实现

本项目是Google Robotics团队RT1(Robotic Transformer)的PyTorch实现版本。RT1是一个结合视觉和自然语言处理的机器人控制Transformer模型。该实现包含MaxViT视觉主干网络和RT1核心模型,支持视频输入和文本指令处理。项目提供简洁API,实现了条件采样和跨注意力等功能,可应用于多种机器人控制场景。

Transformer-in-Vision - 深入探索Transformer在计算机视觉领域的最新研究与资源
AI模型ChatGPTGithubTransformer-in-Vision多模态开源项目计算机视觉
本页面收录并介绍了最新的基于Transformer的计算机视觉研究和相关资源,内容涵盖机器人应用、视频生成、文本-图像检索、多模态预训练模型等领域。用户可访问开源代码和论文链接,如ChatGPT在机器人领域的应用、DIFFUSIONDB、LAION-5B、LAVIS、Imagen Video和Phenaki等。页面会不定期更新,提供Transformer在视觉领域应用的全面信息和资源汇总。
TransformerHub - 实现与参考多种Transformer模型
BERTGPTGithubTransformerTransformerHubViT开源项目
此项目实现了多种Transformer架构,包括seq2seq、仅编码器、仅解码器和统一模型,旨在提高编程技能并提供深度学习参考。特色包括多种Attention模块、位置嵌入和采样方法,当前进展是实现DINO模型。项目受到多个开源项目的启发和支持。
q-transformer - 自回归Q函数实现离线强化学习
AI模型GithubQ-Transformer开源项目强化学习机器人控制神经网络
Q-transformer项目是Google Deepmind提出的可扩展离线强化学习方法的开源实现。该项目通过自回归Q函数优化多动作选择,支持单一和多动作学习,并提供深度对偶架构和n步Q学习。它包含环境交互、数据集创建和学习流程,适用于复杂机器人控制任务。Q-transformer的创新性和灵活性为强化学习研究和应用提供了重要工具。
MEGABYTE-pytorch - 多尺度Transformer模型实现百万字节序列预测
AI模型GithubMEGABYTEPytorchTransformer开源项目深度学习
MEGABYTE-pytorch是一个基于PyTorch实现的多尺度Transformer模型,专门用于预测百万字节长度的序列。该项目具有灵活的配置选项,支持多个本地模型,并整合了Flash Attention等先进技术。MEGABYTE-pytorch通过简洁的API接口实现长序列处理、模型训练和文本生成。此外,项目提供了基于enwik8数据集的训练示例,为开发者提供了实用参考。
equiformer-pytorch - SE(3)/E(3)等变注意力网络的高效PyTorch实现
AIEquiformerGATv2GithubSE3 Transformers开源项目深度学习
Equiformer-pytorch是一个基于PyTorch的SE(3)/E(3)等变注意力网络实现。该项目采用MLP注意力机制和非线性消息传递,实现了最先进的性能。它支持可逆网络以提高内存效率,并集成了最新的球谐函数稀疏化技术,大幅提升计算效率。Equiformer-pytorch还提供边缘和邻接矩阵支持,适用于蛋白质折叠等各种3D原子图任务。
FasterTransformer - 基于NVIDIA平台的高性能Transformer编解码器实现与调优
BERTFasterTransformerGPTGithubNVIDIATensorRT-LLM开源项目
FasterTransformer不仅支持多框架集成,还针对NVIDIA新一代GPU优化了编解码性能,极大提升了操作效率和处理速度。包含模型支持、性能对比及API演示的详细文档,有助于用户深入了解并有效使用FasterTransformer。
Comprehensive-Transformer-TTS - 基于非自回归 Transformer 的 TTS
GithubPyTorchTTS开源项目持续时间建模语音合成非自回归变换器
该项目采用非自回归Transformer技术,集成多种最新状态转换模型。Comprehensive-Transformer-TTS不仅提供监督与非监督持续时间建模, 也支持多种数据集和SOTA技术,如Fastformer和Long-Short Transformer,力求在文本到语音转换领域取得领先成果。
commented-transformers - 精细注释的Transformer在PyTorch中的实现
Attention机制BERTGPT-2GithubPyTorchTransformer开源项目
详细注释的Transformer实现,涵盖从头创建Transformer系列,包括注意力机制和整体Transformer的实现。提供双向注意力、因果注意力及因果交叉注意力的实现,以及GPT-2和BERT模型的单文件实现,兼容torch.compile(..., fullgraph=True)以提高性能。
octo - 基于transformer的通用机器人控制策略
AI模型GithubOcto开源项目微调机器人政策预训练模型
Octo是一个基于transformer的扩散策略模型,通过80万条多样化机器人轨迹数据训练而成。该模型支持多个RGB相机输入,可控制各种机器人手臂,并接受语言命令或目标图像指令。其模块化注意力结构使其能高效迁移至新的传感器输入、动作空间和形态。项目提供预训练模型、微调脚本和评估示例,便于研究人员进行深入开发和应用。
Transformers-Recipe - 学习与应用Transformer的指南
AttentionGithubNLPTransformer开源项目强化学习计算机视觉
该指南为自然语言处理(NLP)及其他领域的学习者提供了丰富的Transformer学习资源,包括基础介绍、技术解析、实际实现和应用。通过精选的文章、视频和代码示例,帮助用户深入掌握Transformer模型的理论与实践。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号