Project Icon

attention-viz

帮助理解Transformer模型在语言和视觉任务中的自注意力机制

此项目通过可视化技术帮助研究人员理解Transformer模型在语言和视觉任务中的自注意力机制,展示查询与关键向量的关系和整体模式。AttentionViz提供了交互式工具,支持多输入序列分析,提升了模型理解,并在多个应用场景中展现其实用性。

flash-attention - 高效注意力机制加速深度学习模型训练
CUDAFlashAttentionGPU加速GithubPyTorch开源项目注意力机制
FlashAttention是一种高效的注意力机制实现,通过IO感知算法和内存优化提升计算速度并降低内存消耗。它支持NVIDIA和AMD GPU,适用于多种深度学习框架。最新的FlashAttention-3版本针对H100 GPU进行了优化。该项目提供Python接口,可集成到现有模型中,有助于加速大规模深度学习模型的训练过程。
parti-pytorch - Google Parti模型的PyTorch实现 基于注意力的文本到图像生成
GithubPartiPytorch开源项目文本到图像生成深度学习计算机视觉
本项目是Google Parti模型的PyTorch实现,Parti是一种基于纯注意力机制的文本到图像生成神经网络。项目包含ViT VQGan VAE训练代码和视觉Transformer的优化,提高了训练效率。实现了简便的安装和使用流程,支持条件生成和分类器引导。这为研究人员和开发者提供了探索和改进文本到图像生成技术的平台。
h-transformer-1d - 高效序列学习的分层注意力变换器实现
GithubH-Transformer-1DTransformer序列学习开源项目神经网络长程注意力
H-Transformer-1D是一个开源项目,实现了基于分层注意力机制的Transformer模型。这种实现使序列学习达到亚二次方复杂度,在Long Range Arena基准测试中表现优异。项目支持可变序列长度、可逆性和令牌移位等功能,适用于长序列数据处理。该实现主要提供编码器(非自回归)版本,为自然语言处理和机器学习领域提供了新的研究方向。
cnn-explainer - 互动可视化工具,帮助用户理解卷积神经网络
CNN ExplainerGeorgia TechGithub交互式可视化卷积神经网络开源项目机器学习教育
CNN Explainer 是一个用于学习卷积神经网络的互动可视化工具,提供实时演示和本地运行功能。用户可以克隆代码库并在本地环境中运行,支持自定义模型和图像类别。该工具由乔治亚理工学院与俄勒冈州立大学合作开发。
3D-VisTA - 简化3D视觉和文本对齐的新型预训练模型
3D-VisTAGithub多模态融合开源项目自然语言处理计算机视觉预训练模型
3D-VisTA是一种新型预训练变换器模型,专注于3D视觉和文本对齐。该模型采用简洁统一的架构,无需复杂的任务特定设计,可轻松适应多种下游任务。通过在大规模ScanScribe数据集上预训练,3D-VisTA在视觉定位、密集字幕生成等3D视觉语言理解任务中达到了领先水平。此外,该模型还表现出优异的数据效率,即使在标注数据有限的情况下也能保持强劲性能。
keras-attention - Keras 兼容的注意力层,支持 Luong 和 Bahdanau 评分函数
Attention LayerBahdanauGithubKerasLuongTensorflow开源项目
Keras Attention Layer 支持 Luong 和 Bahdanau 的评分函数,与 Tensorflow 2.8 至 2.14 兼容。该层易于安装和使用,可根据需求调整参数,广泛应用于提高深度学习模型精度。提供丰富的实例和详细文档,包括在 LSTM 网络中的注意力机制实现,以及 IMDB 数据集和加数任务的实验数据。
Awesome-Transformer-in-Medical-Imaging - Transformer在医学图像分析中的应用进展综述
GithubVision Transformer医学图像分析图像分割图像分类开源项目深度学习
本项目整理了Transformer模型在医学图像分析中的最新研究进展。内容涵盖图像分类、分割、重建、合成等多个领域,系统地归纳和分类了相关论文。项目提供了医学图像分析中Transformer应用的分类体系,详细的参考文献,以及开源代码库链接,为研究人员提供了全面的学习和实践资源。
AttentionDeepMIL - 深度多实例学习的注意力机制算法实现
GithubMNISTPyTorch多实例学习开源项目注意力机制深度学习
AttentionDeepMIL是一个开源的深度多实例学习算法项目,基于PyTorch框架实现。它在LeNet-5模型基础上创新性地添加了注意力机制的MIL池化层,适用于图像分类等多实例学习任务。该项目提供完整的实验环境,包括MNIST-BAGS数据集处理、模型架构和训练脚本,支持CPU和GPU运行。此外,AttentionDeepMIL还展示了在医学图像分析领域的应用潜力,包括对乳腺癌和结肠癌组织病理学数据集的实验支持。
TransformerPrograms - Transformer模型转Python程序的新型解释方法
GithubTransformer Programs代码生成开源项目机器学习程序合成自然语言处理
TransformerPrograms项目提出了一种新方法,可将Transformer模型转换为易读的Python程序。该项目提供了训练和转换工具,并包含多个示例程序,涵盖从排序到命名实体识别等任务。这为解释Transformer模型提供了新视角,有助于研究者探索模型内部机制,推进AI可解释性研究。
T-GATE - 研究了在文本到图像扩散模型中的时序注意机制
GithubTGATE图像生成开源项目扩散模型自注意力跨注意力
TGATE项目研究了在文本到图像扩散模型中的时序注意机制。研究发现,交叉注意输出在几步推理后可以收敛到固定点,通过采用缓存和重用这些输出的方式,无需额外训练,即可提升现有模型的运行速度10%–50%。TGATE易于集成,提供快速图像生成,适用于CNN U-Net、Transformer和Consistency Model。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号