#自注意力
T-GATE - 研究了在文本到图像扩散模型中的时序注意机制
TGATE跨注意力自注意力扩散模型图像生成Github开源项目
TGATE项目研究了在文本到图像扩散模型中的时序注意机制。研究发现,交叉注意输出在几步推理后可以收敛到固定点,通过采用缓存和重用这些输出的方式,无需额外训练,即可提升现有模型的运行速度10%–50%。TGATE易于集成,提供快速图像生成,适用于CNN U-Net、Transformer和Consistency Model。
stylegan2-pytorch - 简单易用的命令行StyleGAN2 Pytorch实现
Stylegan2Pytorch生成对抗网络图像生成自注意力Github开源项目
简便的StyleGAN2 Pytorch实现,无需编程,只需使用命令行即可进行训练。支持多GPU与低数据量训练及图像插值视频生成,适合研究人员和开发者。
mlx-gpt2 - MLX框架实现GPT-2模型:从零开始的深度学习之旅
GPT-2MLX自注意力嵌入层训练循环Github开源项目
本项目展示了使用MLX框架从零实现GPT-2模型的完整过程。内容涵盖数据准备、词汇表创建和模型架构设计等核心步骤。该实现仅依赖MLX和NumPy库,可在MacBook上快速训练出能生成莎士比亚风格文本的模型。项目借鉴了Karpathy的GPT教程思路,并通过MLX框架重新实现,为深度学习爱好者提供了实践指南。
MotionCLR: Motion Generation and Training-free Editing via Understanding Attention Mechanisms - 利用注意力机制实现多样化动作生成与编辑
AI工具MotionCLR注意力机制运动生成运动编辑自注意力
MotionCLR平台通过自注意和交叉注意机制,为用户提供灵活的动作生成和编辑功能,能够实现动作削弱、替换及示例生成等多种编辑方式,同时提高了模型可解释性,适用于多种风格转换与序列编辑任务。