#自注意力
相关项目
T-GATE
TGATE项目研究了在文本到图像扩散模型中的时序注意机制。研究发现,交叉注意输出在几步推理后可以收敛到固定点,通过采用缓存和重用这些输出的方式,无需额外训练,即可提升现有模型的运行速度10%–50%。TGATE易于集成,提供快速图像生成,适用于CNN U-Net、Transformer和Consistency Model。
stylegan2-pytorch
简便的StyleGAN2 Pytorch实现,无需编程,只需使用命令行即可进行训练。支持多GPU与低数据量训练及图像插值视频生成,适合研究人员和开发者。
mlx-gpt2
本项目展示了使用MLX框架从零实现GPT-2模型的完整过程。内容涵盖数据准备、词汇表创建和模型架构设计等核心步骤。该实现仅依赖MLX和NumPy库,可在MacBook上快速训练出能生成莎士比亚风格文本的模型。项目借鉴了Karpathy的GPT教程思路,并通过MLX框架重新实现,为深度学习爱好者提供了实践指南。
MotionCLR: Motion Generation and Training-free Editing via Understanding Attention Mechanisms
MotionCLR平台通过自注意和交叉注意机制,为用户提供灵活的动作生成和编辑功能,能够实现动作削弱、替换及示例生成等多种编辑方式,同时提高了模型可解释性,适用于多种风格转换与序列编辑任务。