Project Icon

simple-hierarchical-transformer

分层Transformer模型探索多层次预测编码

这个项目提出了一种在GPT模型中实现多层次预测编码的方法。它通过在Transformer中引入多层结构,结合局部注意力和全局信息传递。实验结果显示,该方法在维持性能的同时提升了效率。项目允许自定义层次结构、维度和注意力窗口大小,为研究人员提供了探索分层Transformer的实验工具。项目代码支持灵活配置,包括调整层次数量、模型维度和注意力窗口大小。这种设计使研究人员能够方便地进行不同参数的对比实验,有助于深入理解分层Transformer的性能特点。

简单层次化 Transformer

围绕在 GPT 中引入多个层次化预测编码模型的简单想法进行的实验。这个想法非常简单,可能不会奏效。但是,深度学习的进步正是建立在简单想法的基础之上。值得一试。

到目前为止,这个想法已经通过了一位研究朋友的试金石测试。我将在接下来的一周左右完成它。如果不成功,我也会保留负面的实验结果和代码库,也许有博士生可以在此基础上进行改进。

更新:我认为它正在奏效 🤞

致谢

安装

$ pip install simple-hierarchical-transformer

使用方法

三个层次结构,全部用于预测下一个标记

import torch
from simple_hierarchical_transformer import HierarchicalTransformer

model = HierarchicalTransformer(
    num_tokens = 20000,                # 标记数量
    dim = 512,                         # 模型维度
    depth = 6,                         # 深度
    dim_head = 64,                     # 每个注意力头的维度
    heads = 8,                         # 注意力头数量
    seq_len = 2048,                    # 序列长度
    hierarchies = (1, 2, 8),           # 层次结构 - 这里我们有 1x (像常规 Transformer), 然后是 2x 和 8x 压缩的层次标记,它们经过各自的 Transformer 块。在每一层,信息被合并到一个层次结构中
    window_sizes = (32, 64, None)      # 局部注意力窗口大小 - 想法是更高层次可以将远距离信息传递给局部层次。None 表示完整的接受域。设置为 0 将完全关闭该层次的注意力(而标记移位仍然会在每一层生效)
)

ids = torch.randint(0, 20000, (1, 2048))

loss, _ = model(ids, return_loss = True)
loss.backward()

# 经过大量训练后

logits = model(ids)

如果不指定 hierarchieswindow_sizes,你基本上就是默认使用一个具有全序列长度注意力的常规自回归 Transformer。


# 非层次化 Transformer

model = HierarchicalTransformer(
    num_tokens = 20000,
    dim = 512,
    depth = 8,
    dim_head = 64,
    heads = 8,
    seq_len = 2048,
    hierarchies = 1,        # 如果不设置则默认为 1
    window_sizes = None     # 如果不设置则默认为 None (全序列长度)
)

现在是一个更复杂的例子。实验表明,随着层次结构的压缩,你需要更大的模型维度来获得适当的容量。

model = HierarchicalTransformer(
    num_tokens = 256,
    dim = (128, 256, 512, 1024),
    depth = 8,
    seq_len = 1024,
    use_flash_attn = True,
    ff_mult = (2, 2, 4, 4),
    dim_head = (16, 32, 64, 64),
    heads = (2, 4, 8, 8),
    hierarchies = (1, 2, 4, 16),
    hierarchical_stride = (1, 1, 1, 8),  # 这将决定压缩时的步长,以及将层次标记连接到精细标记时,过去的标记将重复这么多次。因果性不会被违反,因为使用了沙漏 Transformer 的技巧,即序列被压缩因子 - 1 移动。建议除了高度压缩的层次外,保持为 1,因为它会变得非常不具竞争力,且生成结果看起来有问题
    window_sizes = (16, 32, 64, None)
).cuda()

# 层次结构
# 1x - 维度 128 - 注意力 (2 个头, 16 维, 接受域 16)
# 2x - 维度 256 - 注意力 (4 个头, 32 维, 接受域 32)
# 4x - 维度 512 - 注意力 (8 个头, 64 维, 接受域 64)
# 8x - 维度 1024 - 注意力 (8 个头, 64 维, 全部接受域)

待办事项

  • 分支为两条并行路径,一条用于层次标记,另一条用于普通精细标记。
  • 证明精细标记和层次标记中的局部注意力可以接近全注意力基线
  • 简单的深度可分离卷积似乎足以合并 1 个层次结构
  • 自动将精细和所有层次结构的窗口大小设置为最大序列长度的一半
  • 研究在交叉熵损失之前简单地合并所有精细和层次标记的效果 - 没有太大区别
  • 完成添加任意数量层次结构的能力,并指定哪个层次结构将汇集其他层次的信息进行预测
  • 跨层次结构的完全可定制维度,因为更高层次需要更大的模型维度
  • 为层次分支添加先知损失
  • 允许为未来的精细标记重复层次标记,因为位置在更高层次可能不那么重要。但不是优先事项,先让它工作 - 已实现为 hierarchical_stride
  • 允许某些层只依赖标记移位,不使用注意力
  • 随机投影 + 向量量化,如大脑的通用语音模型论文中所做的那样 - 用于层次预测编码
  • 允许指定在合并时哪个层级从其他层级接收信息,可能需要设计一个带掩码的专门注意力机制,但需要考虑不同层级间模型维度的差异
  • 构建简单的局部注意力模块,用于所有层级
  • 为局部注意力库添加闪电注意力
  • 确定是否可以在不同层级间共享注意力
  • 做一个清晰的wandb报告,展示在字符级enwik8上实现2倍压缩而几乎不损失性能
  • 尝试使用基于自注意力的压缩器用于第4层及以上的层级
  • 在网络最开始构建一个小型自编码器,使用token嵌入作为输入,然后为每个并行的层级网络使用中间特征图

引用

最接近的想法是沙漏型变换器

我对层级方法重新产生兴趣是源于阅读这篇文章

@article{Nawrot2021HierarchicalTA,
    title   = {Hierarchical Transformers Are More Efficient Language Models},
    author  = {Piotr Nawrot and Szymon Tworkowski and Michal Tyrolski and Lukasz Kaiser and Yuhuai Wu and Christian Szegedy and Henryk Michalewski},
    journal = {ArXiv},
    year    = {2021},
    volume  = {abs/2110.13711}
}
@inproceedings{dao2022flashattention,
    title   = {Flash{A}ttention: Fast and Memory-Efficient Exact Attention with {IO}-Awareness},
    author  = {Dao, Tri and Fu, Daniel Y. and Ermon, Stefano and Rudra, Atri and R{\'e}, Christopher},
    booktitle = {Advances in Neural Information Processing Systems},
    year    = {2022}
}
@misc{su2021roformer,
    title   = {RoFormer: Enhanced Transformer with Rotary Position Embedding},
    author  = {Jianlin Su and Yu Lu and Shengfeng Pan and Bo Wen and Yunfeng Liu},
    year    = {2021},
    eprint  = {2104.09864},
    archivePrefix = {arXiv},
    primaryClass = {cs.CL}
}
@inproceedings{Sun2022ALT,
    title     = {A Length-Extrapolatable Transformer},
    author    = {Yutao Sun and Li Dong and Barun Patra and Shuming Ma and Shaohan Huang and Alon Benhaim and Vishrav Chaudhary and Xia Song and Furu Wei},
    year      = {2022}
}
@software{peng_bo_2021_5196578,
    author    = {PENG Bo},
    title     = {BlinkDL/RWKV-LM: 0.01},
    month     = {aug},
    year      = {2021},
    publisher = {Zenodo},
    version   = {0.01},
    doi       = {10.5281/zenodo.5196578},
    url       = {https://doi.org/10.5281/zenodo.5196578}
}
@article{Piergiovanni2023Mirasol3BAM,
    title   = {Mirasol3B: A Multimodal Autoregressive model for time-aligned and contextual modalities},
    author  = {A. J. Piergiovanni and Isaac Noble and Dahun Kim and Michael S. Ryoo and Victor Gomes and Anelia Angelova},
    journal = {ArXiv},
    year    = {2023},
    volume  = {abs/2311.05698},
    url     = {https://api.semanticscholar.org/CorpusID:265129010}
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号