#HAT
hardware-aware-transformers - 瞄准多硬件平台优化的自然语言处理Transformer模型
HATTransformerNLPPyTorch硬件感知Github开源项目
HAT项目提供基于PyTorch的硬件感知Transformer,模型大小减小至原来的3.7倍,且性能无损。通过SuperTransformer搜索优化的SubTransformer,大幅降低搜索成本,并在不同硬件平台例如Raspberry Pi和Intel Xeon上实现显著加速。支持多种机器翻译任务,并提供预处理数据和预训练模型的直接下载。
HAT - 激活更多像素的图像超分辨率转换器
图像超分辨率HATTransformer深度学习计算机视觉Github开源项目
HAT是一个开源的图像超分辨率项目,采用混合注意力转换器架构。它在Set5、Urban100等数据集上达到了最先进水平,参数量为20.8M。HAT还提供了小型模型版本和用于真实世界超分辨率的GAN模型,能够处理各种图像重建任务。