#transformer

LASER项目学习资料汇总 - 一种改进大语言模型推理能力的新方法

2 个月前
Cover of LASER项目学习资料汇总 - 一种改进大语言模型推理能力的新方法

x-transformers学习资料汇总 - 功能丰富的全注意力Transformer实现

2 个月前
Cover of x-transformers学习资料汇总 - 功能丰富的全注意力Transformer实现

Tuned-Lens:探索Transformer模型内部表征的强大工具

3 个月前
Cover of Tuned-Lens:探索Transformer模型内部表征的强大工具

Tracr: 革命性的钻石溯源技术

3 个月前
Cover of Tracr: 革命性的钻石溯源技术

k-diffusion: 强大的扩散模型框架

3 个月前
Cover of k-diffusion: 强大的扩散模型框架

MaskDINO: 一个统一的基于Transformer的目标检测和分割框架

3 个月前
Cover of MaskDINO: 一个统一的基于Transformer的目标检测和分割框架

Spreadsheet Is All You Need: 探索电子表格中的GPT模型

3 个月前
Cover of Spreadsheet Is All You Need: 探索电子表格中的GPT模型

CogView: 开创文本到图像生成的新时代

3 个月前
Cover of CogView: 开创文本到图像生成的新时代

MEMIT: 革新大规模语言模型的记忆编辑技术

3 个月前
Cover of MEMIT: 革新大规模语言模型的记忆编辑技术

激光技术的原理与应用:从基础到前沿

3 个月前
Cover of 激光技术的原理与应用:从基础到前沿
相关项目
Project Cover

laser

LASER技术通过选择性替换LLM权重矩阵的低秩近似值,在无需额外训练的情况下显著提升问答任务性能。本项目提供了多个LLM和基准支持的代码,并通过示例展示如何运行实验。最新更新包括结果表和讨论页面,2024年1月将进行代码重构,以提高灵活性和易用性。

Project Cover

memit

MEMIT项目专注于简化和优化Transformer模型中大量事实的编辑过程,提供了简单的API和详细的评估套件。用户可以通过示例代码、安装指南和脚本轻松开始并运行完整评估。项目不仅支持快速的大规模编辑,还提供了详细的结果存储和总结机制,适合需要动态更新模型记忆的研究人员和工程师。

Project Cover

open-muse

open-muse项目致力于重现Transformer MUSE模型,通过LAION-2B和COYO-700M数据集的训练,提供简单且可扩展的代码库。项目包括在Imagenet上训练类别条件模型、在CC12M上进行文本到图像实验,以及训练改进的VQGAN模型,所有结果将上传至Huggingface的openMUSE组织。支持的模型包括MaskGitTransformer和VQGAN,方便使用并可在Huggingface hub上加载和保存。

Project Cover

flow-forecast

Flow Forecast 是一个开源时间序列预测深度学习框架,提供最新的Transformer、注意力模型、GRU等技术,并具有易于理解的解释指标、云集成和模型服务功能。该框架是首个支持Transformer模型的时间序列框架,适用于流量预测、分类和异常检测。

Project Cover

former

详细介绍了如何使用PyTorch从零开始实现简单的Transformer模型,包含安装和使用指南,以及通过命令行控制超参数和数据自动下载的说明。

Project Cover

GNT

Generalizable NeRF Transformer (GNT) 是一个用于高效重建和渲染神经辐射场的纯Transformer架构。它通过视图Transformer和射线路径Transformer两个阶段完成场景表示和渲染。GNT在跨场景训练中展示了其在多个数据集上优异的性能和普遍适用性。

Project Cover

CogView

CogView是一个基于4B参数预训练的转换器,用于生成通用领域的文本到图像。最新版本CogView2显著提升了生成速度,并扩展支持英文输入。用户可以通过Github和Wudao平台体验并下载预训练模型。项目还包含超分辨率和图像到文本转换功能,并提供详细的设置和运行指南。该项目获得NeurIPS 2021认可,并推荐使用PB-relax和Sandwich-LN技术稳定训练大型转化器。

Project Cover

spreadsheet-is-all-you-need

这个项目将nanoGPT的完整推理流程实现在电子表格中,包括嵌入、层归一化和自注意力等Transformer核心组件。基于Andrej Karpathy的NanoGPT结构,该电子表格模型包含约85000个参数。通过直观展示Transformer的内部机制和数据流,并支持交互式操作,该项目为深入理解GPT工作原理提供了新颖的可视化方法。用户可以通过探索这个电子表格来更好地掌握Transformer架构的细节。

Project Cover

x-transformers

x-transformers提供了多功能的Transformer模型,支持完整的编解码器配置和最新研究成果,适合各种应用,从图像分类到语言模型。其先进技术如闪存注意力和持久内存,有助于提高模型的效率和性能。此项目是研究人员和开发者的理想选择,用于探索和优化机器学习任务中的Transformer技术。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号