#Transformer

IRIS中心:推动基于证据的教育实践,改善所有儿童的学习成果

2024年09月05日
Cover of IRIS中心:推动基于证据的教育实践,改善所有儿童的学习成果

Transformer在Latent Diffusion模型中的应用:文本到图像生成的新突破

2024年09月05日
Cover of Transformer在Latent Diffusion模型中的应用:文本到图像生成的新突破

MP-Former: 革新图像分割的掩码引导transformer模型

2024年09月05日
Cover of MP-Former: 革新图像分割的掩码引导transformer模型

TriplaneGaussian: 基于变压器的快速单视图3D重建新方法

2024年09月05日
Cover of TriplaneGaussian: 基于变压器的快速单视图3D重建新方法

UniTable: 一个统一的表格基础模型

2024年09月05日
Cover of UniTable: 一个统一的表格基础模型

ML论文解析:从Transformer到最新的语言模型

2024年09月05日
Cover of ML论文解析:从Transformer到最新的语言模型

MEGABYTE-pytorch: 实现百万字节序列预测的多尺度Transformer模型

2024年09月05日
Cover of MEGABYTE-pytorch: 实现百万字节序列预测的多尺度Transformer模型

大型语言模型(LLMs)全面解析:原理、应用与未来发展

2024年09月05日
Cover of 大型语言模型(LLMs)全面解析:原理、应用与未来发展

Nanotron: 简化大型语言模型的3D并行训练

2024年09月05日
Cover of Nanotron: 简化大型语言模型的3D并行训练

Landmark Attention: 变革性的无限上下文长度Transformer模型

2024年09月05日
Cover of Landmark Attention: 变革性的无限上下文长度Transformer模型
相关项目
Project Cover

trax

Trax是一个由Google Brain团队维护的端到端深度学习库,专注于清晰代码和高速执行。它提供预训练的Transformer模型和丰富的API文档,支持用户创建和训练自定义模型,并与TensorFlow数据集无缝集成。Trax兼容CPUs、GPUs和TPUs,用户可以通过Python脚本、notebooks和命令行界面轻松使用。

Project Cover

Efficient-AI-Backbones

Efficient-AI-Backbones 项目涵盖了由华为诺亚方舟实验室研发的一系列先进的人工智能模型,包括 GhostNet, TNT, AugViT, WaveMLP, 和 ViG 等。这些模型通过创新的结构设计和优化,有效提升了计算效率和性能,广泛应用于各种智能处理任务。最新发布的 ParameterNet 在 CVPR 2024 会议上被接受,展现了华为在人工智能技术领域的持续领先。

Project Cover

llm_interview_note

本仓库汇集了大语言模型(LLMs)的面试知识和实用资源,适合准备大模型面试的求职者。内容涵盖大模型基础、架构、训练数据、分布式训练、推理优化、强化学习、RAG技术、模型评估及应用案例。提供详细的知识点解析和操作指南,并附有项目示例和在线体验链接。定期更新,确保内容时效性和实用性。欢迎访问在线阅读页面,关注微信公众号获取更多相关信息。

Project Cover

RWKV-LM

RWKV是一个高性能的并行化RNN,具有变换器级别的性能。该模型实现了快速的推理和训练速度,不依赖于传统的注意力机制,而是通过隐藏状态进行计算,优化了VRAM的使用,并支持处理无限长度的文本上下文。RWKV的这些特点使其在进行句子嵌入和处理复杂文本任务时显示出优越的能力。

Project Cover

AiLearning-Theory-Applying

AiLearning-Theory-Applying项目提供人工智能领域的全面学习资源,覆盖基础知识、机器学习、深度学习及自然语言处理。项目持续更新,附带详尽注释和数据集,便于理解与操作,助力初学者及研究人员迅速掌握AI理论及应用实践。

Project Cover

Transformers-Recipe

该指南为自然语言处理(NLP)及其他领域的学习者提供了丰富的Transformer学习资源,包括基础介绍、技术解析、实际实现和应用。通过精选的文章、视频和代码示例,帮助用户深入掌握Transformer模型的理论与实践。

Project Cover

Awesome-Transformer-Attention

探索视觉变换器和注意力机制的最新发展,包括由Min-Hung Chen持续更新的论文、代码与链接资源。适合学术与实际应用,发现创新思路。

Project Cover

REaLTabFormer

REaLTabFormer使用Seq2Seq模型生成关系数据集,针对非关系数据采用GPT-2模型,直接建模任意独立观察的表格数据。通过生成父表和关系表,利用目标掩码和统计方法避免过拟合。实验结果表明其在捕捉关系结构方面优于基准模型,并在大型非关系数据集上实现了先进的预测效果。REaLTabFormer易于安装和使用,并提供样本验证器以提高生成数据的有效性和准确性。

Project Cover

annotated_deep_learning_paper_implementations

该项目提供详细文档和解释的简明PyTorch神经网络及算法实现,涵盖Transformer、GPT-NeoX、GAN、扩散模型等前沿领域,并每周更新新实现,帮助研究者和开发者高效理解深度学习算法。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号