#Transformer

Gemini: Google 的多模态AI模型引领未来智能交互

2024年09月02日
Cover of Gemini: Google 的多模态AI模型引领未来智能交互

RecurrentGPT:突破长文本生成限制的创新模型

2024年09月02日
Cover of RecurrentGPT:突破长文本生成限制的创新模型

LongRoPE:突破200万token的大语言模型上下文窗口扩展技术

2024年08月31日
Cover of LongRoPE:突破200万token的大语言模型上下文窗口扩展技术

AttentionViz:一个可视化Transformer注意力机制的强大工具

2024年08月31日
Cover of AttentionViz:一个可视化Transformer注意力机制的强大工具

TransformerHub: 探索深度学习前沿的变形金刚模型仓库

2024年08月31日
Cover of TransformerHub: 探索深度学习前沿的变形金刚模型仓库

commented-transformers: 实现高度注释的PyTorch Transformer模型

2024年08月31日
Cover of commented-transformers: 实现高度注释的PyTorch Transformer模型

大型语言模型(LLM)发展概述与应用前景

2024年08月31日
Cover of 大型语言模型(LLM)发展概述与应用前景

MinT: 从零开始构建Transformer模型的极简教程与库

2024年08月31日
Cover of MinT: 从零开始构建Transformer模型的极简教程与库

Masked Image Modeling: 深度学习中的新范式

2024年08月31日
Cover of Masked Image Modeling: 深度学习中的新范式

LLM全栈优质资源汇总:打造您的大语言模型百宝箱

2024年08月31日
Cover of LLM全栈优质资源汇总:打造您的大语言模型百宝箱
相关项目
Project Cover

trax

Trax是一个由Google Brain团队维护的端到端深度学习库,专注于清晰代码和高速执行。它提供预训练的Transformer模型和丰富的API文档,支持用户创建和训练自定义模型,并与TensorFlow数据集无缝集成。Trax兼容CPUs、GPUs和TPUs,用户可以通过Python脚本、notebooks和命令行界面轻松使用。

Project Cover

Efficient-AI-Backbones

Efficient-AI-Backbones 项目涵盖了由华为诺亚方舟实验室研发的一系列先进的人工智能模型,包括 GhostNet, TNT, AugViT, WaveMLP, 和 ViG 等。这些模型通过创新的结构设计和优化,有效提升了计算效率和性能,广泛应用于各种智能处理任务。最新发布的 ParameterNet 在 CVPR 2024 会议上被接受,展现了华为在人工智能技术领域的持续领先。

Project Cover

llm_interview_note

本仓库汇集了大语言模型(LLMs)的面试知识和实用资源,适合准备大模型面试的求职者。内容涵盖大模型基础、架构、训练数据、分布式训练、推理优化、强化学习、RAG技术、模型评估及应用案例。提供详细的知识点解析和操作指南,并附有项目示例和在线体验链接。定期更新,确保内容时效性和实用性。欢迎访问在线阅读页面,关注微信公众号获取更多相关信息。

Project Cover

RWKV-LM

RWKV是一个高性能的并行化RNN,具有变换器级别的性能。该模型实现了快速的推理和训练速度,不依赖于传统的注意力机制,而是通过隐藏状态进行计算,优化了VRAM的使用,并支持处理无限长度的文本上下文。RWKV的这些特点使其在进行句子嵌入和处理复杂文本任务时显示出优越的能力。

Project Cover

AiLearning-Theory-Applying

AiLearning-Theory-Applying项目提供人工智能领域的全面学习资源,覆盖基础知识、机器学习、深度学习及自然语言处理。项目持续更新,附带详尽注释和数据集,便于理解与操作,助力初学者及研究人员迅速掌握AI理论及应用实践。

Project Cover

Transformers-Recipe

该指南为自然语言处理(NLP)及其他领域的学习者提供了丰富的Transformer学习资源,包括基础介绍、技术解析、实际实现和应用。通过精选的文章、视频和代码示例,帮助用户深入掌握Transformer模型的理论与实践。

Project Cover

Awesome-Transformer-Attention

探索视觉变换器和注意力机制的最新发展,包括由Min-Hung Chen持续更新的论文、代码与链接资源。适合学术与实际应用,发现创新思路。

Project Cover

REaLTabFormer

REaLTabFormer使用Seq2Seq模型生成关系数据集,针对非关系数据采用GPT-2模型,直接建模任意独立观察的表格数据。通过生成父表和关系表,利用目标掩码和统计方法避免过拟合。实验结果表明其在捕捉关系结构方面优于基准模型,并在大型非关系数据集上实现了先进的预测效果。REaLTabFormer易于安装和使用,并提供样本验证器以提高生成数据的有效性和准确性。

Project Cover

annotated_deep_learning_paper_implementations

该项目提供详细文档和解释的简明PyTorch神经网络及算法实现,涵盖Transformer、GPT-NeoX、GAN、扩散模型等前沿领域,并每周更新新实现,帮助研究者和开发者高效理解深度学习算法。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号