#transformer架构
相关项目
LaMDA-rlhf-pytorch
LaMDA-rlhf-pytorch是Google LaMDA对话AI模型的开源PyTorch实现,聚焦2B参数预训练架构。项目整合了T5相对位置编码、门控GELU激活函数和GPT式解码器结构,并提供预训练脚本、Hugging Face数据集集成和Weights & Biases日志记录功能。后续将加入SentencePiece分词器、详细文档、微调脚本和推理能力。此项目为AI研究者和开发者提供了研究大规模对话模型的平台。
CoCa-pytorch
CoCa-pytorch项目提供了CoCa(Contrastive Captioners)模型的PyTorch实现。该项目将对比学习融入传统的编码器/解码器transformer,优化了图像到文本的转换。项目采用PaLM的transformer架构,包含单模态、多模态transformers和交叉注意力模块。这一实现为研究和开发图像-文本基础模型提供了有力工具。
Janus-1.3B
Janus是一种创新的自回归框架,通过解耦视觉编码提升多模态功能的灵活性和性能。该框架基于训练有素的DeepSeek-LLM-1.3b-base,处理了大约5000亿文本标记,并采用SigLIP-L视觉编码器实现高效图像处理。Janus在维持简单高效的设计下,达到甚至超越了任务特定模型的性能,预示着下一代统一多模态模型的可能性。