Project Icon

gpt-neox-20b

EleutherAI开发的大规模开源语言模型

GPT-NeoX-20B是EleutherAI开发的200亿参数大规模语言模型。模型基于The Pile数据集训练,采用与GPT-3相似的架构,包含44层Transformer结构。作为研究导向的开源模型,支持下游任务开发和模型微调,但仅限于英语语言处理,且未经过人类反馈优化,不适合直接用于产品部署。

t5-large - 统一文本到文本格式的大规模多语言NLP模型
GithubHuggingfaceT5多任务学习开源项目文本生成模型自然语言处理迁移学习
T5-Large是一个基于Text-To-Text Transfer Transformer架构的NLP模型,拥有7.7亿参数。该模型采用统一的文本到文本格式,能够处理机器翻译、文档摘要、问答和分类等多种任务。T5-Large在C4语料库上进行预训练,支持英语、法语、罗马尼亚语和德语,并在24项NLP任务中展现出优秀性能。这个versatile模型为各种文本处理应用提供了强大的基础。
xlm-roberta-large - 大规模多语言预训练模型
GithubHuggingfaceXLM-RoBERTa多语言模型开源项目机器学习模型自然语言处理预训练模型
XLM-RoBERTa是一个在2.5TB多语言数据上预训练的大型语言模型,覆盖100种语言。该模型采用掩码语言建模技术,能够生成双向文本表示。XLM-RoBERTa主要应用于序列分类、标记分类和问答等下游任务的微调。凭借其在多语言和跨语言任务中的出色表现,XLM-RoBERTa为自然语言处理领域提供了坚实的基础。
Qwen2.5-1.5B - 多语言支持的15亿参数基础语言模型
GithubHuggingfaceQwen2.5人工智能大语言模型开源项目模型深度学习自然语言处理
Qwen2.5-1.5B是一个具有15亿参数的基础语言模型。它支持29种以上语言,可处理32,768个token的上下文,生成8K token的文本。该模型在编码、数学和结构化数据处理方面表现优异。采用transformer架构,包含RoPE和SwiGLU等技术。Qwen2.5-1.5B适合进一步微调和应用开发,但不建议直接用于对话任务。
T0_3B - 小规模T0模型超越GPT-3,进行零样本自然语言任务处理
GithubHuggingfaceT0偏见与公平性开源项目模型模型训练自然语言处理评估数据
T0*模型通过自然语言提示实现零样本任务泛化,性能超越GPT-3,且模型体积缩小至16分之一。该模型在多任务提示数据集中微调,能够针对未见任务做出高效预测。适用于多种推理场景,包括情感分析、句子重排列和词义判断等。其训练数据源自多个数据集并经过严谨评估,保障模型性能可靠性。虽然T0*模型参数较大,但通过优化和并行化方案能够有效应用于多GPU环境。
GPT2 - PyTorch优化实现的自然语言生成模型
GPT-2GithubPyTorch开源项目文本生成深度学习自然语言处理
该项目是OpenAI GPT-2模型的PyTorch实现,提供模型训练、文本生成和指标可视化功能。代码设计兼顾可读性和性能优化,支持多GPU训练、自动混合精度和梯度检查点等特性。项目提供详细的命令行使用说明,并可在Google Colab中进行交互式文本生成和模型评估。
build-nanogpt - 从零构建GPT-2模型的开源教学项目
GPT-2GithubnanoGPT开源项目机器学习深度学习语言模型
build-nanogpt是一个开源教学项目,演示如何从零构建GPT-2模型。通过详细的Git提交记录和YouTube视频讲解,项目展示了124M参数GPT-2模型的完整构建过程。用户可在约1小时内重现模型,并可扩展至GPT-3规模。项目还提供模型训练示例、FAQ和勘误表,是深入理解大型语言模型原理的实用资源。该项目适合对大型语言模型感兴趣的开发者和研究人员,不仅提供了代码实现,还包含详细的解释和实践指导,有助于深入理解现代自然语言处理技术。
pythia-2.8b - 大规模语言模型研究工具包,提供多尺度模型和训练检查点
GithubHuggingfacePyTorchPythia人工智能开源项目机器学习模型语言模型
Pythia-2.8B是EleutherAI开发的大规模语言模型研究套件中的一员,专注于促进模型可解释性研究。该模型包含25亿参数,基于Transformer架构,使用Pile数据集训练。提供154个训练检查点,便于深入分析模型演化过程。尽管主要用于研究,其性能与同等规模的OPT和GPT-Neo模型相当。Pythia-2.8B采用Apache 2.0许可证,可通过Hugging Face Transformers库轻松部署。
stablelm-3b-4e1t - StableLM开源语言模型在1万亿token数据上训练达到30亿参数规模
GithubHuggingfaceStableLM-3B-4E1T人工智能大语言模型开源模型开源项目文本生成模型
StableLM-3B-4E1T是一个开源语言模型,通过在Falcon RefinedWeb和RedPajama-Data等数据集上训练4轮获得,总计处理1万亿tokens数据。模型采用LayerNorm归一化和Rotary位置编码技术,支持Flash Attention 2优化。在HellaSwag和Winogrande任务评测中分别达到75.94%和71.19%的准确率,展现出良好的语言理解能力。
gemma-7b - Google推出的轻量级开源大语言模型
GemmaGithubHuggingface人工智能大语言模型开源项目机器学习模型自然语言处理
Gemma-7b是Google基于Gemini技术推出的开源大语言模型,拥有70亿参数。该模型在6万亿token的多样化数据集上训练,支持8192个token的上下文长度。Gemma-7b在MMLU、HellaSwag等多项基准测试中表现优异。模型采用严格的数据清洗和安全评估流程,为研究人员提供高性能且负责任的AI工具,促进AI技术的普及与创新。
Qwen2.5-7B - 支持长文本和多语言的先进预训练语言模型
GithubHuggingfaceQwen2.5代码能力多语言支持大语言模型开源项目模型长文本处理
Qwen2.5-7B是一款拥有76亿参数的大规模预训练语言模型。它支持128K tokens的上下文理解和8K tokens的文本生成,显著增强了知识储备、编码和数学能力。该模型在指令遵循、长文本生成和结构化数据理解方面表现出色,并可处理29种以上语言。Qwen2.5-7B作为基础模型,为进一步的微调和应用开发奠定了坚实基础。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号