#NLP模型
相关项目
ai_and_memory_wall
此库提供了AI and Memory Wall论文中的数据,包括SOTA模型在计算机视觉、自然语言处理和语音学习领域的参数、特征大小和推理与训练所需的总FLOPs。详细统计涵盖BERT和GPT系列等模型,分析其内存使用和训练计算量。数据表格展示了各模型的输入分辨率、参数内存和总内存,为研究人员和开发者提供可靠的参考。
git2gpt
git2gpt是一款通过命令行将Git仓库转换为文本格式的工具,方便在ChatGPT和其他NLP模型中加载。支持添加`.gptignore`文件以忽略特定文件,操作简单。只需安装Go语言并运行`git2gpt`命令生成结构化文本文件,支持多种命令行标志。项目开源,采用MIT许可证,欢迎贡献。
stanza-en
Stanza提供英文语言的精准高效分析,从文本处理到句法分析与实体识别,均使用先进的NLP模型。了解更多信息,请访问其官方网站和GitHub仓库。
papuGaPT2
papuGaPT2采用GPT2架构,通过CLM目标进行自监督训练,利用Oscar语料库中的波兰子集,为NLP研究带来新机遇。适用于文本生成和下游任务微调,但可能生成含敏感内容和偏见的文本,建议只在研究中使用。展示了先进的训练方法以及文本生成技巧,包括不当用词过滤和少样本学习。