#NLP模型
ai_and_memory_wall - 行业领先模型的参数及内存使用情况的分析
CV模型NLP模型SOTA模型内存占用训练FLOPsGithub开源项目
此库提供了AI and Memory Wall论文中的数据,包括SOTA模型在计算机视觉、自然语言处理和语音学习领域的参数、特征大小和推理与训练所需的总FLOPs。详细统计涵盖BERT和GPT系列等模型,分析其内存使用和训练计算量。数据表格展示了各模型的输入分辨率、参数内存和总内存,为研究人员和开发者提供可靠的参考。
git2gpt - Git仓库转文本工具,适用于ChatGPT和NLP模型
git2gpt命令行工具Git仓库NLP模型Go语言Github开源项目
git2gpt是一款通过命令行将Git仓库转换为文本格式的工具,方便在ChatGPT和其他NLP模型中加载。支持添加`.gptignore`文件以忽略特定文件,操作简单。只需安装Go语言并运行`git2gpt`命令生成结构化文本文件,支持多种命令行标志。项目开源,采用MIT许可证,欢迎贡献。
stanza-en - 英文语言处理的高级工具集
语言分析实体识别NLP模型语法分析Stanza模型Github开源项目Huggingface
Stanza提供英文语言的精准高效分析,从文本处理到句法分析与实体识别,均使用先进的NLP模型。了解更多信息,请访问其官方网站和GitHub仓库。
papuGaPT2 - papuGaPT2推动波兰语生成和NLP研究
开源项目模型GithubHuggingface文本生成深度学习papuGaPT2NLP模型偏见分析
papuGaPT2采用GPT2架构,通过CLM目标进行自监督训练,利用Oscar语料库中的波兰子集,为NLP研究带来新机遇。适用于文本生成和下游任务微调,但可能生成含敏感内容和偏见的文本,建议只在研究中使用。展示了先进的训练方法以及文本生成技巧,包括不当用词过滤和少样本学习。