#语言建模

darts - 使用DARTS算法高效设计图像分类和语言建模架构
DARTSPyTorch卷积架构语言建模图像分类Github开源项目
DARTS算法通过连续松弛和梯度下降,在架构空间中高效设计用于图像分类(CIFAR-10和ImageNet)和语言建模(Penn Treebank和WikiText-2)的高性能卷积和循环架构。只需一块GPU即可运行,提供预训练模型及详细的架构搜索和评估指南,支持自定义架构的可视化。
dynalang - 使用语言和多模态模型预测与解决任务
Dynalang人工智能多模态模型训练脚本语言建模Github开源项目
Dynalang项目通过多种语言创建一个多模态世界模型,预测未来并解决任务。提供详细的安装指南和训练配置,支持HomeGrid、Messenger、VLN和LangRoom等环境。该项目建基于最新研究,旨在通过语言建模提高任务解决效率。
esm2_t36_3B_UR50D - ESM-2系列先进蛋白质序列模型
生物信息学Huggingface模型机器学习语言建模GithubESM-2开源项目蛋白质模型
esm2_t36_3B_UR50D是ESM-2系列中的一款蛋白质模型,采用掩码语言建模方法训练。该模型拥有36层网络结构和30亿参数,在精度、内存消耗和训练时间之间取得了良好平衡。它适用于多种蛋白质序列相关任务的微调,可用于蛋白质序列分析和功能预测等研究领域。研究人员可以利用此模型进行各种蛋白质相关的前沿探索。
esm2_t30_150M_UR50D - ESM-2系列中的中型蛋白质序列分析模型
生物信息学神经网络Huggingface模型语言建模GithubESM-2开源项目蛋白质模型
esm2_t30_150M_UR50D是ESM-2系列中的中型模型,具有30层结构和1.5亿参数。这个基于掩码语言建模的蛋白质模型适用于多种蛋白质序列输入任务的微调。模型在性能和资源消耗间达到平衡,为蛋白质序列分析提供了实用的工具。
vilt-b32-mlm - 探索无卷积技术在ViLT模型中的应用
语言建模Github开源项目PyTorch模型HuggingfaceViLT深度学习图像处理
ViLT模型利用无卷积方法在多个数据集进行预训练,专注于掩码语言建模。由Kim等人发布,适用于图像与文本结合场景。可通过PyTorch代码实现简单安装和试用,支持掩码位置的文本填补,推动自然语言处理和图像识别时跨模态学习的进展。
codesage-small - 多语言支持的开源码理解与嵌入模型
开源项目模型Github语言建模HuggingfaceCodeSage深度学习编码器架构代码嵌入
CodeSage-Small是一个开源代码嵌入模型,以编码器结构为基础,提供多语言源码理解功能。训练数据来自去重后的Stack数据集,支持九种编程语言,包括c、java和python。采用掩码语言模型和双模态数据进行训练,通过Starcoder分词器和AutoModel实现便捷加载,可生成高维代码嵌入。详细信息可参考相关研究论文。