#自然语言模型
PL-BERT - 通过PL-BERT实现更自然的语音合成
Github开源项目语音合成文本转语音PL-BERT自然语言模型图标预测
PL-BERT,一种创新的音素级预训练语言模型,通过预测掩码音素对应的字形,有效提升了多语种文本到语音转换的自然度和准确性。经科学评估,其合成语音质量在面对非模型文本时,较传统方法有明显提高,推动了语音合成技术的进步。
Lemur - Lemur:同时具备自然语言与编程能力的开放语言模型
Github开源项目自然语言模型语言代理Lemur开放源码编码能力
Lemur项目优化了自然语言和编程技能,旨在成为多功能语言代理的基础。通过预训练和指令微调,Lemur在语言和编程基准测试中表现出色,缩小了开源与商业模型的差距。用户可以访问和使用Lemur-70B和Lemur-70B-Chat模型,实现文本和代码生成。项目由XLang Lab与Salesforce Research合作支持,适用于多种应用场景,包括工具使用和环境反馈的适应,并覆盖广泛的语言和交互代理技能评估。
mlp - 多层感知器实现n-gram语言模型的开源项目
Github开源项目PyTorch神经网络自动微分自然语言模型多层感知器
该项目基于Bengio等人2003年的论文,实现了多层感知器(MLP)作为n-gram语言模型。项目提供C、NumPy和PyTorch三种实现,展示了从底层操作到高级抽象的不同层次。通过对比,突出了PyTorch在Tensor处理、自动微分和深度学习层构建方面的优势。相比传统n-gram模型,此方法以较少参数实现更低验证损失,但训练成本较高。
opt-66b - Meta AI推出OPT系列开源预训练语言模型促进NLP研究
Github开源项目文本生成预训练模型大语言模型模型Huggingface自然语言模型OPT
OPT是Meta AI开发的开源预训练Transformer语言模型系列,参数规模从125M到175B不等。该系列模型主要基于英语文本训练,性能可媲美GPT-3。OPT旨在促进大型语言模型的可复现研究,使更多研究者能够参与探讨其影响。这些模型可用于文本生成和下游任务评估,但也存在偏见等局限性。通过开放OPT,Meta AI期望推动自然语言处理技术的整体进步。
相关文章