#seq2seq
pytorch-seq2seq - 使用PyTorch实现序列到序列模型的教程
Github开源项目PyTorch神经网络翻译机器翻译seq2seq
该项目提供一系列使用PyTorch实现seq2seq模型的教程,特别是对德语到英语的翻译。教程涵盖了seq2seq网络的基础、编码器-解码器模型、注意机制以及使用spaCy进行数据分词,并提供了详细的代码和示例,帮助学习者深入理解和应用相关技术。
Chinese-ChatBot - 开源LSTM和Attention机制中文聊天机器人
Github开源项目深度学习Attention机制seq2seqLSTM中文聊天机器人
Chinese-ChatBot是一个开源的中文聊天机器人项目,基于LSTM和Attention机制构建。项目使用Tensorflow和Keras框架,采用seq2seq模型结构,实现了从数据预处理到模型训练和预测的完整流程。虽已停止维护,但其代码和文档仍为自然语言处理初学者提供了宝贵的学习资源。项目还包含简洁的图形界面,方便用户交互测试。
bart-large - 用于自然语言生成和理解的预训练序列到序列模型
Github开源项目文本生成预训练模型自然语言处理模型HuggingfaceBARTseq2seq
BART是基于Transformer架构的预训练语言模型,结合了双向编码器和自回归解码器。通过去噪任务预训练,BART在文本生成(如摘要、翻译)和理解任务(如分类、问答)中均表现优异。该模型适用于多种自然语言处理任务,尤其在有监督数据集上进行微调后效果显著。BART为研究人员和开发者提供了强大的工具,推动了自然语言处理技术的发展。