CC6205 - 自然语言处理
这是一门自然语言处理课程。
-
助教:Felipe Urrutia、Juan Pablo Herrera、Alan Contreras、Kevin Iturra 和 Paula Ovalle。
-
课程时间:周二 14:30 - 16:00,周四 14:30 - 16:00
-
课程大纲(西班牙语)
课程简介
本课程旨在通过涵盖基本概念,全面介绍自然语言处理(NLP)。我们力求在传统技术(如N-gram语言模型、朴素贝叶斯和隐马尔可夫模型(HMMs))与现代深度神经网络(包括词嵌入、循环神经网络(RNNs)和变换器)之间取得平衡。
课程材料来源广泛。在许多情况下,这些来源的句子直接被纳入课件中。神经网络主题主要依据Goldberg所著的《自然语言处理的神经网络方法》一书。非神经网络主题,如概率语言模型、朴素贝叶斯和HMMs,则来自Michael Collins的课程和Dan Jurafsky的书籍。此外,部分课件改编自在线教程和其他课程,如Manning的斯坦福课程。
课件
- 自然语言处理简介 | (tex源文件),视频1,视频2
- 向量空间模型和信息检索 | (tex源文件),视频1,视频2
- 概率语言模型 | (tex源文件),笔记,视频1,视频2,视频3,视频4
- 文本分类和朴素贝叶斯 | (tex源文件),笔记,视频1,视频2,视频3
- 线性模型 | (tex源文件),视频1,视频2,视频3,视频4
- 神经网络 | (tex源文件),视频1,视频2,视频3,视频4
- 词向量 | (tex源文件) 视频1,视频2,视频3
- 序列标注和隐马尔可夫模型 | (tex源文件),笔记,视频1,视频2,视频3,视频4
- 最大熵马尔可夫模型和条件随机场 | (tex源文件),笔记1,笔记2,视频1,视频2,视频3(选修)
- 卷积神经网络 | (tex源文件),视频
- 循环神经网络 | (tex源文件),视频1,视频2
- 序列到序列模型和注意力机制 | (tex源文件),视频1,视频2
- Transformer架构 | (tex源文件),视频1
- 上下文化嵌入和大型语言模型,视频1,视频2,视频3
- 大型语言模型使用和评估模式,视频
自然语言处理库和工具
- NLTK:自然语言工具包
- Gensim
- spaCy:工业级自然语言处理
- Torchtext
- AllenNLP:用于设计基于深度学习的自然语言处理模型的开源项目
- HuggingFace Transformers
- ChatGPT
- Google Bard
- Stanza - 支持多种人类语言的Python自然语言处理库
- FlairNLP:一个非常简单的最先进自然语言处理框架
- WEFE:词嵌入公平性评估框架
- WhatLies:一个试图帮助你理解"词嵌入中包含什么"的库
- LASER:用于计算和使用多语言句子嵌入的库
- Sentence Transformers:使用BERT / RoBERTa / XLM-RoBERTa等和PyTorch的多语言句子嵌入
- Datasets:一个轻量级库,可一行代码加载自然语言处理中的许多公共数据集
- RiverText:用于从文本数据流训练和评估增量词嵌入的Python库
笔记和书籍
- Dan Jurafsky和James H. Martin的《语音和语言处理》(第3版草稿)
- Michael Collins的自然语言处理笔记
- Joav Goldberg的《自然语言处理神经网络模型入门》
- Kyunghyun Cho的《基于分布式表示的自然语言理解》
- 大型语言模型综述
- Jacob Eisenstein的自然语言处理书
- NLTK书
- Mohammad Taher Pilehvar和Jose Camacho-Collados的《自然语言处理中的嵌入》
- 《动手学深度学习》
- Noah A. Smith的《上下文词表示:一个背景介绍》
其他自然语言处理课程
- 斯坦福大学CS224n:基于深度学习的自然语言处理
- Horacio Rodríguez的自然语言处理中的深度学习幻灯片
- David Bamman@伯克利的自然语言处理幻灯片
- 伊利诺伊大学Natalie Parde的CS 521:统计自然语言处理
- 10个免费顶级自然语言处理课程
视频
- Dan Jurafsky和Chris Manning的2012年自然语言处理MOOC视频
- Michael Collins的2013年自然语言处理MOOC视频
- Chris Manning和Richard Socher的2017年基于深度学习的自然语言处理
- CS224N:基于深度学习的自然语言处理 | 2019年冬季
- Jordan Boyd-Graber马里兰大学的计算语言学I
- 可视化和理解循环网络
- Chris McCormick的BERT研究系列
- 语音和语言神经模型的成功和挑战 - Michael Collins
- Jorge Pérez的Transformers进阶:BERT及其衍生模型
其他资源
- ACL门户网站
- Awesome-nlp:自然语言处理专用资源精选列表
- NLP进展:追踪自然语言处理(NLP)进展的仓库
- 语料库邮件列表
- 🤗 开放大语言模型排行榜
- 真实世界NLP书籍:AllenNLP教程
- 图解Transformer:一篇非常形象的关于Transformer的博客文章
- 更好的语言模型及其影响 OpenAI博客
- 理解LoRA和QLoRA — 大型语言模型高效微调的强大工具
- RNN的有效性
- SuperGLUE:自然语言理解任务基准
- decaNLP 自然语言十项全能:用于研究能执行各种复杂自然语言任务的通用NLP模型的基准
- 带图像的聊天机器人及相关研究论文笔记
- Ben Trevett的torchtext教程
- PLM论文:预训练语言模型相关论文集
- 图解GPT-2(可视化Transformer语言模型)
- 语言学、NLP和跨学科研究,或:审视你的数据,作者Emily M. Bender
- NLP文献现状:第一部分,作者Saif Mohammad
- 从词到义向量:语义向量表示综述
- Sebastian Ruder的2019年机器学习与NLP研究亮点10选
- 迈向能与人畅聊任何话题的对话代理
- 超级NLP资源库:涵盖广泛NLP任务实现的Colab笔记本集合
- 庞大NLP数据库:近300个组织良好、可排序和可搜索的自然语言处理数据集集合
- BERT学入门:我们对BERT工作原理的了解
- 带相对位置表示的自注意力机制如何工作
- 基于深度学习的文本分类:全面综述
- Yoav Goldberg:教授NLP很令人沮丧,我不知道如何做好
- NLP索引
- 100篇必读NLP论文