Project Icon

ngram

N元语言模型实践:机器学习基础与自然语言处理入门

ngram项目是一个构建N元语言模型的开源工具,通过实践演示机器学习和自然语言处理的基础概念。项目使用32,032个名字作为数据集,实现字符级语言模型,涵盖训练、评估、数据分割等核心环节。提供Python和C语言双版本实现,便于深入理解N元模型原理及性能比较。适合入门者学习自回归语言建模和机器学习基础知识。

n元语法

在这个模块中,我们构建n元语法语言模型。在此过程中,我们学习了机器学习的许多基础知识(训练、评估、数据分割、超参数、过拟合)以及自回归语言建模的基础知识(分词、下一个词预测、困惑度、采样)。GPT其实"只是"一个非常大的n元语法模型。唯一的区别是GPT使用神经网络来计算下一个词的概率,而n元语法使用简单的基于计数的方法。

我们的数据集来自ssa.gov,包含2018年的32,032个名字,这些名字被分为1,000个测试集、1,000个验证集,其余的作为训练集,全部存放在data/文件夹中。因此,我们的n元语法模型本质上是试图学习这些名字中字符的统计规律,然后通过从模型中采样来生成新的名字。

这个模块的一个很好的参考是Jurafsky和Martin所著《语音和语言处理》的第3章

目前,最好的"从头构建此仓库"的参考是YouTube视频"The spelled-out intro to language modeling: building makemore",尽管一些细节略有变化。主要的不同之处在于,该视频介绍了二元语法语言模型,而对我们来说,这只是n元语法中n = 2的特殊情况。

Python版本

要运行Python代码,请确保已安装numpy(例如,pip install numpy),然后运行脚本:

python ngram.py

你会看到脚本首先"训练"了一个小型的字符级分词器(词汇表大小为27,包括26个小写英文字母和换行符),然后它对不同的超参数设置进行了一个小型网格搜索,包括n元语法顺序n和平滑因子,使用验证集进行评估。在我们的数据上使用默认设置时,最优值为n=4, smoothing=0.1。然后它采用这个最佳模型,从中采样200个字符,最后报告测试损失和困惑度。以下是完整的输出,应该只需要几秒钟就能生成:

python ngram.py
seq_len 3 | smoothing 0.03 | train_loss 2.1843 | val_loss 2.2443
seq_len 3 | smoothing 0.10 | train_loss 2.1870 | val_loss 2.2401
seq_len 3 | smoothing 0.30 | train_loss 2.1935 | val_loss 2.2404
seq_len 3 | smoothing 1.00 | train_loss 2.2117 | val_loss 2.2521
seq_len 4 | smoothing 0.03 | train_loss 1.8703 | val_loss 2.1376
seq_len 4 | smoothing 0.10 | train_loss 1.9028 | val_loss 2.1118
seq_len 4 | smoothing 0.30 | train_loss 1.9677 | val_loss 2.1269
seq_len 4 | smoothing 1.00 | train_loss 2.1006 | val_loss 2.2114
seq_len 5 | smoothing 0.03 | train_loss 1.4955 | val_loss 2.3540
seq_len 5 | smoothing 0.10 | train_loss 1.6335 | val_loss 2.2814
seq_len 5 | smoothing 0.30 | train_loss 1.8610 | val_loss 2.3210
seq_len 5 | smoothing 1.00 | train_loss 2.2132 | val_loss 2.4903
best hyperparameters: {'seq_len': 4, 'smoothing': 0.1}
felton
jasiel
chaseth
nebjnvfobzadon
brittan
shir
esczsvn
freyanty
aubren
... (截断) ...
test_loss 2.106370, test_perplexity 8.218358
wrote dev/ngram_probs.npy to disk (for visualization)

如你所见,4元语法模型生成了一些相对合理的名字,如"felton"和"jasiel",但也有一些奇怪的名字,如"nebjnvfobzadon",但你不能对一个小型的4元字符级语言模型期望太多。最后,报告的测试困惑度约为8.2,这意味着模型对测试集中的每个字符的困惑程度相当于从8.2个等概率的字符中随机选择。

Python代码还将n元语法概率写入dev/文件夹中的磁盘,你可以使用附带的Jupyter笔记本dev/visualize_probs.ipynb来检查这些概率。

C版本

C模型在功能上是相同的,但跳过了交叉验证。相反,它硬编码了n=4, smoothing=0.01,但进行了训练、采样和测试困惑度评估,并获得了与Python版本完全相同的结果。编译和运行C代码的示例如下:

clang -O3 -o ngram ngram.c -lm
./ngram

C版本运行速度当然更快。你会看到相同的样本和测试困惑度。

待办事项

  • 改进
  • 制作练习
  • 寻求帮助:制作一个良好的可视化/网页应用,展示并动画演示4元语法语言模型及其工作原理。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号