#词嵌入
wikipedia2vec
Wikipedia2Vec是一款由Studio Ousia开发和维护的工具,用于从维基百科中获取词语和实体的嵌入表示。通过简单命令和现成的维基百科数据,能够同步学习词语和实体嵌入,并将相似词语和实体映射到连续的向量空间中。该工具实现了传统的skip-gram模型,并扩展了实体嵌入功能,支持多语言的预训练嵌入下载,可应用于实体链接、命名实体识别、问题回答和文本分类等多种任务。详细信息及使用文档可在官方网站获取。
semantic-grep
semantic-grep是一款开源的语义搜索命令行工具,基于词嵌入技术实现超越字符串匹配的智能搜索。它支持多语言,提供类似grep的使用体验,具有相似度阈值设置、上下文显示和彩色输出等特性。通过命令行参数或JSON文件配置,可在文件或标准输入中进行高效的语义搜索,适用于开发者和文本分析工作。
polish-nlp-resources
该项目汇集了多种波兰语自然语言处理资源,包括词嵌入、语言模型和机器翻译模型。提供Word2Vec、FastText、GloVe等词向量,以及ELMo、RoBERTa等上下文嵌入模型。还包含压缩词向量和Wikipedia2Vec等特色资源。涵盖从基础词向量到预训练模型的多个层面,为波兰语NLP研究和应用提供支持。
character-bert
CharacterBERT是BERT的一个变体,采用字符级CNN模块动态构建词表示,无需依赖预定义词片词汇表。这种方法可生成任意输入标记的表示,适用于医学等专业领域。与标准BERT相比,CharacterBERT生成词级上下文表示,对拼写错误更为鲁棒,且可轻松适应不同领域而无需重新训练词片词汇表。该模型在多个医学领域任务中表现优于BERT,提供更便捷实用的词级开放词汇表表示。
wefe
WEFE是一个词嵌入公平性评估框架,用于测量和缓解词嵌入模型中的偏见。它统一了现有的公平性指标,提供标准接口来封装指标、测试集和计算模型公平性。WEFE还将偏见缓解过程标准化为计算和执行两个阶段。框架支持多种安装方式,提供详细文档。WEFE致力于推动词嵌入技术的公平性发展。
Pytorch-RNN-text-classification
Pytorch-RNN-text-classification是一个多类别短文本分类模型,基于RNN架构设计。该项目使用Pytorch实现,集成词嵌入、LSTM(或GRU)和全连接层。模型支持GloVe预训练词向量,采用交叉熵损失函数和Adam优化器。通过零填充和PackedSequence技术处理mini-batch,提高训练效率。项目包含数据预处理和训练脚本,方便研究人员快速应用于实际文本分类任务。
embeddings
Embeddings是一个面向自然语言处理和机器学习的轻量级Python库,专注于高效处理预训练词向量。该库采用数据库后端技术,实现了快速加载和查询嵌入向量的功能,无需加载大型文件。Embeddings支持GloVe、FastText和字符级嵌入等多种嵌入类型,并提供了组合使用的能力。此外,项目还提供预装常用嵌入向量的Docker镜像,有助于简化部署和使用流程。
GermanWordEmbeddings
GermanWordEmbeddings是一个开源的德语词向量模型训练与评估工具包。该工具包基于gensim的word2vec实现,提供了从语料库获取、预处理到模型训练和评估的完整流程。工具包支持语法和语义特征评估,可用于德语自然语言处理研究。项目还提供了一个基于德语维基百科和新闻文章训练的预训练模型。
vec4ir
Vec4IR是一个开源的信息检索框架,专注于实际应用场景。它原生支持词嵌入技术,与gensim无缝集成。框架提供内置评估功能,API设计参考sklearn,便于扩展新模型。核心组件包括匹配和相似度评分,还支持查询扩展等高级特性。Vec4IR适合研究人员评估检索模型,也可帮助数据科学家选择最佳方案。框架核心功能包括文档匹配和相似度评分。它还提供查询扩展、伪相关反馈等高级特性,可满足复杂的检索需求。Vec4IR采用模块化设计,便于研究人员快速实现和评估新的检索算法。对于数据科学家,该框架也是比较不同检索模型性能的理想工具。