#文本分类

llama-classification - 利用LLaMA的文本分类代码库概述与使用指南
LLaMA文本分类代码库实验设置预处理Github开源项目
这个代码库提供了使用LLaMA进行文本分类的基础代码。用户可以通过该项目设置实验环境并运行在Nvidia V100 GPU上,用于与Huggingface数据集进行文本分类实验。项目介绍了Direct、Channel和Pure Generation三种方法,并提供了预处理、推理和校准的具体示例。
Keras-TextClassification - 多样预训练模型支持的高效文本分类工具
Keras-TextClassification文本分类深度学习神经网络嵌入式模型Github开源项目
为中文用户提供高效的文本分类解决方案,支持FastText、BERT、Albert等多种预训练模型,涵盖词、字、句子嵌入。详细介绍数据处理与模型训练流程,通过下载与调用数据,实现多标签分类和文本相似度计算,简化复杂的自然语言处理任务。
lingua - 多语言文本检测库,低配置需求,高精度
Lingua语言识别自然语言处理文本分类拼写检查Github开源项目
此库可检测文本数据的语言,适用于自然语言处理如文本分类和拼写检查。与其他开源库相比,该库无需复杂配置,适用于长文本和短文本,甚至单词和短语。支持75种语言,高精度检测,完全离线运行,无需外部API或服务,适用于社交媒体和电子邮件自动分拣等应用。
NLP_Quickbook - 自然语言处理实用指南,快速上手实战应用
Natural Language Processing文本分类语法分析深度学习聊天机器人Github开源项目
本开源项目聚焦于帮助工程师快速掌握自然语言处理技术。从文本分类、文本清洗到深度学习和聊天机器人构建,提供详细的代码示例和实操指南。这些按主题划分的手册采用代码优先的方式讲解,便于工程师直接应用于实际项目。无论是初学者还是有经验的工程师,都能从中受益,提升自然语言处理技能。
small-text - Small-Text:Python中的文本分类主动学习工具
small-text积极学习文本分类PythonsklearnGithub开源项目
Small-Text 是一个前沿的文本分类主动学习工具,支持多种查询策略、初始化策略和停止准则,用户可以灵活组合使用。工具支持 GPU 加速的 Pytorch 模型和 transformers 集成,适用于复杂文本分类任务,同时也支持 CPU 的轻量安装。科学验证的组件和详细文档使无论是试验还是实际应用,都变得更简单。要求 Python 3.7 或更高版本,支持 CUDA 10.1 或更新版本。如需了解更多,请访问其文档和安装指南。
lingua-py - 多语言检测工具,支持75种语言的高效文本解析
语言检测自然语言处理Lingua文本分类Rust实现Github开源项目
该工具能够高效检测文本所属语言,适用于自然语言处理中的文本分类和拼写检查等预处理步骤。这款灵活的小库在长文本和短文本上都能保持高准确率,不依赖外部API或服务,可完全离线使用。相比其他开源库,具有更高的精度和更低的内存占用,尤其适合处理短文本如微博信息。
underthesea - 越南语自然语言处理开源工具包
开源项目Underthesea越南自然语言处理开源Python文本分类Github
越南语自然语言处理开源 Python 工具包,提供简便的 API 和预训练模型,支持词语分割、词性标注、命名实体识别、文本分类和依存句法分析。工具包遵循 GNU 通用公共许可证 v3.0,包含数据集和教程,适用于科研和开发。最新版本支持 LLMs 和基于提示的文本分类功能,用户可以通过 pip 安装。教程涵盖从句子分割到情感分析和语言检测等多种功能。
transformers-interpret - 快速解读Transformer模型的工具,只需2行代码
Transformers Interpret解释工具transformers可视化文本分类Github开源项目
Transformers-interpret是一款为Transformer模型设计的解释工具,只需简单代码即可实现。支持文本和计算机视觉模型,并可在笔记本中展示或保存为PNG和HTML文件。通过导入预训练模型和tokenizer,用户能快速获得预测分类解释,并提供可视化功能。此项目基于Captum库构建,支持多标签分类等功能,帮助开发者深入理解模型决策。
lingua-go - 准确识别文本语言的灵活工具,适用于多种自然语言处理场景
AIGithub开源项目Lingua语言识别自然语言处理文本分类
Lingua-go 是一款能够准确识别文本语言的开源工具,适用范围广泛,包括长文本、单个词语和短语等。相比其他库,它在处理短文本时表现更佳,无需依赖外部API,支持75种语言,完全离线使用,适合预处理、文本分类和拼写检查等自然语言处理任务。
happy-transformer - 便捷调优与推理NLP Transformer模型
Happy TransformerNLP文本生成文本分类词预测Github开源项目
Happy Transformer提供简单的方法来调优和推理NLP Transformer模型,主要功能包括DeepSpeed训练、Apple的MPS训练及推理、WandB训练追踪以及直接推送模型到Hugging Face的Model Hub。支持的任务涵盖文本生成、文本分类、单词预测、问答、文本到文本、下一句预测和标记分类。
prodigy-recipes - 精准的自定义数据标注脚本,提升文本和图像模型性能
Prodigy命名实体识别文本分类图像标注脚本工具Github开源项目
本项目提供了一系列自定义的Prodigy脚本食谱,涵盖命名实体识别、文本分类、术语提取和图像标注等任务,旨在帮助提升训练数据的质量和模型性能。这些脚本附有详细注释和简化示例,适合处理各种数据标注需求。使用这些脚本需拥有Prodigy许可。
pytextclassifier - PyTextClassifier:支持多种文本分类和聚类算法的高性能工具库
PyTextClassifier文本分类聚类算法自适应文本分析开源工具包Github开源项目
PyTextClassifier是一款高性能的Python工具库,提供多种文本分类和聚类算法,支持二分类、多分类、多标签分类和Kmeans聚类。适用于情感分析和文本风险分类,设计简明易用,算法高效清晰。支持句子和文档级的文本任务,兼容英文和中文文本。包含FastText、TextCNN、TextRNN和BERT等深度学习模型,适合各类生产环境。
textaugment - 短文本分类的全球增强方法
TextAugment增强文本分类自然语言处理Python库Github开源项目
TextAugment是一个Python 3库,旨在提升自然语言处理应用中的文本处理能力。借助于NLTK、Gensim和TextBlob等工具,TextAugment能生成合成数据,从而提升模型性能。这个库支持多种增强方法,如Word2vec、WordNet和RTT,并可轻松集成到PyTorch、TensorFlow和Scikit-learn等机器学习框架中。无论是词义替换还是混合增强方法,TextAugment都能为短文本分类任务提供有效的解决方案。
sentiment-analysis - 多种中文情感分析方法及实现途径
Sentiment Analysis情感分析自然语言处理文本分类深度学习Github开源项目
该页面介绍了中文情感分析的三种类型:基于情感词典、传统机器学习和深度学习的方法,并展示了四种实现方式:词典法、Bayes法、ALBERT与TextCNN结合及其emoji扩展。适合自然语言处理和文本分类爱好者深入了解情感分析的实现手段。
pyss3 - 简洁明了的文本分类Python库
PySS3文本分类机器学习开源项目模型评估Github
PySS3是一个用于文本分类的Python库,使用简单且可解释的SS3模型,适合需要清晰了解决策依据的应用场景。PySS3提供了诸如SS3类、实时测试的Live_Test类和评估工具Evaluation类,帮助用户快速开发和优化机器学习模型。直观的API和可视化工具使得用户可以轻松提升模型性能,理解模型决策的原因。
php-text-analysis - PHP文本分析库:支持信息检索与自然语言处理
php-text-analysis自然语言处理文本分类情感分析词干提取Github开源项目
该库提供多种工具用于文档分类、情感分析、文档比较、频率分析、词语切分、词干提取等功能。通过composer轻松安装并集成,支持自定义分词器、正则化和频率分布。该库还包括关键词提取与高级的情感分析工具,为开发者提供强大的文本分析能力。详细文档与相关书籍可在GitHub页面找到,欢迎贡献。
fastText - 高效词向量学习和文本分类库
fastText词向量文本分类机器学习自然语言处理Github开源项目
fastText是Facebook开发的开源自然语言处理库,专注于高效词向量学习和文本分类。它支持157种语言,利用子词信息丰富词向量表示,并采用多种技巧提升分类性能。该库易用且训练速度快,适合大规模文本处理。fastText还提供模型量化功能,可大幅压缩模型体积,便于部署。
floret - 将fastText和Bloom嵌入结合的紧凑词向量生成工具
fastTextfloret词向量文本分类子词嵌入Github开源项目
floret是fastText的扩展版本,结合fastText的子词技术和Bloom嵌入,为任意词生成紧凑的全覆盖向量。通过将词和子词哈希存储在同一表中,大幅减少存储空间。支持训练词嵌入和文本分类模型,提供Python接口,生成的向量可轻松导入spaCy等NLP库。作为一个高效的文本处理工具,floret在保持fastText优点的同时,提供了更紧凑的词向量表示方法。
fastc - 轻量级文本分类工具 适用于内存受限环境
fastc文本分类机器学习自然语言处理嵌入模型Github开源项目
fastc是一款为CPU环境优化的文本分类工具,专为内存受限场景设计。它采用高效蒸馏模型生成嵌入,结合逻辑回归或最近质心方法实现快速分类。该工具支持多分类器并行执行,具备模型训练、保存、加载和发布功能,并提供推理服务器部署选项。fastc为开发者提供了一个全面且高效的文本分类解决方案。
practical-nlp-code - 实用自然语言处理系统构建指南
自然语言处理NLP系统文本分类信息抽取聊天机器人Github开源项目
该代码仓库提供了全面的实用自然语言处理内容,从基础到高级应用。涵盖文本表示、分类、信息提取等核心主题,并探讨社交媒体、电商、医疗等领域的NLP应用。仓库包含丰富的Python代码示例,有助于构建实际NLP系统。正在更新以支持最新Ubuntu系统和TensorFlow 2.x。
PyShortTextCategorization - Python短文本分类和挖掘库
短文本挖掘Python机器学习文本分类自然语言处理Github开源项目
PyShortTextCategorization是一个专门用于短文本分类和挖掘的Python库。它集成了多种文本表示方法,如主题建模和词嵌入,支持有监督和无监督学习。该库提供文本预处理、预训练词嵌入、多种分类算法和短语相似度计算等功能,为短文本分析提供了全面的工具集。适用于Python 3.8-3.11版本,具备示例数据集、文本预处理、预训练词嵌入支持等特性。它整合了多种主题模型和神经网络分类器,并提供短语差异度量和字符级序列到序列学习等高级功能。
fast-bert - 快速训练和部署BERT与XLNet文本分类模型的深度学习库
Fast-Bert文本分类预训练模型深度学习自然语言处理Github开源项目
fast-bert是一个深度学习库,用于训练和部署基于BERT和XLNet的文本分类模型。它支持多类和多标签分类,提供数据处理、模型训练、参数调优和部署功能。该库集成了LAMB优化器和学习率查找器,旨在简化最新自然语言处理技术的应用过程。fast-bert适用于各类文本分类任务,能够帮助开发者快速构建高性能模型。
TextClassificationBenchmark - 基于PyTorch的文本分类基准测试平台
文本分类深度学习模型数据集PyTorch基准测试Github开源项目
TextClassificationBenchmark是一个开源的文本分类基准测试平台。该项目基于PyTorch实现,集成了IMDB、SST和Trec等多个主流数据集,支持情感分析和主题分类任务。平台内置FastText、CNN、LSTM和Transformer等多种深度学习模型,并提供自动数据配置、模型训练和评估功能。研究人员和开发者可以利用此平台方便地进行文本分类实验和性能对比。
Annif - 多算法自动主题索引工具包 提升文本分类效率
Annif自动主题索引自然语言处理机器学习文本分类Github开源项目
Annif是一个开源自动主题索引工具包,集成多种算法用于文本分类和主题标注。它可高效处理大规模文档,提供REST API,支持多语言,并支持Docker部署。这个工具主要应用于图书馆、档案馆等需要自动化主题分类的机构,能提高索引效率和一致性。Annif项目持续更新,具备完善的文档和活跃的社区支持。
classifier - Ruby实现的文本分类和语义分析库
Classifier贝叶斯分类LSI机器学习文本分类Github开源项目
Classifier是一个Ruby开源库,实现了贝叶斯分类和潜在语义索引算法。它提供文本分类、语义分析、搜索和聚类功能,适用于多种文本处理任务。该库具有良好的性能和扩展性,同时保持了使用简便性。Classifier提供了详细文档和示例,便于开发者快速上手和集成。
Pytorch-NLU - 轻量级NLP工具包 支持文本分类和序列标注
Pytorch-NLU自然语言处理文本分类序列标注预训练模型Github开源项目
Pytorch-NLU是一个轻量级自然语言处理工具包,专注于文本分类、序列标注和文本摘要任务。该工具包支持BERT、ERNIE等多种预训练模型,提供多种损失函数,具有依赖少、代码简洁、注释详细、配置灵活等特点。Pytorch-NLU包含丰富的数据集,使用方式简单,可快速应用于实际NLP项目中。
bert-classification-tutorial - BERT与Transformers库实现的新闻文本分类项目
BERT自然语言处理文本分类深度学习预训练语言模型Github开源项目
这是一个基于BERT模型的现代化文本分类实现项目。项目采用最新的Python、PyTorch和Transformers库,为自然语言处理任务提供了高质量模板。完整流程涵盖数据准备、模型训练和评估,并具有清晰的代码结构和详细说明。虽然主要针对livedoor新闻语料库的分类任务,但也易于适应其他文本分类需求。
HDLTex - 层级深度学习提升大规模文本分类效能
文本分类深度学习层次分类HDLTex文档处理Github开源项目
HDLTex是一种创新的层级深度学习方法,旨在解决大规模文档集合的文本分类难题。该方法采用堆叠式深度学习架构,为文档层次结构的各个层级提供专门化理解。HDLTex通过层级分类方式提升了分类性能,尤其适合类别数量庞大的场景。项目开源了完整实现代码和详尽文档,支持多个标准数据集,并提供pip和git两种便捷安装方式。
text_classifier_tf2 - 多模型文本分类框架 支持TextCNN、BERT等
文本分类深度学习模型训练方法评估指标模型部署Github开源项目
该开源项目提供基于TensorFlow 2的多模型文本分类框架。支持TextCNN、TextRNN、BERT等模型,集成词向量增强、对抗训练、对比学习等功能。框架适用于二分类和多分类任务,提供灵活配置选项。项目还包含交互式预测和批量测试工具,便于分析模型性能和错误案例。
SecureBERT - 网络安全专用的语言模型,提升文本分析和信息处理能力
文本分类问答开源项目SecureBERT模型语言模型Huggingface网络安全Github
SecureBERT基于RoBERTa构建,是专用于处理网络安全文本的领域特定语言模型。经过海量的网络安全文本训练,它表现出在文本分类、命名实体识别等任务中的卓越性能,并在填空预测上优于模型如RoBERTa和SciBERT,保持对通用英语的良好理解。SecureBERT已在Huggingface平台上线,可作为下游任务的基础模型,以实现更精准的文本分析和处理。
bert-base-uncased-emotion - 情感数据集的高效文本分类模型
F1分数文本分类开源项目准确率模型bert-base-uncased-emotionHuggingface情感分析Github
bert-base-uncased模型针对情感数据集的微调结果显示,其在准确率和F1分数分别达到94.05%和94.06%。借助PyTorch和HuggingFace平台,该模型实现高效的情感文本分类,适用于社交媒体内容分析,特别是在Twitter环境中,为数据科学家和开发人员提供情感解析的精确工具。
amd-full-phonetree-v1 - 提高文本分类效率的少样本学习模型
Logistic回归对比学习句子变压器模型Github开源项目SetFit文本分类Huggingface
SetFit模型利用sentence-transformers/paraphrase-mpnet-base-v2进行句子嵌入,通过对比学习优化,实现少样本学习效率。结合LogisticRegression进行文本分类,可处理最长512词元的序列,支持两类分类,适用于需要精确文本分类的场景,可通过SetFit库轻松使用。
amd-partial-phonetree-v1 - 融合句子转换器和对比学习的高效文本分类模型
Github模型文本分类句子嵌入开源项目SetFit少样本学习Logistic回归Huggingface
SetFit模型结合sentence-transformers/paraphrase-mpnet-base-v2,通过高效的少样本学习实现文本分类。模型采用对比学习微调句子转换器和训练LogisticRegression分类头,具有优异的分类性能。支持最大512标记长度,适用于电话语音邮件和电话树分类需求。模型适合需要高效文本分类的研发人员和数据科学家使用。
INVOICE-DISPUTE - SetFit模型高效应用于文本分类的少样本学习方法
对比学习开源项目文本分类SetFitGithubHuggingface模型LogisticRegression句子变换器
本项目介绍了SetFit模型在文本分类任务中的应用,利用高效的少样本学习技术,通过对Sentence Transformer进行对比学习微调,并使用微调后的特征训练Logistic Regression分类头,实现文本分类。SetFit模型支持最大512个令牌的序列长度,适用于二分类任务。通过SetFit库,用户可以便捷地安装并使用该模型进行推理,更多信息可在GitHub和相关论文中查阅。
sentiment-hts5-xlm-roberta-hungarian - 使用XLM-RoBERTa进行匈牙利语推文情感分类
XLM-RoBERTaGithub模型匈牙利语文本分类开源项目Huggingface情感分析
此情感分析模型基于XLM-RoBERTa,对匈牙利推文进行五种情感状态的分类。模型经过HTS数据集微调,支持分析最长128字符的推文。了解更多技术细节和使用实例,可访问GitHub或在线演示网站。
Introduction-NLP - 《自然语言处理入门》详细解析
自然语言处理HanLP机器学习文本分类命名实体识别Github开源项目
本项目详细解析《自然语言处理入门》,涵盖中文分词、词性标注、命名实体识别等NLP核心技术,为初学者及爱好者提供清晰的学习路径和实用的笔记。