#Logistic回归
amd-full-phonetree-v1 - 提高文本分类效率的少样本学习模型
Github开源项目模型Huggingface对比学习文本分类SetFitLogistic回归句子变压器
SetFit模型利用sentence-transformers/paraphrase-mpnet-base-v2进行句子嵌入,通过对比学习优化,实现少样本学习效率。结合LogisticRegression进行文本分类,可处理最长512词元的序列,支持两类分类,适用于需要精确文本分类的场景,可通过SetFit库轻松使用。
amd-partial-phonetree-v1 - 融合句子转换器和对比学习的高效文本分类模型
Github开源项目模型Huggingface文本分类句子嵌入SetFit少样本学习Logistic回归
SetFit模型结合sentence-transformers/paraphrase-mpnet-base-v2,通过高效的少样本学习实现文本分类。模型采用对比学习微调句子转换器和训练LogisticRegression分类头,具有优异的分类性能。支持最大512标记长度,适用于电话语音邮件和电话树分类需求。模型适合需要高效文本分类的研发人员和数据科学家使用。
botpress_Vaganet_new_model - 高效的少样本学习技术提升多语言文本分类精度
Github开源项目模型Huggingface对比学习文本分类SetFit句子转换器Logistic回归
SetFit模型结合sentence-transformers的微调与LogisticRegression,实现88.97%的文本分类准确率,支持在多语言环境下进行34类文本分类,具备少样本学习能力,是资源有限条件下的高效选择。