#句子转换器
answer-classification-setfit-v2-binary - SetFit少样本学习文本分类模型,适用于多领域
Github开源项目模型Huggingface对比学习文本分类SetFit少样本学习句子转换器
项目运用了SetFit框架,实现在BAAI/bge-base-en-v1.5基础上的少样本学习文本分类,结合对比学习和Logistic Regression算法,提升了文本分类的精准度。模型适用于广泛领域,支持长至512个token的文本分类,易于通过SetFit库安装使用,设计理念基于“无提示高效少样本学习”,在小数据集上实现可靠分类表现,提供了一项潜力巨大的深度学习工具。
amd-power-dialer-v1 - 少样本高效文本分类模型概览
Github开源项目模型Huggingface对比学习文本分类SetFit少样本学习句子转换器
了解利用SetFit和Sentence Transformer进行少样本高效文本分类的方式,该模型微调Sentence Transformer并用其特征进行分类头训练。用户可通过简单安装与代码示例快捷进行推理,显著优化文本分类任务。
botpress_Vaganet_new_model - 高效的少样本学习技术提升多语言文本分类精度
Github开源项目模型Huggingface对比学习文本分类SetFit句子转换器Logistic回归
SetFit模型结合sentence-transformers的微调与LogisticRegression,实现88.97%的文本分类准确率,支持在多语言环境下进行34类文本分类,具备少样本学习能力,是资源有限条件下的高效选择。
PatentSBERTa - 基于SBERT的专利文本相似度与分类深度学习模型
Github开源项目自然语言处理语义搜索模型Huggingface句子转换器PatentSBERTa专利分类
PatentSBERTa是一个基于sentence-transformers的深度学习模型,用于专利文本分析和分类。模型将专利文本映射为768维向量,实现专利文档的语义搜索和聚类分析。通过SBERT技术计算专利间相似度,支持sentence-transformers和HuggingFace Transformers两种框架调用。
e5-small-unsupervised - 无监督预训练模型用于提升文本嵌入与句子相似度
Github开源项目模型Huggingface文本嵌入无监督学习句子相似性句子转换器E5-small-unsupervised
该无监督对比预训练模型通过弱监督方法进行预训练,无需人为标注,实现高效的句子相似度计算和信息检索。模型具备12层架构和384维嵌入空间,适用于MS-MARCO数据集等的查询与段落编码。输入文本需使用特定前缀(如“query:”与“passage:”)以求最佳效果。模型包含详细示例代码和训练细节,适用于BEIR和MTEB基准评价,支持英文文本,文本长度限制为512个标记。
ACCOUNT-OWNERSHIP - 结合对比学习和Logistic回归的高效文本分类模型
Github开源项目模型Huggingface文本分类SetFit句子转换器LogisticRegression高效少样本学习
SetFit模型通过对比学习和Logistic回归,实现精准的文本分类,该模型微调Sentence Transformer以获取特征。无需复杂提示和大规模数据,适用于多样文本分类任务,并可在自有数据集上方便微调。
amd-partial-v1 - SetFit文本分类模型的高效少样本学习
Github开源项目模型Huggingface对比学习文本分类SetFit句子转换器高效少样本学习
SetFit结合sentence-transformers/paraphrase-mpnet-base-v2,实现高效的文本分类,使用对比学习和LogisticRegression,总体准确率达96.7%。该模型经过优化学习率和损失函数,适用于多种文本分析场景。
Conan-embedding-v1 - 中文文本处理的开源深度学习工具
Github开源项目模型Huggingface文本分类检索性能语义相似度句子转换器conan-embedding
Conan-embedding-v1是一个开源项目,采用sentence-transformers库,支持多种中文自然语言处理任务如STS、分类、重排序、检索和聚类。通过在AFQMC、ATEC和AmazonReviewsClassification等数据集上的测试,该项目展示了其在复杂中文语境中的有效性。其分析与性能指标对比提供了开发者和研究人员一种提升自然语言处理效率和准确性的方法。
halong_embedding - 优化的信息检索与越南文本嵌入模型
Github开源项目模型Huggingface信息检索越南语余弦相似度句子转换器Halong Embedding
这个模型专注于越南语文本嵌入,利用RAG以提高生产效率,并采用Matryoshka损失来实现嵌入截断,从而加快比较速度。微调于intfloat/multilingual-e5-base模型,该模型适用于语义文本相似性、搜索和文本分类等任务,映射到784维密集向量空间,支持多语种处理。在多个余弦相似度指标中具有卓越表现,如cosine accuracy@10达到0.9687,提供高效的信息检索和分类解决方案。