#FlagEmbedding

FlagEmbedding - 提升多语言及多功能检索能力的创新嵌入模型
FlagEmbeddingAI绘图多语言模型微调语言模型Github开源项目
FlagEmbedding是开源的多语言文本嵌入模型集,涵盖从视觉嵌入到长上下文支持的全面技术,稳定领先多项国际基准测试。
bge-reranker-v2-m3 - 多语言重排模型优化检索性能
模型重排序模型多语言FlagEmbedding文本分类Github语义相关性Huggingface开源项目
bge-reranker-v2-m3是基于bge-m3开发的轻量级多语言重排模型。该模型部署简单,推理迅速,支持多语言处理。它能直接输出查询与文档的相关性分数,适用于多种检索场景。在BEIR、CMTEB等评测中表现出色,可有效提升检索系统效果。模型提供多个版本,可根据需求选择。
llm-embedder - FlagEmbedding 高性能文本向量化模型助力信息检索与语义搜索
重排模型Github文本嵌入微调Huggingface开源项目模型FlagEmbedding检索增强
FlagEmbedding项目开发了一系列高性能文本向量化模型,可将文本转化为低维密集向量。这些模型在信息检索、文本分类、聚类和语义搜索等任务中表现出色,也可用于构建大语言模型的向量数据库。项目包含BGE和LLM-Embedder等多个中英双语模型,在MTEB和C-MTEB基准测试中均取得第一。FlagEmbedding还提供模型微调代码和性能评估工具,便于进行定制化训练和测试。
bge-reranker-large - 高效多语言文档重排序模型
模型FlagEmbedding多语言重排序模型语义检索嵌入模型GithubHuggingface开源项目
BGE-Reranker-Large是一款开源的多语言文档重排序模型,支持中英文处理。该模型可对检索结果进行精确重排,有效提升检索质量。采用交叉编码器架构,在准确度和效率间实现平衡。使用简便,无需额外指令即可计算相似度,适用于多种检索增强场景。
bge-reranker-base - 高性能中英文文本重排序模型
文本嵌入Huggingface模型模型微调Github开源项目检索FlagEmbeddingBGE
bge-reranker-base是一款基于交叉编码器的中英文文本重排序模型。该模型能对搜索引擎返回的候选文档进行精准重排,有效提升检索质量。在多个重排序任务中表现出色,适用于优化各类信息检索和问答系统的结果。
bge-large-zh-v1.5 - 大规模中文预训练向量模型 优化检索性能
模型检索增强Github开源项目语言模型HuggingfaceFlagEmbedding嵌入模型BGE
bge-large-zh-v1.5是一款先进的中文预训练向量模型。该模型支持长文本输入处理,并整合了密集、稀疏和多向量检索功能。在多语言和跨语言基准测试中,它展现出优异的性能表现。该模型适用于信息检索和语义相似度计算任务,能有效提升大语言模型的检索增强能力。
bge-small-zh-v1.5 - 轻量级中文文本向量化嵌入模型
GithubMTEB向量嵌入Huggingface模型训练开源项目FlagEmbedding模型语义检索
作为FlagEmbedding项目的核心组件,bge-small-zh-v1.5是一款专门面向中文场景的轻量级文本嵌入模型。该模型能将文本转化为低维向量表示,支持信息检索、文本分类和语义聚类等多种应用场景。在v1.5版本中优化了相似度计算机制,提升了零样本检索性能。模型支持主流深度学习框架调用,可无缝集成到向量数据库等实际应用中。
bge-reranker-v2-minicpm-layerwise - 分层文本排序器支持多语言并可调节计算层数实现高效推理
BAAIFlagEmbeddingHuggingface模型训练开源项目多语言处理模型文本分类Github
bge-reranker-v2-minicpm-layerwise是一个基于MiniCPM-2B-dpo-bf16的多语言文本排序器模型。它支持中英双语及多语言场景,可灵活选择8-40层进行计算,平衡推理速度和性能。模型在文本相关性评分和信息检索任务中表现优异,适用于大规模文本数据处理。通过FlagEmbedding框架可实现简便调用和部署,并支持FP16/BF16加速。
bge-reranker-v2-gemma - 多语言支持的轻量级文本重排工具
FlagEmbedding模型列表HuggingfaceGithub相似性评分开源项目Reranker模型多语言
bge-reranker-v2-gemma项目提供了一种轻量级的多语言文本重排器,具备快速推理能力和出色的英语及多语言应用表现。通过输入查询和文档,模型能够输出相似度得分,并将结果映射为0到1之间的值。用户可以根据具体需求选择适合的模型,适用于多语言环境下的高效文本重排。该工具提供性能和效率的优化选项,便于模型的迭代与升级。
bge-base-zh-v1.5 - 文本低维向量映射提升中文检索与分类效率
Github模型FlagEmbedding嵌入模型开源项目向量检索对比学习句子相似性Huggingface
FlagEmbedding是一个开源项目,可将文本转换为低维密集向量,用于多种任务,如检索、分类和语义搜索。bge-base-zh-v1.5版本优化了相似度分布,没有指令也能提升检索能力。支持中文和英文的处理,并与大型语言模型(LLM)无缝集成,bge-reranker交叉编码器模型为文档重新排名提供高精度结果。此外,最新的LLM-Embedder满足多样化检索增强需求,使用户在大数据环境中更高效地完成检索和分类。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号