#FlagEmbedding

FlagEmbedding - 提升多语言及多功能检索能力的创新嵌入模型
FlagEmbeddingAI绘图多语言模型微调语言模型Github开源项目
FlagEmbedding是开源的多语言文本嵌入模型集,涵盖从视觉嵌入到长上下文支持的全面技术,稳定领先多项国际基准测试。
bge-small-zh-v1.5 - 轻量级中文文本向量化嵌入模型
GithubMTEB向量嵌入Huggingface模型训练开源项目FlagEmbedding模型语义检索
作为FlagEmbedding项目的核心组件,bge-small-zh-v1.5是一款专门面向中文场景的轻量级文本嵌入模型。该模型能将文本转化为低维向量表示,支持信息检索、文本分类和语义聚类等多种应用场景。在v1.5版本中优化了相似度计算机制,提升了零样本检索性能。模型支持主流深度学习框架调用,可无缝集成到向量数据库等实际应用中。
bge-reranker-v2-minicpm-layerwise - 分层文本排序器支持多语言并可调节计算层数实现高效推理
BAAIFlagEmbeddingHuggingface模型训练开源项目多语言处理模型文本分类Github
bge-reranker-v2-minicpm-layerwise是一个基于MiniCPM-2B-dpo-bf16的多语言文本排序器模型。它支持中英双语及多语言场景,可灵活选择8-40层进行计算,平衡推理速度和性能。模型在文本相关性评分和信息检索任务中表现优异,适用于大规模文本数据处理。通过FlagEmbedding框架可实现简便调用和部署,并支持FP16/BF16加速。
bge-reranker-v2-gemma - 多语言支持的轻量级文本重排工具
FlagEmbedding模型列表HuggingfaceGithub相似性评分开源项目Reranker模型多语言
bge-reranker-v2-gemma项目提供了一种轻量级的多语言文本重排器,具备快速推理能力和出色的英语及多语言应用表现。通过输入查询和文档,模型能够输出相似度得分,并将结果映射为0到1之间的值。用户可以根据具体需求选择适合的模型,适用于多语言环境下的高效文本重排。该工具提供性能和效率的优化选项,便于模型的迭代与升级。
bge-base-zh-v1.5 - 文本低维向量映射提升中文检索与分类效率
Github模型FlagEmbedding嵌入模型开源项目向量检索对比学习句子相似性Huggingface
FlagEmbedding是一个开源项目,可将文本转换为低维密集向量,用于多种任务,如检索、分类和语义搜索。bge-base-zh-v1.5版本优化了相似度分布,没有指令也能提升检索能力。支持中文和英文的处理,并与大型语言模型(LLM)无缝集成,bge-reranker交叉编码器模型为文档重新排名提供高精度结果。此外,最新的LLM-Embedder满足多样化检索增强需求,使用户在大数据环境中更高效地完成检索和分类。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号