Project Icon

efficient-splade-VI-BT-large-query

SPLADE模型优化文档检索速度和精确度

efficient-splade-VI-BT-large-query是一款高效的文档检索SPLADE模型。该模型采用查询和文档推理分离架构,在MS MARCO数据集上实现38.0 MRR@10和97.8 R@1000的性能,查询推理延迟仅0.7毫秒。通过L1正则化和FLOPS正则化等技术,模型在保持接近先进单阶段神经排序器性能的同时,将延迟控制在与BM25相近水平,实现了效率与性能的平衡。

roberta-base-bne-finetuned-msmarco-qa-es-mnrl-mn - 西班牙语语义搜索和问答优化模型
GithubHuggingfacesentence-transformers句子相似度开源项目模型自然语言处理西班牙语语义搜索
该模型是基于roberta-base-bne进行微调,专为西班牙语问答场景优化。通过将句子和段落转换为768维的密集向量空间,适用于语义搜索和文本聚类等任务。使用MS-MARCO数据集的西班牙语翻译版进行训练,尤其适合处理西班牙语问题。输入文本超过512个词片段时会自动截断,旨在提供精确的问答性能。
dragon-plus-context-encoder - 基于BERT的密集检索器实现多样化文档检索
BERTDRAGON+GithubHuggingface密集检索开源项目模型模型训练特征提取
dragon-plus-context-encoder是一个基于BERT的密集检索器,由RetroMAE初始化并在MS MARCO语料库上进行了进一步训练。该模型使用非对称双编码器结构,在MARCO Dev和BEIR基准测试中分别达到39.0和47.4的得分。通过HuggingFace Transformers,研究人员可以轻松使用该模型进行查询和上下文编码,实现文本相似度计算和文档检索。此外,项目还提供了基于RoBERTa的变体,为不同需求的用户提供了选择。
ScaleLLM - 优化大语言模型推理,兼容多种开源模型
GithubScaleLLM大模型推理开源项目生产环境集成开发高效性能
ScaleLLM是一个为大语言模型(LLMs)设计的高效推理系统,适用于生产环境。支持Llama3.1、Gemma2、Bloom、GPT-NeoX等多种开源模型,集成了CUDA图、前缀缓存、分块填充和推测解码等高级功能。项目正在积极开发,目标是提高效率并加入更多特性。现已上架PyPI,可通过pip安装。ScaleLLM还提供兼容OpenAI的REST API和本地聊天机器人UI,支持离线批量推理和在线分布式推理。
marqo - 向量搜索引擎 ,实现文本和图像内容的矢量化处理及检索
GithubMarqo向量搜索嵌入生成开源项目数据索引机器学习
Marqo 作为全面的端到端向量搜索引擎,不仅实现文本和图像内容的矢量化处理及检索,更支持最新机器学习模型。其简洁的API设计允许开发者轻松实行多样的语义搜索操作,且无需独立处理数据嵌入问题。Marqo 的云服务部署有效降低响应时间,同时提供可伸缩的计算资源、持续可靠的服务及全时技术支持。
all-MiniLM-L6-v2-onnx - 高效文本嵌入和相似度搜索的ONNX解决方案
FastEmbedGithubHuggingfaceONNXsentence-transformers开源项目文本分类模型相似度搜索
all-MiniLM-L6-v2模型的ONNX版本是一个用于文本分类和相似度搜索的工具。该模型与Qdrant兼容,支持IDF修饰符,并可通过FastEmbed库进行推理。它能生成文本嵌入向量,适用于多种自然语言处理任务,尤其在需要进行文本相似度比较的场景中表现优异。使用该模型可以简化文本处理流程,提高相关应用的效率。
bert-large-uncased-whole-word-masking-finetuned-squad - 全词遮蔽BERT模型在SQuAD数据集上精细调优的大型问答系统
BERTGithubHuggingface开源项目机器学习模型自然语言处理问答系统预训练模型
该项目是一个基于BERT的大型问答模型,采用全词遮蔽技术预训练,并在SQuAD数据集上精细调优。模型架构包含24层Transformer,1024维隐藏层和16个注意力头,总参数量3.36亿。在BookCorpus和英文维基百科上预训练后,可应用于多种问答任务。模型在SQuAD评估中展现出优秀性能,F1分数达93.15,精确匹配分数为86.91。
cocodr-large-msmarco - BERT-large基础的高性能密集检索模型
COCO-DRGithubHuggingFaceHuggingfaceMS MARCO开源项目模型零样本检索预训练模型
cocodr-large-msmarco是一个基于BERT-large架构的密集检索模型,参数量达3.35亿。该模型在BEIR语料库上预训练后,在MS MARCO数据集上微调,采用对比学习和分布鲁棒性学习技术解决零样本密集检索中的分布偏移问题。模型可通过Hugging Face transformers库轻松加载,为信息检索任务提供有力支持。
e5-large-v2 - 多语言文本任务的高性能句子嵌入模型
GithubHuggingfaceSentence Transformers信息检索开源项目文本分类机器学习模型模型自然语言处理
e5-large-v2是一款针对多语言文本任务优化的句子嵌入模型。在MTEB基准测试中,该模型在分类、检索和聚类等多项任务上展现出优秀性能。e5-large-v2能有效处理包括英语在内的多种语言,为自然语言处理领域提供了强大的句子表示能力。该模型可应用于改进文本相似度计算、信息检索等多种实际场景。
bge-large-en-v1.5 - 高性能英语嵌入模型助力文本相似度和信息检索
GithubHuggingfaceMTEB开源项目数据集机器学习模型模型评估自然语言处理
bge-large-en-v1.5是一个英语嵌入模型,专注于文本相似度和信息检索任务。该模型在分类、聚类和检索等多个基准测试中表现优异,能有效捕捉文本语义并为NLP应用提供高质量特征表示。适用于需要处理英语文本数据的各类应用场景。
S-LoRA - 大规模并发LoRA适配器高效服务系统
GPU内存优化GithubLoRA适配器S-LoRA大语言模型开源项目批处理推理
S-LoRA系统针对大规模LoRA适配器服务进行优化。采用统一分页、异构批处理和新型张量并行策略,提高内存管理效率和GPU利用率。相较现有技术,S-LoRA提升吞吐量4倍,显著增加可服务适配器数量。这一突破为大规模定制语言模型部署开辟新途径。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号