Project Icon

RetroMAE

创新的检索导向语言模型预训练技术

RetroMAE是一种创新的检索导向语言模型预训练方法。通过掩码自编码器技术,该方法在MS MARCO和BEIR等基准测试中取得了显著性能提升。项目开源了预训练模型和微调工具,并提供了详细使用说明。RetroMAE在监督检索任务中表现卓越,同时展现出优秀的零样本迁移能力,为信息检索研究带来新的突破。项目提供了多个预训练模型,包括在维基百科和图书语料上预训练的基础版本,以及在MS MARCO数据集上微调的特定版本。研究人员可以通过Hugging Face轻松加载这些模型,进行实验或进一步改进。

deepseek-moe-16b-base - 采用稀疏混合专家架构的开源大语言模型
DeepSeek MoEGithubHuggingface人工智能代码生成开源项目机器学习模型模型训练
DeepSeek MoE 16B Base是一个基于稀疏混合专家(MoE)架构的开源大语言模型,支持商业应用。模型使用bfloat16格式,可通过Transformers库调用,擅长文本生成和补全。它采用查询-键值对映射的注意力机制,高效处理自然语言处理任务。该项目遵循MIT许可,提供详细文档和示例代码,便于开发者集成使用。
chinese_roberta_L-2_H-128 - 使用多模态预训练优化中文自然语言处理
CLUECorpusSmallGithubHuggingfaceRoBERTa开源项目模型语言模型预训练
该项目包括24种中文RoBERTa模型,使用CLUECorpusSmall数据集进行训练,效果超过较大数据集。模型通过UER-py和TencentPretrain预训练,并支持多模态框架,参数超过十亿。模型可在HuggingFace和UER-py Modelzoo中获取。项目提供详细的训练过程和关键细节,便于结果复现,着重提升中文自然语言处理任务中的性能。
m3e-base - 中英双语文本嵌入模型,支持多种自然语言处理任务
GithubHuggingfaceM3Esentence-transformers开源项目微调文本嵌入文本相似度模型
M3E是一个开源的文本嵌入模型,在2200万+中文句对数据集上训练。该模型支持中英双语的文本相似度计算和检索,适用于文本分类、检索等多种自然语言处理任务。M3E在MTEB-zh基准测试中表现优异,多项指标超越了OpenAI的同类模型。它易于使用和微调,完全兼容sentence-transformers生态系统。
videomae-base - 基于掩码自编码器的视频自监督预训练模型
GithubHuggingfaceVideoMAE开源项目模型自监督学习视觉Transformer视频处理预训练模型
VideoMAE是一种基于掩码自编码器的视频自监督预训练模型。该模型在Kinetics-400数据集上经过1600轮预训练,采用Vision Transformer架构处理固定大小的视频图像块。VideoMAE不仅可预测被遮挡的视频片段,还能通过微调应用于下游任务。作为视频理解领域的重要进展,它为视频分类等任务提供了强大的特征提取能力。
LLM2Vec-Sheared-LLaMA-mntp-unsup-simcse - 基于LLaMA的无监督语言模型嵌入技术
GithubHuggingfaceMTEB信息检索句子相似度开源项目文本分类文本嵌入模型
LLM2Vec-Sheared-LLaMA-mntp-unsup-simcse 是一种基于LLaMA模型的无监督语言模型嵌入技术。该项目通过剪枝和对比学习等方法优化模型,在文本分类、信息检索、聚类等多种NLP任务中表现优异。项目进行了广泛的评估,为自然语言处理领域提供了一种高效的文本表示学习方法。
xlm-roberta-large - 大规模多语言预训练模型
GithubHuggingfaceXLM-RoBERTa多语言模型开源项目机器学习模型自然语言处理预训练模型
XLM-RoBERTa是一个在2.5TB多语言数据上预训练的大型语言模型,覆盖100种语言。该模型采用掩码语言建模技术,能够生成双向文本表示。XLM-RoBERTa主要应用于序列分类、标记分类和问答等下游任务的微调。凭借其在多语言和跨语言任务中的出色表现,XLM-RoBERTa为自然语言处理领域提供了坚实的基础。
videomae-large - 视频自监督学习的高效模型
GithubHuggingfaceVideoMAE开源项目模型自监督视频分类视频预训练
VideoMAE大型模型在Kinetics-400数据集上进行自监督预训练,采用掩码自编码器方法,有效学习视频的内在表示。利用视觉Transformer架构,通过将视频划分为固定大小的图像块,结合线性嵌入和位置编码,进行深度分析和像素预测,适用于多种后续任务和特征提取,包括视频分类和处理。
mxbai-embed-large-v1 - 多语言NLP嵌入模型在MTEB基准测试中展现卓越性能
GithubHuggingfaceMTEBtransformers分类开源项目检索模型聚类
mxbai-embed-large-v1是一个多语言嵌入模型,在MTEB基准测试中表现优异。该模型在文本分类、检索、聚类和语义相似度等NLP任务中取得了良好成绩。基于transformer技术,mxbai-embed-large-v1生成高质量文本表示,可应用于信息检索、问答系统和文本分析等领域。
RankGPT - 利用大语言模型优化信息检索排序
GithubRankGPT信息检索大语言模型开源项目排序指令蒸馏重排序
RankGPT项目研究如何利用ChatGPT等大语言模型改进信息检索排序。该项目提出指令排列生成技术和滑动窗口策略,解决了长文本排序问题。实验表明,这种方法在多个基准测试中性能显著。项目还开发了模型蒸馏技术,将大语言模型能力迁移到小型模型,提高了实用性。
opensearch-neural-sparse-encoding-v1 - 跨平台高效搜索的稀疏检索模型
GithubHuggingfaceLucene倒排索引MS MARCO数据集OpenSearch开源项目查询扩展模型稀疏检索
此开源项目展示了一个学习型稀疏检索模型,通过将查询和文档编码为稀疏向量,提供高效的搜索解决方案。模型在MS MARCO数据集上进行训练,并在BEIR基准测试中展示了优良的搜索相关性与推理速度。支持OpenSearch神经稀疏功能,能与Lucene倒排索引结合,进行高效的索引与搜索。该项目提供多个模型版本,适应不同的数据集与应用需求。使用者能在OpenSearch集群内或通过HuggingFace模型API进行模型的外部运行。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号