#Qwen2

Qwen2: 阿里巴巴全新升级的大语言模型系列

2024年09月05日
Cover of Qwen2: 阿里巴巴全新升级的大语言模型系列

AudioNotes: 智能音视频内容转化与笔记整理助手

2024年09月05日
Cover of AudioNotes: 智能音视频内容转化与笔记整理助手

争气!通义千问Qwen2力压Llama-3登顶开源大模型榜单,OpenAI的API不用也罢

2024年08月03日
Cover of 争气!通义千问Qwen2力压Llama-3登顶开源大模型榜单,OpenAI的API不用也罢
相关项目
Project Cover

AudioNotes

AudioNotes是基于FunASR和Qwen2构建的开源音视频转笔记系统。它能提取音视频内容并利用大模型生成结构化markdown笔记,同时支持与内容对话交互。系统提供Docker和本地两种部署方式,方便用户快速获取易读的笔记,提升信息处理效率。

Project Cover

Qwen2-0.5B

Qwen2-0.5B是阿里巴巴发布的新一代大语言模型系列中的0.5B参数版本。该模型在语言理解、生成、多语言能力、编程、数学和推理等多个基准测试中表现优异,性能超越大多数开源模型。Qwen2-0.5B采用改进的Transformer架构,包括SwiGLU激活、注意力QKV偏置和分组查询注意力等技术。作为基础语言模型,Qwen2-0.5B可用于进一步的训练和优化,为开发者和研究人员提供了强大的语言处理基础。

Project Cover

Qwen2-7B-Instruct

Qwen2-7B-Instruct是一款开源大语言模型,支持处理131,072个token的超长上下文。该模型在语言理解、生成、多语言能力、编程和推理等多项基准测试中表现优异,性能超过多数开源模型,接近专有模型水平。基于改进的Transformer架构,通过大规模数据预训练和指令微调,Qwen2-7B-Instruct实现了卓越性能。模型提供简便的部署方式,尤其适合长文本处理任务。

Project Cover

Qwen2-1.5B-Instruct

Qwen2-1.5B-Instruct是Qwen2系列中的指令调优语言模型,在语言理解、生成、多语言处理、编码和数学推理等方面表现优异。该模型基于改进的Transformer架构,通过大规模预训练和偏好优化,在多项基准测试中超越了大多数开源模型。Qwen2-1.5B-Instruct易于部署,适用于多种AI应用场景,能够高效处理复杂的语言任务。

Project Cover

Qwen2-0.5B-Instruct

Qwen2-0.5B-Instruct是Qwen2大语言模型系列中的轻量级成员。该模型采用改进的Transformer架构,在语言理解、生成、多语言处理、编码、数学和推理等方面表现出色,超越多数同等规模的开源模型。经过大规模数据预训练和监督微调,Qwen2-0.5B-Instruct在多项基准测试中展现出优异性能,为开发者提供了一个高效且功能强大的自然语言处理工具。

Project Cover

Qwen2-72B-Instruct-AWQ

Qwen2-72B-Instruct-AWQ是一个支持131,072个token上下文长度的大规模语言模型。该模型在语言理解、生成、多语言、编码、数学和推理等方面表现优异,采用改进的Transformer架构。模型经过大规模数据预训练和微调,可通过Python快速部署使用。

Project Cover

gte-Qwen2-1.5B-instruct

gte-Qwen2-1.5B-instruct模型在多任务基准测试(MTEB)中展现出优秀性能。该模型在分类、检索、聚类等NLP任务上表现突出,涵盖情感分析、句子相似度计算和问答等领域。在准确率、F1分数和MAP等关键指标上,gte-Qwen2-1.5B-instruct均取得了良好成绩,体现了其处理多样化语言任务的能力。

Project Cover

llava-onevision-qwen2-0.5b-si

LLaVA-OneVision是一个基于Qwen2的多模态AI模型,能够处理图像、多图和视频输入。它具有32K tokens的上下文窗口,支持英文和中文交互。该模型在AI2D、ChartQA和DocVQA等多项任务中表现优异,为视觉语言应用提供了强大的基础。LLaVA-OneVision采用LLaVA-OneVision数据集进行训练,可轻松集成到各类视觉语言项目中。

Project Cover

Qwen2

Qwen2是阿里巴巴发布的大规模语言模型系列,规模从0.5B到72B不等。支持27种语言,在编码和数学等领域表现优异。Qwen2-7B-Instruct和Qwen2-72B-Instruct模型的上下文长度达128K,显著增强长文本处理能力。项目提供多种部署选项,包括本地运行和规模化推理,并支持模型量化和微调。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号