Project Icon

Qwen2-VL-2B-Instruct-GPTQ-Int4

Qwen2-VL推动多模态与自动化的跨语言视觉处理进步

Qwen2-VL具备先进的多模态处理能力,支持高分辨率图像和长时视频理解,适用于视频问答及自动化设备控制。支持包括欧洲语言、日语、韩语、阿拉伯语等多语言文本理解。更新的分辨率处理和位置嵌入技术提升了视觉感知性能。

Qwen1.5-72B-Chat - 支持多语言的720亿参数开源语言模型
GithubHuggingfaceQwen1.5人工智能多语言支持大语言模型开源项目模型自然语言处理
Qwen1.5-72B-Chat作为Qwen2的预发布版本,集成了从5亿到720亿参数的8种规模模型。模型采用Transformer架构和SwiGLU激活函数,支持32K上下文长度和多语言处理。通过Hugging Face框架即可部署使用,同时提供GPTQ、AWQ等多种量化版本,可满足不同场景需求。
Qwen1.5-110B-Chat - 多语言模型与人类偏好优化的显著提升
GithubHugging FaceHuggingfaceQwen1.5Transformer架构多语言支持开源项目模型语言模型
Qwen1.5是Qwen2的测试版,提供多语言支持和32K上下文长度的稳定性,并通过大规模数据预训练和偏好优化,大幅提高了对话模型的人类偏好表现。项目涵盖多种模型尺寸,包括最大110B和MoE架构的14B模型,基于Transformer技术,使用SwiGLU激活和组查询注意,提供强大的文本生成与灵活定制功能。
Qwen2-Audio - 大规模音频语言模型 支持语音交互和音频理解
GithubQwen2-Audio多语言支持开源项目语音翻译语音识别音频分析
Qwen2-Audio是一款先进的音频语言模型,可处理多种音频输入并执行分析或生成文本响应。该模型提供语音交互和音频分析两种功能,在13项基准测试中展现出色性能,包括语音识别、翻译和情感分析等任务。目前已发布Qwen2-Audio-7B和Qwen2-Audio-7B-Instruct两个版本。
Qwen2.5-14B - 基于transformer架构的多语言预训练模型 具备超长文本理解能力
GithubHuggingfaceQwen2.5多语言支持大语言模型开源项目模型自然语言处理长文本理解
Qwen2.5-14B是一个基于transformer架构的预训练语言模型,具备147亿参数规模。该模型在编程、数学等专业领域表现突出,支持中英法德等29种语言处理,并可处理超长文本内容。模型整合了多项技术优化,在结构化数据理解和指令执行方面表现优异,可作为各类下游AI任务的基础模型使用。
Qwen2.5-0.5B-Instruct - 轻量级多语言指令模型Qwen2.5-0.5B
GithubHuggingfaceQwen2.5多语言支持大语言模型开源项目指令微调模型长文本生成
Qwen2.5-0.5B-Instruct作为Qwen2.5系列的轻量级成员,集成了4.9亿参数。这个模型支持32,768个上下文token和8,192个生成token,在知识储备、代码编写和数学运算等方面表现优异。它不仅提升了指令遵循、长文本生成和结构化数据理解能力,还能支持29种以上的语言。基于因果语言模型架构,结合RoPE和SwiGLU等创新技术,该模型经过精心的预训练和后训练,为多语言聊天机器人等应用提供了强大支持。
Qwen-7B - 70亿参数规模的多语言开源预训练语言模型
GithubHuggingfaceQwen-7B多语言大语言模型开源项目模型评测预训练
Qwen-7B是一个70亿参数规模的开源预训练语言模型,基于超过2.4万亿tokens的多语言语料训练而成。该模型支持15万规模的多语言词表,在常识推理、代码生成、数学计算、机器翻译等多个评测任务中表现优异。通过采用RoPE位置编码、SwiGLU激活函数等技术,Qwen-7B具备强大的多语言理解和处理能力,同时支持长文本输入和高效推理。
CogVLM2 - 基于Llama3-8B的GPT4V级开源多模态模型
CogVLM2CogVLM2-VideoGithubMeta-Llama-3-8B-Instruct图像理解开源项目视频理解
CogVLM2是基于Meta-Llama-3-8B-Instruct的下一代模型系列,在多项基准测试中表现优异,支持中英文内容和高分辨率图像处理。该系列模型适用于图像理解、多轮对话和视频理解,特别适合需要处理长文本和高分辨率图像的场景。CogVLM2系列还支持8K内容长度,并在TextVQA和DocVQA等任务中显著提升表现。体验更先进的CogVLM2和CogVLM2-Video模型,迎接未来视觉智能挑战。
MPP-LLaVA - 基于QwenLM的多模态并行系统,支持多轮对话及视频交流
GithubMPPQwen-Nextsft数据多轮对话开源项目流水线并行视频对话
MPP-Qwen-Next项目基于QwenLM,提供多模态流水线并行系统,支持多轮对话、视频对话和多图对话功能。借助DeepSpeed Pipeline Parallel技术,实现高效的单图、多图及视频推理。项目包含详细的预训练和指令微调数据,适用于多种对话场景,并专为大规模显卡配置进行了优化。
Multimodal-GPT - 整合视觉与语言功能的多模态对话机器人
GithubOpenFlamingo多模态GPT开源项目联合训练视觉指令语言模型
Multimodal-GPT是一个基于OpenFlamingo多模态模型的项目,通过结合视觉指令和语言指令数据的联合训练,有效提升模型性能。该项目支持VQA、图像描述、视觉推理、文本OCR和视觉对话等多种数据类型,并利用LoRA进行参数高效的微调。探索Multimodal-GPT的广泛应用可能性。
VideoLLaMA2 - 增强视频理解的多模态语言模型
AIGithubVideoLLaMA2多模态大语言模型开源项目视频理解
VideoLLaMA2是一款先进的视频语言模型,通过增强空间-时间建模和音频理解能力,提高了视频问答和描述任务的性能。该模型在零样本视频问答等多项基准测试中表现出色。VideoLLaMA2能处理长视频序列并理解复杂视听内容,为视频理解技术带来新进展。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号