Project Icon

Emu3-VisionTokenizer

Emu3多模态模型通过单一预测方法实现突破性能

Emu3是一套创新的多模态模型,采用单一的下一个令牌预测方法进行训练。该模型将图像、文本和视频统一处理,从头训练单个Transformer模型。在生成和理解任务中,Emu3的表现超越了SDXL、LLaVA-1.6和OpenSora-1.2等知名模型,无需复杂架构。Emu3能生成高质量图像、理解视觉语言,并通过简单预测生成连贯视频,展现了多模态AI的新可能。

llava-interleave-qwen-0.5b-hf - 多模态模型中的图像到文本生成的应用与研究
GithubHuggingfaceLLaVA Interleave图像文本转换多模态模型开源项目机器学习模型自然语言处理
LLaVA Interleave是基于变换器架构进行优化的开源自回归语言模型,专注于多模态大模型和聊天机器人的研究,支持多图像和多提示生成,适用于计算机视觉和自然语言处理领域的研究人员和爱好者。在遵循开放许可证要求的前提下,模型提升了图像到文本的生成能力。通过4比特量化和Flash Attention 2优化策略,显著提高了生成效率。
InternVL2-1B - 多模态大语言模型实现多图像和视频智能理解
GithubHuggingfaceInternVL2人工智能多模态大语言模型开源项目模型自然语言处理计算机视觉
InternVL2-1B是一款新型多模态大语言模型,结合了InternViT-300M-448px视觉模型和Qwen2-0.5B-Instruct语言模型。该模型在文档理解、图表分析和场景文字识别等任务中表现优异,能有效处理长文本、多图像和视频输入。InternVL2-1B在开源多模态模型中表现突出,部分能力可与商业模型比肩。通过采用8k上下文窗口训练,该模型大幅提升了处理长输入序列的能力。
Phi-3.5-vision-instruct - 微软推出的轻量级多模态AI模型支持128K上下文
GithubHuggingfacePhi-3.5-vision图像理解多模态模型开源项目机器学习模型自然语言处理
Phi-3.5-vision-instruct是一款多模态AI模型,支持128K tokens上下文长度。该模型经过高质量数据训练和优化,具备通用图像理解、OCR、图表分析、多图比较和视频摘要等能力。它适用于内存受限和低延迟场景,为多模态AI研究和应用提供了有力支持。
MMVP - 探索多模态大语言模型的视觉局限
GithubInterleaved-MoFMMVP基准测试多模态LLM开源项目视觉模式视觉能力
MMVP基准测试揭示了多模态大语言模型在视觉理解方面的局限。即使是顶尖模型也难以准确完成基本视觉定位任务。项目开发的Interleaved-MoF模型旨在改善这些问题。MMVP还提供了开放的评估工具和数据集,为多模态AI技术的发展做出了贡献。
VTimeLLM - 创新视频大语言模型实现精准时刻理解
GithubVTimeLLM多阶段训练大语言模型开源项目时间边界感知视频理解
VTimeLLM是一种先进的视频大语言模型,专注于精细化视频时刻理解和推理。该模型采用边界感知三阶段训练策略,包括图像-文本特征对齐、多事件视频时间边界识别和高质量视频指令微调。这种方法显著提升了模型的时间理解能力,使其在多项视频理解任务中表现优异。
ultravox-v0_3 - 集成语音和文本输入的多模态AI模型
GithubHuggingfaceLlamaUltravoxWhisper多模态模型开源项目模型语音识别
Ultravox-v0_3是Fixie.ai开发的多模态语音大语言模型,结合Llama3.1-8B-Instruct和Whisper-small技术。该模型可同时处理语音和文本输入,适用于语音助手、翻译和分析等场景。通过知识蒸馏方法,仅训练多模态适配器,保持基础模型不变。Ultravox在语音识别和翻译任务中展现出优秀性能,为语音交互应用提供了新的可能性。
cogvlm2-llama3-chat-19B - 支持8K内容长度和高分辨率图像的开源多模态AI模型
CogVLM2GithubHuggingface人工智能图像理解对话模型开源项目模型视觉语言模型
CogVLM2是基于Meta-Llama-3-8B-Instruct的开源多模态AI模型,支持8K内容长度和1344*1344图像分辨率。该模型在TextVQA、DocVQA等多项基准测试中表现优异,具备图像理解和对话能力。CogVLM2提供英文和中英双语版本,在开源模型中表现突出,部分任务性能可与非开源模型媲美。
MiniCPM-V-2_6 - 高性能多模态语言模型 实现单图多图视频智能理解
GithubHuggingfaceMiniCPM-V人工智能图像理解多模态大语言模型开源项目模型视频理解
MiniCPM-V 2.6是一个高效的多模态大语言模型,仅用8B参数就达到了GPT-4V级别的表现。该模型支持单图、多图和视频理解,在多项基准测试中成绩优异。它具备出色的性能、多图和视频理解能力、强大的OCR功能以及多语言支持。MiniCPM-V 2.6还以其高效率和易用性著称,可轻松部署在包括手机和平板电脑在内的各种设备上。
NVLM-D-72B - 开源前沿级多模态大语言模型 实现视觉语言任务的最新突破
GithubHuggingfaceNVLM人工智能多模态大语言模型开源项目模型视觉语言
NVLM-D-72B是一款开源的多模态大语言模型,在视觉语言任务上表现卓越,达到了与顶级专有和开源模型相当的水平。该模型不仅擅长视觉语言任务,在多模态训练后其纯文本处理能力也有所提升。NVLM-D-72B可执行光学字符识别、多模态推理、定位、常识推理等多种任务,为AI研究社区提供了强大的开源多模态能力。
llama3-llava-next-8b-hf - LLaVA-NeXT:Llama 3驱动的多模态AI模型
GithubHuggingfaceLLaVA-NeXT图像处理多模态开源项目模型深度学习自然语言处理
LLaVA-NeXT是一个基于Llama 3的多模态AI模型,整合了预训练语言模型和视觉编码器。通过高质量数据混合和强化语言骨干网络,该模型在图像描述、视觉问答和多模态对话等任务中表现出色。LLaVA-NeXT支持Python接口,并提供4位量化和Flash Attention 2优化,以提升性能和效率。作为开源项目,LLaVA-NeXT为研究人员和开发者提供了探索多模态AI的有力工具。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号