Project Icon

Panda-70M

开创性大规模视频描述数据集融合多重跨模态技术

Panda-70M是一个包含7000万个高质量视频-描述对的大规模数据集,采用多重跨模态技术构建。项目提供数据集加载下载工具、长视频语义分割和视频描述模型。该数据集为计算机视觉和自然语言处理研究提供丰富资源,有助于推进视频理解和描述技术的发展。

MMDialog - 推进多模态开放域对话研究的大规模数据集
GithubMMDialog多模态对话数据集大规模数据开放域对话开源项目自然语言处理
MMDialog是一个包含丰富文本和图像信息的大规模多轮对话数据集。它提供详细的数据统计、格式说明和评估方法,适用于多模态开放域对话研究。学术研究人员可通过申请流程获取该数据集,用于非商业性研究。MMDialog为自然语言处理领域的多样化对话任务研究提供了重要资源。
DeepSeek-VL - 高性能开源视觉语言模型 多模态理解与复杂场景应用
DeepSeek-VLGithub人工智能多模态理解开源开源项目视觉语言模型
DeepSeek-VL是一个开源视觉语言模型,为实际应用场景而设计。它能处理逻辑图表、网页、公式、科学文献、自然图像等,并在复杂场景中展现智能。模型提供1.3B和7B两种参数规模,支持基础和对话应用,可用于学术研究和商业用途。DeepSeek-VL采用MIT许可证,为研究人员和开发者提供了强大的视觉语言处理工具。
cambrian - 开创性视觉为中心的多模态AI模型研究
AI研究Cambrian-1Github多模态LLM开源项目视觉语言模型
Cambrian-1是一个开源的视觉为中心的多模态AI模型项目。采用两阶段训练方法,在8B、13B和34B参数规模上达到了与闭源模型相当的性能。项目发布了Cambrian-10M指令微调数据集和CV-Bench基准测试集,为研究提供重要资源。Cambrian-1使用较少的视觉token,在多个视觉语言任务中表现出色,促进了开放式多模态AI的进步。
MotionLLM - 融合视频和动作数据的人类行为理解先进AI模型
GithubMotionLLM人工智能人类行为理解多模态学习大语言模型开源项目
MotionLLM是一个人类行为理解框架,通过融合视频和动作序列数据来分析人类行为。该项目采用统一的视频-动作训练策略,结合粗粒度视频-文本和细粒度动作-文本数据,以获得深入的时空洞察。项目还包括MoVid数据集和MoVid-Bench评估工具,用于研究和评估人类行为理解。MotionLLM在行为描述、时空理解和推理方面展现出优越性能,为人机交互和行为分析研究提供了新的方向。
dolphin - 通用视频互动平台,基于大型语言模型的视频理解、处理与生成
DolphinGithub大型语言模型开源项目视频处理视频理解视频生成
Dolphin是一个基于大型语言模型的通用视频互动平台,专注于视频理解、处理和生成。该平台支持视频问答、视频剪辑、字幕添加、音频提取及生成等功能,旨在提升视频处理的智能化水平。用户可通过文本生成视频、姿态到视频转换及视频图像转换等多种方式进行创作。项目持续更新,欢迎社区贡献和拉取请求,适用于北航和南洋理工大学的科研项目。
ShareGPT4Video - 通过字幕提高视频理解和生成
AI模型GithubShareGPT4Video开源项目视频字幕视频理解视频生成
ShareGPT4Video项目通过应用高精度字幕显著提升视频理解与生成的效果。该项目提供功能强大的文本至视频模型,支持多种视频时长和分辨率,并设有两种优化效率与质量的推断模式。该项目的目标是通过高质量视频字幕数据集改善文本到视频的转换效果,从而提升大型视频语言模型的理解能力。
MMVP - 探索多模态大语言模型的视觉局限
GithubInterleaved-MoFMMVP基准测试多模态LLM开源项目视觉模式视觉能力
MMVP基准测试揭示了多模态大语言模型在视觉理解方面的局限。即使是顶尖模型也难以准确完成基本视觉定位任务。项目开发的Interleaved-MoF模型旨在改善这些问题。MMVP还提供了开放的评估工具和数据集,为多模态AI技术的发展做出了贡献。
VisualGLM-6B - 一个具备处理图像、中文和英文的能力的开源多模态对话语言模型
GithubVisualGLM-6B图像描述多模态对话模型开源开源项目微调
VisualGLM-6B是一个开源多模态对话语言模型,具备处理图像、中文和英文的能力。该模型继承自强大的ChatGLM-6B基础,增添了6.2亿参数,整合了先进的BLIP2-Qformer技术,达到了语言和视觉数据的高效融合。模型总参数量为7.8亿,展现在多个核心多模态任务上的卓越效能。针对各种应用场景均进行了优化,支持在消费级显卡上运行,降低了使用门槛,拓展了其在学术研究和实务应用中的潜力。
cogvlm-chat-hf - 开源视觉语言模型CogVLM在多项跨模态基准测试中超越PaLI-X 55B
CogVLMGithubHuggingface图像识别多模态开源开源项目模型视觉语言模型
CogVLM是一款开源视觉语言模型,具有100亿视觉参数和70亿语言参数。在NoCaps、Flicker30k等10个经典跨模态基准测试中,CogVLM实现了最先进的性能,部分超越PaLI-X 55B。其架构包括视觉变换器编码器、MLP适配器、预训练语言模型和视觉专家模块。CogVLM能进行多模态对话,适用于图像描述和视觉问答等任务。该模型对学术研究开放,经登记后可免费用于商业用途。
NVLM-D-72B - 开源前沿级多模态大语言模型 实现视觉语言任务的最新突破
GithubHuggingfaceNVLM人工智能多模态大语言模型开源项目模型视觉语言
NVLM-D-72B是一款开源的多模态大语言模型,在视觉语言任务上表现卓越,达到了与顶级专有和开源模型相当的水平。该模型不仅擅长视觉语言任务,在多模态训练后其纯文本处理能力也有所提升。NVLM-D-72B可执行光学字符识别、多模态推理、定位、常识推理等多种任务,为AI研究社区提供了强大的开源多模态能力。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号