Project Icon

MindVideo

大脑活动视频重建技术取得重大突破

MinD-Video是一种从大脑记录重建高质量视频的新型框架。该技术利用掩蔽大脑建模、多模态对比学习和增强稳定扩散模型,从fMRI数据中学习时空信息。MinD-Video可重建任意帧率的视频,在语义分类任务中准确率达85%,结构相似性指数达0.19,较先前技术提升45%。这项研究在NeurIPS 2023获得口头报告资格,为理解人类认知过程提供了新的途径。

fMRI-reconstruction-NSD - MindEye 从fMRI数据重建和检索视觉信息
GithubMindEyefMRI重建图像生成开源项目脑活动自然场景数据集
MindEye项目将fMRI数据转化为图像重建和检索结果。该项目结合对比学习和扩散先验模型,实现大脑活动到视觉信息的映射。MindEye能重建观看的图像,并从LAION数据库中检索相似图像。项目提供代码、预训练模型和使用说明,支持认知神经科学和人工智能的交叉研究。
MiniGPT4-video - 提升视频理解的创新多模态语言模型
GithubGoldfishMiniGPT4-Video多模态开源项目视频理解长视频
MiniGPT4-Video项目采用交错视觉-文本标记技术,大幅提升了多模态大语言模型的视频理解能力。该模型在短视频理解方面表现优异,多项基准测试中均优于现有方法。项目还开发了Goldfish框架,专门应对任意长度视频的处理难题,有效解决了长视频理解中的噪声、冗余和计算挑战。这些创新成果为视频分析和理解领域开辟了新的可能性。
Make-Your-Video - 结合文本和深度信息的智能视频生成模型
AI模型GithubMake-Your-Video开源项目深度学习视频生成计算机视觉
Make-Your-Video是一个结合文本和深度信息的视频生成模型。它继承了图像潜在扩散模型的丰富视觉概念,支持长视频推理。该模型可将真实场景和3D建模场景转化为视频,并支持视频重渲染。相比其他方法,Make-Your-Video在视觉质量和动作控制方面表现优异,为视频创作提供了新的可能性。
VideoMamba - 突破性的视频理解状态空间模型
GithubVideoMamba多模态兼容性开源项目状态空间模型视频理解长期视频建模
VideoMamba是一种创新的视频理解模型,克服了现有技术的局限性。它能高效处理长视频和高分辨率内容,展现出可扩展性、短期动作识别敏感性、长期视频理解优势和多模态兼容性四大核心特点。VideoMamba为全面的视频理解任务提供了高效解决方案,推动了该领域的发展。
shape-of-motion - 从单个视频实现4D场景重建的前沿技术
4D重建GithubShape of Motion单视频重建开源项目深度学习计算机视觉
Shape of Motion项目展示了一种新型4D重建方法,可从单个视频重建动态3D场景。该项目结合深度学习和计算机视觉技术,实现运动物体的精确重建。项目包含完整工作流程,涵盖预处理、模型训练和性能评估。研究团队公开了源代码和数据集,为计算机视觉领域提供了有价值的研究资源。这一技术可能在计算机图形学、增强现实等方面带来应用突破。
MotionLLM - 融合视频和动作数据的人类行为理解先进AI模型
GithubMotionLLM人工智能人类行为理解多模态学习大语言模型开源项目
MotionLLM是一个人类行为理解框架,通过融合视频和动作序列数据来分析人类行为。该项目采用统一的视频-动作训练策略,结合粗粒度视频-文本和细粒度动作-文本数据,以获得深入的时空洞察。项目还包括MoVid数据集和MoVid-Bench评估工具,用于研究和评估人类行为理解。MotionLLM在行为描述、时空理解和推理方面展现出优越性能,为人机交互和行为分析研究提供了新的方向。
dreamoving-project - 基于扩散模型的人工智能视频生成框架
DreaMovingGithub人工智能人物视频开源项目扩散模型视频生成
DreaMoving是一个基于扩散模型的视频生成框架,专注于创建高质量的定制人物视频。该系统可根据文本描述在多样化场景中生成人物动作视频,例如海滩、公园和埃及金字塔等。这个由阿里巴巴智能计算研究院开发的项目提供中英文在线演示,体现了人工智能在视频生成领域的最新技术进展。
mindcv - 基于MindSpore的开源计算机视觉框架
GithubMindCV图像分类开源项目深度学习框架计算机视觉预训练模型
MindCV是一个开源计算机视觉框架,基于MindSpore构建。它集成了经典和最新的视觉模型,并提供预训练权重。通过模块化设计,支持定制化的数据处理、模型构建和训练流程。该框架适用于迁移学习和自定义CV任务开发,可在多种硬件平台上运行。MindCV注重效率与灵活性的平衡,同时提供了详细的教程和示例,方便开发者快速入门和应用。
stable-video-diffusion-img2vid - AI模型将静态图像转换为动态短视频的创新技术
GithubHuggingfaceStable Video Diffusion人工智能图像到视频生成开源项目模型深度学习计算机视觉
Stable Video Diffusion Image-to-Video是一种先进的AI模型,可将静态图像转化为短视频。该模型利用潜在扩散技术,生成14帧、576x1024分辨率的视频片段。在视频质量方面表现出色,主要应用于生成模型研究和安全部署等领域。尽管存在视频时长短、可能缺乏动作等限制,但该模型为图像到视频转换技术带来了新的可能性。目前仅限于研究用途,不适用于生成事实性或真实性内容。
videollm-online - 流式视频实时理解与交互的先进模型
GithubVideoLLM-online大语言模型实时交互开源项目流媒体视频视频处理
VideoLLM-online是一款针对流媒体视频的在线大语言模型。该模型支持视频流实时交互,可主动更新响应,如记录活动变化和提供实时指导。项目通过创新的数据合成方法将离线注释转化为流式对话数据,并采用并行化推理技术实现高速处理,在A100 GPU上处理速度可达10-15 FPS。VideoLLM-online在在线和离线环境中均表现出色,能高效处理长达10分钟的视频,为视频理解与交互领域带来新的可能性。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号