Project Icon

AVDC

从无动作视频学习行为的AI训练框架

AVDC是一个创新的AI训练框架,能够从无动作视频中学习行为策略。该项目支持Meta-World、iTHOR等多个环境,提供完整的代码库、预训练模型和详细文档。AVDC具有灵活的训练和推理功能,方便研究人员快速上手和复现实验结果,为计算机视觉和机器人学习领域带来新的可能性。

RLAIF-V - 多模态大模型对齐的开源AI反馈框架
GithubRLAIF-V人工智能反馈可信性多模态大语言模型开源开源项目
RLAIF-V项目提出了一种新的多模态大模型对齐框架,通过开源AI反馈实现了超越GPT-4V的可信度。该框架利用高质量反馈数据和在线反馈学习算法,有效减少模型幻觉,提高学习效率和性能。项目开源的代码、模型权重和数据集为多模态人工智能研究提供了重要资源。
stable-video-diffusion-img2vid-xt - 图像到视频转换模型Stable Video Diffusion实现动画生成
GithubHuggingfaceStable Video Diffusion人工智能图像到视频生成开源项目模型深度学习计算机视觉
Stable Video Diffusion Image-to-Video是Stability AI开发的扩散模型,可将静态图像转换为短视频。该模型生成25帧、576x1024分辨率的视频片段,视频质量优于同类产品。适用于艺术创作、教育工具等场景,支持商业和非商业用途。模型存在视频较短、不支持文本控制等局限性。开发者可通过GitHub上的开源代码使用该模型。
VILA - 创新的视觉语言模型预训练方法
GithubVILA多模态开源项目视觉语言模型量化预训练
VILA是一种新型视觉语言模型,采用大规模交错图像-文本数据预训练,增强了视频和多图像理解能力。通过AWQ 4位量化和TinyChat框架,VILA可部署到边缘设备。该模型在视频推理、上下文学习和视觉思维链等方面表现出色,并在多项基准测试中获得了优异成绩。项目完全开源,包括训练和评估代码、数据集以及模型检查点。
dvclive - 简单易用的机器学习实验跟踪和指标记录工具
DVCLiveGithub实验比较开源项目指标记录数据版本控制机器学习
DVCLive是一个用于记录机器学习指标和元数据的Python库。它支持多种机器学习框架,无需额外服务,以纯文本文件存储实验结果,方便版本控制。DVCLive提供直观API,支持参数记录、指标跟踪和实验比较,有助于简化机器学习工作流程。
FLAVR - 创新视频帧插值方法实现快速多帧预测
FLAVRGithub帧率提升开源项目深度学习视频插帧计算机视觉
FLAVR是一种新型视频帧插值方法,无需光流估计即可实现快速多帧预测。该方法采用特殊的编码器-解码器架构,结合时空卷积和通道门控,能有效捕捉复杂运动轨迹并生成高质量高帧率视频。相比现有技术,FLAVR在速度和准确性间取得更好平衡,为视频慢动作和帧率提升等应用提供新选择。
ai-video-search-engine - 智能视频内容检索与分析系统
AI视频搜索引擎GithubJigsawStack向量搜索开源项目视频内容索引视频转录
AI Video Search Engine项目是一种创新型视频搜索引擎,采用先进AI技术实现视频内容的深度索引和智能检索。该系统能够精确定位视频中的特定信息,提供上下文相关的搜索结果,并具备视频摘要生成和智能对话功能。项目整合了Supabase、Hasura和JigsawStack等技术,为视频内容检索提供高效、精准的解决方案,适用于教育、研究和信息获取等领域。
awesome-deep-rl - 深度强化学习领域的最新研究综述与应用案例
Deep Reinforcement LearningGithubModel-basedPolicy GradientReinforcement LearningUnsupervised RL开源项目
该项目收录了深度强化学习领域的重要研究成果和应用示例,包括最新的学术论文、框架、算法和应用案例,覆盖无监督、离线、价值基础和策略梯度等多种方法。项目内容经常更新,提供最新的研究动态和工具,如2024年的HILP与2022年的EDDICT。适合从事人工智能、机器学习和强化学习的专业人员与爱好者了解该领域的最新进展。
videomae-large - 视频自监督学习的高效模型
GithubHuggingfaceVideoMAE开源项目模型自监督视频分类视频预训练
VideoMAE大型模型在Kinetics-400数据集上进行自监督预训练,采用掩码自编码器方法,有效学习视频的内在表示。利用视觉Transformer架构,通过将视频划分为固定大小的图像块,结合线性嵌入和位置编码,进行深度分析和像素预测,适用于多种后续任务和特征提取,包括视频分类和处理。
actionformer_release - 基于Transformer的高精度动作时刻定位模型
ActionFormerActivityNetGithubTHUMOS14Transformer开源项目时序动作定位
actionformer_release是一个基于Transformer的动作定位模型,能够检测动作实例的起止点并识别动作类别。在THUMOS14数据集上,该模型取得了71.0%的mAP,超越之前的最佳模型14.1个百分点,并首次突破60%的mAP。此外,该模型在ActivityNet 1.3和EPIC-Kitchens 100数据集上也取得了优异成绩。该项目设计简洁,通过局部自注意力机制对未剪辑视频进行时间上下文建模,并可一次性精确定位动作时刻。代码和预训练模型已开源,可供下载和试用。
dreamscene4d - 从单目视频生成动态多目标3D场景的突破性技术
3D场景生成DreamScene4DGithub多目标跟踪开源项目视频处理计算机视觉
DreamScene4D是一种从单目视频生成动态多目标3D场景的开源技术。它采用3D高斯和形变优化方法,能处理不同长度的视频和多个目标。项目提供自动化和分阶段优化脚本,支持处理有遮挡和无遮挡的视频。DreamScene4D在复杂场景和长视频序列处理方面表现优异,为计算机视觉和图形学研究提供了新思路。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号