Project Icon

audio-flamingo

新型音频语言模型实现音频理解和多轮对话

Audio Flamingo是一种创新音频语言模型,具备音频理解、快速任务适应和多轮对话能力。通过优化训练技术、架构设计和数据策略,该模型在多项音频理解任务中创建新基准。项目开源基础模型和对话模型的训练及推理代码。模型权重可从GitHub和HuggingFace获取,仅供非商业用途。

parakeet-rnnt-1.1b - 高性能英语语音识别模型实现优异音频转文本效果
FastConformerGithubHuggingfaceNeMoTransducer开源项目模型自动语音识别英语语音模型
parakeet-rnnt-1.1b是NVIDIA NeMo和Suno.ai联合开发的英语语音识别模型。基于FastConformer Transducer架构,该模型拥有11亿参数,在64000小时英语语音数据上训练。它能准确将语音转录为小写英文文本,并在多个标准数据集上表现出色。研究人员可通过NeMo工具包使用该模型进行推理或微调,适用于多种语音识别场景。
quillman - 开源的实时语音转录和语言模型对话应用
GithubMetavoice Tortoise TTSModalOpenAI WhisperQuiLLManZephyr开源项目
一个开源项目,提供实时语音转录和自然语音合成的聊天应用,使用Zephyr语言模型和OpenAI Whisper技术。适用于开发和实验自定义语言模型应用,可在Modal平台上无服务器部署。提供在线演示、详细文档和模块化结构,方便本地开发和部署。
flame - 基于自然语言的3D人体动作生成与编辑框架
FLAMEGithub人体动画动作合成开源项目深度学习自然语言
FLAME是一个开源的3D人体动作生成和编辑框架,能够根据自然语言描述合成和修改动作。该项目利用深度学习技术将文本转换为人体动作,适用于动画制作、游戏开发等领域。FLAME支持多样化的动作生成和精确编辑,为研究人员和开发者提供了灵活的工具。
FLASK - 细粒度语言模型评估框架
FLASKGithub对齐评估开源项目技能集细粒度分析语言模型评估
FLASK是一个开源的语言模型评估框架,采用细粒度的实例级技能集作为评估指标。该框架提供任务无关的评估协议,包含模型推理、GPT-4评估和结果分析功能。FLASK还具备自动元数据标注能力,可标注领域、技能集和难度级别。项目包含详细使用说明和在线演示,为语言模型评估提供全面解决方案。
SLAM-LLM - 专注语音语言音频音乐处理的多模态大模型训练工具
GithubSLAM-LLM多模态大语言模型开源项目语音处理音乐处理音频处理
SLAM-LLM是一款开源深度学习工具包,为多模态大语言模型(MLLM)训练而设计。它专注于语音、语言、音频和音乐处理,提供详细训练方案和高性能推理检查点。支持自动语音识别、文本转语音等多种任务,具备易扩展性、混合精度训练和多GPU训练等特点,适合研究人员和开发者使用。
VideoLLaMA2-7B - 多模态大语言模型在视频时空建模和音频理解上的应用
GithubHuggingfaceVideoLLaMA 2多模态大语言模型开源项目模型模型推理空间-时间建模视频问答
VideoLLaMA2-7B 项目聚焦于视频时空的建模与音频理解,利用先进的视觉和语音编码技术提升视频内容分析能力。项目支持视频聊天和多选视频问答,提供训练与推理代码,适用于多种场景需求,并开放模型权重及技术报告以支持研究与开发。
wavlm-base - 适用于多语音任务的自监督预训练模型
GithubHuggingfaceLibriSpeechWavLM开源项目模型自监督学习语音识别音频分类
WavLM是基于自监督学习的语音预训练模型,旨在支持多种语音任务。模型在960小时Librispeech数据集上进行预训练,适用于语音识别和分类等任务,需在下游任务中微调。WavLM通过门控相对位置偏置和发音混合训练策略,强调说话者身份保留和内容建模,在SUPERB基准测试中表现优异。模型主要在英语环境中有良好表现,但目标是提供全语言栈的统一表示。
ltu - 音频和语音理解大模型与技术突破
GithubLTULTU-AS大语言模型开源项目语音理解音频理解
LTU和LTU-AS是首个桥接音频和语音感知与理解的大型语言模型。这两个模型在多个封闭式音频和语音任务上达到最先进水平,同时能基于给定音频回答开放式问题。项目提供PyTorch实现、预训练模型和数据集,支持推理和微调。发布的OpenAQA和OpenASQA训练数据集为音频和语音理解研究提供了重要资源。
Video-LLaMA - 指令微调的音视频语言模型实现多模态视频理解
AI对话GithubVideo-LLaMA多模态开源项目视频理解语言模型
Video-LLaMA是一个多模态AI项目,为大型语言模型赋予视频和音频理解能力。该项目基于BLIP-2和MiniGPT-4构建,包含视觉-语言和音频-语言两个分支。经过大规模视频和图像数据预训练及指令微调后,Video-LLaMA能够进行视频分析、音频理解和多轮对话。该模型支持英文和中文交互,为视频内容分析提供了新的AI解决方案。
blip2-flan-t5-xl - 融合视觉和语言的多功能预训练模型用于图像理解和多模态任务
BLIP-2GithubHuggingface图像描述多模态模型开源项目模型自然语言处理视觉问答
BLIP-2 Flan T5-xl是一款融合CLIP图像编码器、查询转换器和Flan T5-xl大语言模型的视觉-语言预训练模型。它擅长图像描述、视觉问答和基于图像的对话等多模态任务,在大规模图像-文本数据集上训练后展现出优秀的零样本和少样本学习能力。该模型为视觉理解和多模态应用研究提供了强大工具,但使用时需注意评估其在特定应用场景中的安全性和公平性。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号