Project Icon

chameleon-7b

Meta AI推出的多模态基础模型实现图像和文本融合

Chameleon-7b是Meta AI研究院开发的多模态基础模型,采用早期融合架构同时处理图像和文本输入。该模型在多项多模态任务中表现优异,为计算机视觉和自然语言处理领域提供新思路。研究人员可通过Meta的许可协议获取模型权重,探索其在不同应用场景中的潜力。

Llama-3.2-11B-Vision - Meta开发的多模态大语言模型 支持视觉识别和图像推理
GithubHuggingfaceLLAMA 3.2多模态模型开源项目机器学习模型自然语言处理计算机视觉
Llama-3.2-11B-Vision是Meta开发的多模态大语言模型,支持图像和文本输入、文本输出。该模型在视觉识别、图像推理、图像描述和通用图像问答方面表现出色。它基于Llama 3.1文本模型构建,采用优化的Transformer架构,通过监督微调和人类反馈强化学习进行对齐。模型支持128K上下文长度,经过60亿(图像,文本)对训练,知识截止到2023年12月。Llama-3.2-11B-Vision为商业和研究用途提供视觉语言处理能力。
internlm-xcomposer2d5-7b - 7B参数规模实现视觉语言理解和创作的开源多模态模型
GithubHuggingfaceInternLM-XComposer-2.5图像理解多模态开源项目模型网页生成长文本处理
InternLM-XComposer2.5采用7B参数规模构建,通过24K交错图文上下文训练,支持扩展至96K长文本理解。这个开源多模态模型在视频理解、多图对话、高清图像分析、网页生成和文章创作等场景中展现出强大的理解与创作能力。其优秀的长文本处理特性使其能够处理需要大量上下文的复杂任务。
cogvlm-chat-hf - 开源视觉语言模型CogVLM在多项跨模态基准测试中超越PaLI-X 55B
CogVLMGithubHuggingface图像识别多模态开源开源项目模型视觉语言模型
CogVLM是一款开源视觉语言模型,具有100亿视觉参数和70亿语言参数。在NoCaps、Flicker30k等10个经典跨模态基准测试中,CogVLM实现了最先进的性能,部分超越PaLI-X 55B。其架构包括视觉变换器编码器、MLP适配器、预训练语言模型和视觉专家模块。CogVLM能进行多模态对话,适用于图像描述和视觉问答等任务。该模型对学术研究开放,经登记后可免费用于商业用途。
llama-7b-hf - LLaMA-7B模型在自然语言处理和AI研究中的应用
GithubHuggingfaceLLaMA开源项目模型模型评估自动回归模型自然语言处理补充授权
LLaMA-7B是Meta AI的FAIR团队开发的自回归语言模型,基于转换器架构拥有7B参数,主要用于研究大语言模型的可能性。模型改进了解决EOS标记问题,并通过多数据集如CCNet、C4和Wikipedia进行训练,展现出语言间和方言间的性能差异,适合问答和自然语言理解等应用场景。仅限获授权的非商业研究使用,更多信息请参考Meta AI的研究出版物。
Emu - 多模态AI模型 图像文本智能生成的新突破
EmuGithub多模态模型开源项目生成式人工智能自然语言处理视觉感知
Emu是BAAI开发的先进多模态生成模型系列,包括入选ICLR 2024的Emu1和CVPR 2024的Emu2。这些模型展示了卓越的多模态理解和生成能力,能在复杂环境中无缝生成图像和文本。Emu在图像描述、视觉问答等任务中表现优异,超越了许多现有模型。作为通用基础模型,Emu适用于广泛的应用场景,如智能创作、视觉分析等,代表了AI技术的新发展方向。BAAI开源Emu旨在推动多模态智能研究的进步,为下一代AI技术发展铺平道路。
Chat-UniVi - 基于动态视觉令牌的图像视频双模态理解模型
Chat-UniViGithubHuggingface图像处理多模态大语言模型开源项目模型视频理解
Chat-UniVi是一个创新的大语言模型框架,采用动态视觉令牌技术实现图像和视频的统一处理。通过混合数据集训练,模型可同时处理图像空间信息和视频时序关系,性能超越了单一模态的专用模型。该项目为多模态AI技术发展提供了新的解决方案。
Llama-3.2-90B-Vision - 前沿视觉语言模型助力图像识别和推理
GithubHuggingfaceLlama 3.2Meta多模态大语言模型开源项目模型自然语言处理计算机视觉
Llama-3.2-90B-Vision是Meta开发的多模态大语言模型,支持图像和文本输入并输出文本。该模型在视觉识别、图像推理、描述和问答等任务中表现优异,性能超越多个开源和闭源多模态模型。基于Llama 3.1文本模型,通过视觉适配器实现图像理解,支持128K上下文长度。经指令微调后可用于商业和研究,适用于多种视觉语言任务。使用需遵守Llama 3.2社区许可协议。
llava-1.5-7b-hf - 基于Llama 2的多模态AI模型 实现图像理解与对话
GithubHuggingfaceLLaVATransformers图像文本生成多模态开源项目模型模型优化
LLaVA-1.5-7B是一个基于Llama 2架构的开源多模态视觉语言模型。通过指令微调,该模型实现了图像理解和对话能力,支持多图像输入和多轮对话。LLaVA-1.5-7B可应用于图像问答、视觉推理等任务,并提供便捷的pipeline接口。模型支持4比特量化和Flash Attention 2优化,可在普通GPU上高效运行。这为研究人员和开发者提供了一个功能强大的视觉语言AI工具。
HuatuoGPT-Vision-7B - 融合视觉知识的医疗多模态语言模型助力诊断
GithubHuatuoGPT-VisionHuggingfacePubMedVision医疗应用图像识别多模态大语言模型开源项目模型
HuatuoGPT-Vision-7B是基于Qwen2-7B和LLaVA-v1.5架构的多模态医疗语言模型。该模型利用PubMedVision数据集训练,将医学视觉知识融入多模态LLM中,能同时处理文本和图像输入。开源代码可从GitHub获取,便于模型部署和使用。HuatuoGPT-Vision-7B在医疗诊断、图像分析等领域展现出潜力,为医疗应用提供了新的解决方案。
gemma-7b - Google推出的轻量级开源大语言模型
GemmaGithubHuggingface人工智能大语言模型开源项目机器学习模型自然语言处理
Gemma-7b是Google基于Gemini技术推出的开源大语言模型,拥有70亿参数。该模型在6万亿token的多样化数据集上训练,支持8192个token的上下文长度。Gemma-7b在MMLU、HellaSwag等多项基准测试中表现优异。模型采用严格的数据清洗和安全评估流程,为研究人员提供高性能且负责任的AI工具,促进AI技术的普及与创新。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号