热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#multimodal LLM
mllm - 轻量级移动设备多模态大语言模型推理引擎
Github
开源项目
量化
移动设备
边缘计算
multimodal LLM
AI推理引擎
mllm是一款针对移动和边缘设备优化的多模态大语言模型推理引擎。该引擎采用纯C/C++实现,无外部依赖,支持ARM NEON和x86 AVX2指令集,并提供4位和6位整数量化。开发者可利用mllm构建智能个人助理、基于文本的图像搜索、屏幕视觉问答等移动应用,实现本地推理而无需上传敏感数据。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号