#移动设备
nanodet
NanoDet-Plus 是一款超轻量级高精度的无锚目标检测模型,专为移动设备实时检测设计。其模型文件仅有980KB(INT8)或1.8MB(FP16),在ARM CPU上实现97fps检测速度,精度达34.3 mAP@0.5:0.95。NanoDet-Plus 训练友好,GPU内存占用低,支持ncnn、MNN、OpenVINO等多种后端,提供基于ncnn的安卓演示。此模型在COCO数据集上提升了7 mAP,支持多种分辨率和配置,满足不同场景需求。
RepViT
RepViT是一个轻量级CNN模型家族,整合了Vision Transformer的架构设计,在移动设备上实现了80%以上的ImageNet准确率,延迟仅1毫秒。RepViT-SAM将RepViT应用于SAM模型,显著降低了计算需求,实现了移动设备上的实时任意目标分割。这两个模型在图像分类、目标检测和语义分割等视觉任务中均表现出色,兼具高性能和高效率。
Yogger
Yogger是一款移动设备上的创新视频分析应用,集成动作捕捉技术。它为运动员和教练提供全面的运动分析服务,包括实时动作评估、进度跟踪和AI驱动的运动筛查。Yogger不仅能提高运动表现,还能预防伤害。其AI运动评估功能可快速生成详细报告和评分,适用于个人训练和团队管理。无论是自我指导还是组织使用,Yogger都是一款强大的工具,能够帮助用户轻松达成个人最佳成绩。
opencv-mobile
opencv-mobile是OpenCV库的轻量级优化版本,专为移动和嵌入式设备设计。该项目支持Android、iOS、ARM Linux等多种平台,提供2.4、3.4和4.10三个主要版本。通过精简库体积并保留核心功能,使其更适合资源受限环境。opencv-mobile将OpenCV库的体积缩小了90%以上,Android版从292MB减少到17.7MB,iOS版从207MB减少到3.97MB,同时保留了核心计算机视觉功能。所有二进制文件均在GitHub Actions上公开编译,确保代码透明和安全性。
mllm
mllm是一款针对移动和边缘设备优化的多模态大语言模型推理引擎。该引擎采用纯C/C++实现,无外部依赖,支持ARM NEON和x86 AVX2指令集,并提供4位和6位整数量化。开发者可利用mllm构建智能个人助理、基于文本的图像搜索、屏幕视觉问答等移动应用,实现本地推理而无需上传敏感数据。
Vikhr-Llama-3.2-1B-instruct-GGUF
此指令模型基于Llama-3.2-1B-Instruct,使用GrandMaster-PRO-MAX俄语数据集训练,能效比基础模型提升5倍,支持低性能或移动设备部署。支持在少量计算资源下实现强大的文本生成功能。生成温度建议为0.3。在ru_arena_general中表现优异,适合精确高效的文本生成需求。由Vikhr团队的知名作者开发,致力于推动开源大型语言模型的创新。
MobileVLM-1.7B
MobileVLM-1.7B是一种专为移动设备设计的多模态视觉语言模型,通过多种优化技术实现高效推理,支持跨模态交互。该模型在标准基准测试中表现出色,并经过CLIP方式的预训练。在Qualcomm Snapdragon 888和NVIDIA Jeston Orin设备上的处理速度分别为每秒21.5个和65.3个令牌。