#Phi-3

LLaVA-pp学习资料汇总 - 基于LLaMA-3和Phi-3的视觉语言模型

2 个月前
Cover of LLaVA-pp学习资料汇总 - 基于LLaMA-3和Phi-3的视觉语言模型

Dot入门指南 - 本地运行的文本转语音、RAG和LLM工具集

2 个月前
Cover of Dot入门指南 - 本地运行的文本转语音、RAG和LLM工具集

Phi-3CookBook: 微软Phi-3模型家族的应用指南

3 个月前
Cover of Phi-3CookBook: 微软Phi-3模型家族的应用指南

LLaVA++: 扩展LLaVA的视觉能力与LLaMA-3和Phi-3

3 个月前
Cover of LLaVA++: 扩展LLaVA的视觉能力与LLaMA-3和Phi-3
相关项目
Project Cover

Dot

Dot是一款独立的开源应用,使用本地LLM和增强检索技术,实现与PDF、DOCX、PPTX、XLSX和Markdown等格式文件的无缝交互。基于Electron JS构建,内含所有必要的Python库,适合非编程用户使用。未来计划增加Linux支持、图像文件支持和更多文档类型。

Project Cover

LLaVA-pp

LLaVA-pp项目整合了Phi-3 Mini Instruct和LLaMA-3 Instruct模型,提升了视觉模型的能力。用户可通过Hugging Face Spaces和在线演示了解LLaMA-3-V和Phi-3-V的更新和结果。项目包含多种预训练及微调模型,支持学术任务和指令跟随应用。

Project Cover

Phi-3CookBook

本项目提供Microsoft Phi-3模型家族的全面实践指南,包括环境设置、快速入门、推理、微调和评估等教程。涵盖iOS、Jetson和AI PC等多种硬件设备上的端到端解决方案构建说明。另外还包含实际应用案例和实验室样本,助力开发者深入理解和应用Phi-3模型。

Project Cover

Phi-3-medium-4k-instruct

Phi-3-medium-4k-instruct是一个14B参数的轻量级开源语言模型,在常识、语言理解、数学和编码等多项基准测试中表现优异。该模型采用高质量合成数据和公开数据训练,经过指令微调和安全优化,支持4K上下文长度。它适用于内存/计算受限环境和低延迟场景,可广泛应用于商业和研究领域。

Project Cover

Phi-3-medium-128k-instruct-quantized.w4a16

Phi-3中型量化模型专注于优化英语文本生成,适用于商业与研究领域。通过INT4权重量化,减少存储与内存消耗,提高了部署效率。支持GPTQ算法下的量化,并可在vLLM与Transformers框架中高效运行,于OpenLLM基准测试中展现优异表现,适合用于多种对话场景。

Project Cover

Phi-3-mini-4k-instruct-gguf

Phi-3-mini-4k-instruct-gguf采用GGUF格式实现的轻量级语言模型,具备3.8B参数规模和4K上下文长度支持。该模型在常识理解、数学计算、代码生成等方面表现突出,适合在计算资源受限环境下运行。模型经过安全性优化,可用于英语场景的商业及研究应用。

Project Cover

Phi-3-mini-4k-instruct

此项目通过Unsloth量化技术,提供高效的Mistral平台大模型微调方案,速度提升至2-5倍,内存占用降低至50-70%。提供的Colab笔记本支持Phi-3、Llama 3、Gemma 2等多种模型,简单易用,适合初学者。用户可以节省计算资源,并将微调后的模型导出至GGUF或上传至Hugging Face,方便成果共享。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号