#Phi-3

LLaVA-pp学习资料汇总 - 基于LLaMA-3和Phi-3的视觉语言模型

2024年09月10日
Cover of LLaVA-pp学习资料汇总 - 基于LLaMA-3和Phi-3的视觉语言模型

Dot入门指南 - 本地运行的文本转语音、RAG和LLM工具集

2024年09月10日
Cover of Dot入门指南 - 本地运行的文本转语音、RAG和LLM工具集

Phi-3CookBook: 微软Phi-3模型家族的应用指南

2024年09月04日
Cover of Phi-3CookBook: 微软Phi-3模型家族的应用指南

LLaVA++: 扩展LLaVA的视觉能力与LLaMA-3和Phi-3

2024年08月30日
Cover of LLaVA++: 扩展LLaVA的视觉能力与LLaMA-3和Phi-3
相关项目
Project Cover

Dot

Dot是一款独立的开源应用,使用本地LLM和增强检索技术,实现与PDF、DOCX、PPTX、XLSX和Markdown等格式文件的无缝交互。基于Electron JS构建,内含所有必要的Python库,适合非编程用户使用。未来计划增加Linux支持、图像文件支持和更多文档类型。

Project Cover

LLaVA-pp

LLaVA-pp项目整合了Phi-3 Mini Instruct和LLaMA-3 Instruct模型,提升了视觉模型的能力。用户可通过Hugging Face Spaces和在线演示了解LLaMA-3-V和Phi-3-V的更新和结果。项目包含多种预训练及微调模型,支持学术任务和指令跟随应用。

Project Cover

Phi-3CookBook

本项目提供Microsoft Phi-3模型家族的全面实践指南,包括环境设置、快速入门、推理、微调和评估等教程。涵盖iOS、Jetson和AI PC等多种硬件设备上的端到端解决方案构建说明。另外还包含实际应用案例和实验室样本,助力开发者深入理解和应用Phi-3模型。

Project Cover

Phi-3-mini-128k-instruct-onnx-tf

该项目提供Phi-3-mini-128k-instruct模型的ONNX优化版本,支持多种设备和平台高性能推理。模型适配CPU、GPU和移动设备,提供不同精度版本。经指令微调和安全优化,推理能力出色。项目配备ONNX Runtime Generate API,便于开发集成。与PyTorch相比,ONNX版本性能全面提升,FP16 CUDA版本最高提速5倍,INT4 CUDA版本最高提速9倍。

Project Cover

Phi-3-mini-128k-instruct

Phi-3-mini-128k-instruct是一个参数量为38亿的开放模型,在各类推理任务中表现优异。它采用Phi-3数据集训练,具备128K的上下文长度处理能力,通过精心设计的后训练过程提升了指令遵循能力和输出安全性。该模型在13亿参数以下规模中展现出卓越性能,尤其适合需要强大推理能力的应用场景,如常识推理、语言理解、数学计算和代码编写等。

Project Cover

Phi-3-medium-128k-instruct

Phi-3-medium-128k-instruct是微软开发的14B参数轻量级开源大语言模型,支持128K上下文长度。该模型在常识、语言理解、数学、编程、长文本处理和逻辑推理等方面表现优异,与同等规模及更大模型相比表现出色。经过指令微调和偏好优化,适用于多种商业和研究场景,尤其适合资源受限环境、低延迟场景和需要强大推理能力的应用。

Project Cover

Phi-3-medium-4k-instruct

Phi-3-medium-4k-instruct是一个14B参数的轻量级开源语言模型,在常识、语言理解、数学和编码等多项基准测试中表现优异。该模型采用高质量合成数据和公开数据训练,经过指令微调和安全优化,支持4K上下文长度。它适用于内存/计算受限环境和低延迟场景,可广泛应用于商业和研究领域。

Project Cover

Phi-3-medium-128k-instruct-quantized.w4a16

Phi-3中型量化模型专注于优化英语文本生成,适用于商业与研究领域。通过INT4权重量化,减少存储与内存消耗,提高了部署效率。支持GPTQ算法下的量化,并可在vLLM与Transformers框架中高效运行,于OpenLLM基准测试中展现优异表现,适合用于多种对话场景。

Project Cover

Phi-3-mini-4k-instruct-gguf

Phi-3-mini-4k-instruct-gguf采用GGUF格式实现的轻量级语言模型,具备3.8B参数规模和4K上下文长度支持。该模型在常识理解、数学计算、代码生成等方面表现突出,适合在计算资源受限环境下运行。模型经过安全性优化,可用于英语场景的商业及研究应用。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号