Project Icon

phi-2-GGUF

以多平台兼容性著称的高效GGUF格式模型

探讨2023年8月由llama.cpp团队引入的微软Phi 2项目GGUF格式。页面包含详细的使用指南和应用案例,适合文本生成和推理。Phi 2具备跨平台兼容性和多种量化选项,支持GPU加速,是自然语言处理的良好选择。

项目介绍:phi-2-GGUF

项目背景

phi-2-GGUF项目是微软创建的一种用于文本生成任务的模型,该项目由微软研发团队开发。原始模型名为Phi 2。这种模型采用了一种新格式,称为GGUF,由llama.cpp团队于2023年8月21日引入。GGUF是对GGML格式的替代,旨在提供更好的兼容性和支持。

GGUF格式介绍

GGUF格式是为许多支持模型生成的客户端和图书馆而设计的。以下是一些兼容GGUF格式的工具和接口:

  • llama.cpp:提供CLI和服务器选项,可以在local环境下运行。
  • text-generation-webui:功能丰富的网络用户界面,支持GPU加速。
  • KoboldCpp:具备跨平台GPU加速能力,特别适合故事编写。
  • GPT4All:开源的本地运行GUI,支持Windows、Linux和macOS,具有全GPU加速功能。
  • LM Studio:简易使用的强大本地GUI,支持Windows和macOS(Silicon),具有GPU加速功能。
  • Faraday.dev:适用于Windows和macOS的聊天GUI,支持GPU加速。

此外,使用Python的开发者还可以用到诸如llama-cpp-pythoncandle等库来运行GGUF格式的模型。

模型仓库信息

phi-2存在多种格式和版本供使用,其中包括:

  • GPU推理的GPTQ模型,支持多种量化参数选项。
  • CPU+GPU推理的2、3、4、5、6和8位GGUF模型。
  • 微软原始的未量化fp16模型,采用pytorch格式,用于GPU推理和进一步转换。

量化方法详细解释

在phi-2-GGUF项目中,提供了几种先进的量化方法,包括:

  • GGML_TYPE_Q2_K:使用2.5625位每权重,有较大质量损失。
  • GGML_TYPE_Q3_K:使用3.4375位每权重,适用于需要质量平衡的使用场景。
  • GGML_TYPE_Q4_K:使用4.5位每权重,推荐用于大部分常规用途。
  • GGML_TYPE_Q5_K和Q6_K:分别是5.5和6.5625位每权重,提供更佳质量的量化选项。

下载与运行

用户可以通过多个客户端和库下载phi-2-GGUF模型文件。以下是一些下载建议与命令:

  • 使用text-generation-webui时,可在下载模型页面输入仓库名如TheBloke/phi-2-GGUF,选择相应文件下载。

  • 在命令行使用huggingface-hub库进行快速下载,示例命令如下:

    pip3 install huggingface-hub
    huggingface-cli download TheBloke/phi-2-GGUF phi-2.Q4_K_M.gguf --local-dir . --local-dir-use-symlinks False
    

确保下载后使用符合要求的运行环境及配置,这样可以根据需求进行有效的文本生成。

使用实例

llama.cpp中运行

确保您使用的llama.cpp是2023年8月27日以后的版本,以下是示例命令:

./main -ngl 35 -m phi-2.Q4_K_M.gguf --color -c 2048 --temp 0.7 --repeat_penalty 1.1 -n -1 -p "Instruct: {prompt}\nOutput:"

在Python代码中使用

可以采用llama-cpp-python库加载并运行模型,以下是一个简单的Python代码示例:

from llama_cpp import Llama

llm = Llama(
  model_path="./phi-2.Q4_K_M.gguf",  # 先下载好模型文件
  n_ctx=2048, 
  n_threads=8,
  n_gpu_layers=35
)

output = llm(
  "Instruct: {prompt}\nOutput:",
  max_tokens=512,
  stop=["</s>"],
  echo=True
)

通过这些操作,用户可以在多种平台和环境下灵活应用phi-2-GGUF模型进行文本生成任务。该项目利用先进的量化技术提供多种质量平衡选项,便于用户选择合适的模型参数和部署方案。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号