#LLaMA
llama-tokenizer-js:为LLaMA模型打造的高效JavaScript tokenizer
Visual-Chinese-LLaMA-Alpaca: 突破性的中文多模态大语言模型
xTuring
xTuring是一款高效、简单的开源LLM微调平台,支持Mistral、LLaMA、GPT-J等多种模型。用户可通过直观界面在本地或私有云中微调模型,保障数据隐私。平台支持数据预处理、多GPU扩展、以及INT4和LoRA等内存高效的微调方法,并提供多种模型评估工具。最新功能涵盖LLaMA 2集成、CPU推理优化和批量处理。
text-generation-webui-colab
本页面介绍如何在Colab平台上便捷部署多种GPT模型,包括vicuna、alpaca、llama等。用户可通过一键启动这些模型,适用于文本生成等应用。页面详细描述了每个模型的特性和使用方法,并提供对应的Colab链接,帮助用户高效进行实验和开发。
LLamaSharp
LLamaSharp是一个基于llama.cpp的跨平台库,支持在本地设备上高效运行LLaMA和LLaVA等大语言模型。该库提供高级API和RAG支持,便于在应用中部署大型语言模型。LLamaSharp兼容多种后端,支持CPU和GPU推理,适用于Windows、Linux和Mac平台。通过集成semantic-kernel和kernel-memory等库,LLamaSharp简化了应用开发,并提供多个示例和教程帮助用户快速上手。
llama.go
llama.go是一个基于Golang的LLM推理项目,旨在通过纯Golang编写的张量数学与多线程优化,实现高效的LLaMA模型推理,替代C++实现。支持LLaMA V1和V2模型架构,兼容Mac、Linux和Windows,涵盖INT8量化、AVX2加速等高级功能。未来计划扩展支持Nvidia GPU、AVX512和INT4量化,并提供内置REST API,适用于真实项目中的服务器模式。
llama-moe
LLaMA-MoE是基于LLaMA和SlimPajama的开源专家混合模型。通过将LLaMA的FFN划分为稀疏专家并加入top-K门控,模型在优化的数据采样权重下进行持续预训练。特点包括轻量化、多种专家构建方法、多种门控策略和快速预训练,适合部署和研究。提供详细的安装指南和技术文档,帮助用户快速使用并评估模型性能。
LLM-Shearing
本项目通过结构化剪枝显著提升大语言模型的预训练效率。通过剪枝优化LLaMA等大型基础模型,得到更小但同样强大的语言模型。实验结果显示,与从头开始预训练相比,剪枝显著降低了计算成本。项目提供详尽的代码库、评估脚本和剪枝日志,及多种经过指令微调的模型。
Visual-Chinese-LLaMA-Alpaca
VisualCLA基于中文LLaMA/Alpaca模型,增加图像编码模块,实现图文联合理解和对话能力。目前发布测试版,提供推理代码和部署脚本,并展示多模态指令理解效果。未来将通过预训练和精调优化,扩展应用场景。
LlamaChat
LlamaChat,一个为macOS设计的聊天应用,支持用户在本地与LLaMA、Alpaca和GPT4All模型进行交互。它支持多种模型格式,如PyTorch checkpoints及ggml文件,并具备聊天历史记录及模型调试功能。请注意,LlamaChat不提供模型文件,用户需自行根据相关条款获取。
dalai
Dalai项目允许用户在Linux、Mac和Windows系统上运行LLaMA和Alpaca模型,提供用户友好的Web应用和JavaScript API。通过简单的安装步骤即可在本地使用这些模型,支持多种模型尺寸,适应不同计算机配置。详细的安装和故障排除指南帮助用户快速上手。