#模型微调
llama-recipes入门指南 - 快速上手Meta Llama模型微调与应用
llama-recipes
llama-recipes项目为开发者提供了一个全面的库和示例脚本,帮助用户快速开始使用和精细调整Meta公司的Llama模型。项目支持最新版本Llama 3.1,并展示了多种应用场景,如域适应和构建基于LLM的应用程序。用户可以在本地、云端或本地服务器上运行这些示例,实现多功能的交互式对话和工具调用。
amazon-bedrock-samples
该资源库提供了全面的示例帮助客户快速上手Amazon Bedrock服务,包括基础教程、模型微调、AI解决方案探索等。同时,项目还强调了如何安全和道德地使用这些高级AI技术。
llm-engine
LLM Engine是一款Python库、CLI和Helm图表,能够在Scale托管基础设施或自有Kubernetes云中自定义和部署基础模型。支持LLaMA、MPT和Falcon等开源基础模型的API部署和服务,并允许在自有数据上微调以优化性能。该引擎优化推理功能和开源集成,提高部署和微调效率,未来还将提供K8s安装文档和快速冷启动时间。
LazyLLM
LazyLLM,一个创新的低代码平台,旨在帮助开发者低成本构建多智能体大语言模型应用。它简化了AI应用的构建及部署流程,支持一键式部署和跨平台操作,有效简化了初学者和技术专家的AI开发工作。
punica
Punica采用分段聚集矩阵-向量乘法(SGMV)技术,使多个LoRA微调模型在单个预训练模型上高效运行,仅增加1%的存储和内存开销。相比其他系统,Punica在各种LoRA模型请求下的文本生成吞吐量提升至12倍,适用于不同版本的CUDA和Python,支持二进制包和源码构建。
Play-with-LLMs
Play-with-LLMs提供一系列关于大型语言模型的训练、评估和应用的详细指南,涉及RAG、Agent、Chain等多种结构,包括多个实用案例和应用代码。项目旨在帮助开发者迅速掌握并深入理解大型语言模型。
xtts-webui
XTTS-WebUI是一个强大的语音合成界面,利用先进的XTTS技术,支持无需安装的便携式版本,能够处理批量文件,维持翻译语音的原真性,并通过神经网络自动优化语音合成结果。此外,用户还可以自定义调整语音模型,实现无需深度学习背景即可操作的专业语音处理。
UER-py
UER-py是一个为自然语言处理任务设计的预训练和微调工具包,支持多种预训练模型以优化下游任务表现。项目强调模块化设计,并提供可扩展接口,支持单GPU及多GPU配置。
OpenPipe
OpenPipe是一个开源平台,专注于通过昂贵的大型语言模型(LLM)对小型模型进行微调,满足特定需求。平台支持OpenAI和微调模型间的无缝切换,提供强大的日志查询和模型评估功能,用户可轻松导入数据集并优化模型性能。支持Python和TypeScript SDK,兼容OpenAI聊天完成端点,提供GPT 3.5、Mistral、Llama 2等多种模型的微调和托管服务。