#GPT-J

LLM-Adapters:参数高效微调大语言模型的适配器家族

2024年09月04日
Cover of LLM-Adapters:参数高效微调大语言模型的适配器家族

LlamaGPTJ-chat: 一个简单而强大的本地聊天程序

2024年08月31日
Cover of LlamaGPTJ-chat: 一个简单而强大的本地聊天程序

GPT-J API: 构建强大的自然语言处理应用

2024年08月31日
Cover of GPT-J API: 构建强大的自然语言处理应用
相关项目
Project Cover

rome

ROME项目提供了自动回归变换器的模型编辑技术,支持OpenAI的GPT-2 XL与EleutherAI的GPT-J。项目包括安装指南、应用示例(如模型重写)及评估工具,帮助开发者理解和应用模型修改。

Project Cover

LlamaGPTJ-chat

一个使用C++编写的命令行聊天程序,支持GPT-J、LLaMA、MPT等语言模型。适用于Linux、MacOS和Windows系统,有详尽的安装和使用指南,并支持多线程、保存/加载聊天日志、设置AI角色等多种功能。

Project Cover

gpt-j-api

介绍了通过API与GPT-J语言模型进行互动,支持文本生成和多语言文本分类,包括Python和Bash示例、公开API接口、Streamlit应用和独立API文档。提供了在TPU VM上设置服务器和部署Streamlit仪表板的详细指南。

Project Cover

EasyLM

EasyLM提供了一站式解决方案,用于在JAX/Flax中预训练、微调、评估和部署大规模语言模型。通过JAX的pjit功能,可以扩展到数百个TPU/GPU加速器。基于Hugginface的transformers和datasets,EasyLM代码库易于使用和定制。支持Google Cloud TPU Pods上的多TPU/GPU和多主机训练,兼容LLaMA系列模型。推荐加入非官方的Discord社区,了解更多关于Koala聊天机器人和OpenLLaMA的详细信息及安装指南。

Project Cover

LLM-Adapters

LLM-Adapters 是一个集成了多种适配器的框架,用于实现大语言模型的参数高效微调。支持 LLaMa、OPT、BLOOM 和 GPT-J 等开源大语言模型,以及 Bottleneck、Parallel 和 LoRA 等适配器。这个框架为研究人员和开发者提供了强大的工具,可应用于各种任务的适配器方法。最新更新包括 commonsense170k 数据集,LLaMA-13B-Parallel 模型在多个常识基准测试中表现优异,超越了 ChatGPT。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号