#Alpaca

instruct-eval入门指南 - 评估指令微调语言模型的系统化工具包

2024年09月10日
Cover of instruct-eval入门指南 - 评估指令微调语言模型的系统化工具包

llm-chain - Rust语言大模型应用开发框架学习资源汇总

2024年09月10日
Cover of llm-chain - Rust语言大模型应用开发框架学习资源汇总

dalai入门指南 - 在本地运行LLaMA和Alpaca语言模型

2024年09月10日
Cover of dalai入门指南 - 在本地运行LLaMA和Alpaca语言模型

alpaca-trade-api-python: Python客户端库用于Alpaca交易API

2024年09月05日
Cover of alpaca-trade-api-python: Python客户端库用于Alpaca交易API

llm-chain: 强大的Rust语言大模型应用开发框架

2024年08月30日
Cover of llm-chain: 强大的Rust语言大模型应用开发框架

Dalai: 在本地运行LLaMA和Alpaca的最简单方法

2024年08月30日
Cover of Dalai: 在本地运行LLaMA和Alpaca的最简单方法

Dalai: 在本地运行LLaMA和Alpaca的最简单方法

2024年08月30日
Cover of Dalai: 在本地运行LLaMA和Alpaca的最简单方法
相关项目
Project Cover

dalai

Dalai项目允许用户在Linux、Mac和Windows系统上运行LLaMA和Alpaca模型,提供用户友好的Web应用和JavaScript API。通过简单的安装步骤即可在本地使用这些模型,支持多种模型尺寸,适应不同计算机配置。详细的安装和故障排除指南帮助用户快速上手。

Project Cover

llm-chain

llm-chain是一组强大的Rust库,支持创建高级LLM应用,如聊天机器人和智能代理。平台支持云端和本地LLM,提供提示模板和多步骤链功能,以处理复杂任务。还支持向量存储集成,为模型提供长期记忆和专业知识。兼容ChatGPT、LLaMa和Alpaca模型,并通过llm.rs实现Rust语言的LLM支持,无需C++依赖。

Project Cover

instruct-eval

InstructEval项目专注于全面评估和比较指令调优的大型语言模型(如Flan-T5和Alpaca),并提供简便的基准测试库和排行榜。该项目支持多种模型和任务,使研究者能够轻松直观地在学术基准(如MMLU和BBH)上比较模型表现。此外,InstructEval发布了用于评估LLM写作能力的IMPACT数据集和安全评估基准Red-Eval,为用户提供多样的测试工具和资源。

Project Cover

awesome-instruction-dataset

该项目收录了一系列开源指令微调数据集,用以训练基于聊天的LLM(如GPT-4、ChatGPT、LLaMA、Alpaca)。数据集包括视觉指令微调、文本指令微调和人类反馈增强学习(RLHF)数据集。项目提供了详尽的数据集列表,方便研究人员和开发人员使用这些资源。支持多任务和多语言,覆盖英语、中文等多种语言数据,数据集来源多样,包括人类生成、自我指令生成以及混合数据集,适合多种LLM训练需要。

Project Cover

LlamaChat

LlamaChat是Mac平台上的开源聊天应用,支持在本地运行LLaMA、Alpaca和GPT4All等大型语言模型。用户可直接导入PyTorch模型检查点或.ggml文件,灵活选择模型。该应用基于llama.cpp和llama.swift构建,完全免费开源,为用户提供了便捷途径来体验先进的语言模型技术。

Project Cover

Alpaca

Alpaca是一个面向数字艺术家和创意人员的智能创作平台。它能够快速美化和渲染概念草图,加速从初始构思到成品的设计过程。平台集成了多种创新工具,如风格定制、线稿优化、色彩管理和创意变体生成。Alpaca致力于拓展艺术家的创作空间,同时确保作品风格的一致性。

Project Cover

alpaca-trade-api-python

alpaca-trade-api-python是一个用于访问Alpaca交易API的Python库。该库支持REST和实时数据接口,方便开发者构建交易算法。它提供历史数据查询、实时数据流、账户和投资组合管理等功能,支持Python 3.7及以上版本。通过环境变量配置,用户可以轻松获取股票历史行情、报价和交易数据,并支持自定义时间框架和数据处理方式。

Project Cover

Synatra-RP-Orca-2-7b-v0.1

Synatra-RP-Orca-2-7b-v0.1是一个个人资源开发的测试RP SFT模型,基于microsoft/Orca-2-7b构建。项目通过SFT方法进行细调优化,使用A100 80GB显卡训练,并采用Alpaca和ChatML指令格式。推动自然语言处理领域研究,其开放合作和资助渠道请联系Telegram用户AlzarTakkarsen。

Project Cover

gpt2-alpaca

gpt2-alpaca 是在 Alpaca 数据集上进行指令微调的 GPT2 模型,展示了如健康饮食建议、诗歌创作及外星人视角评论等不同生成示例。在 TruthfulQA 和 Winogrande 等多项评测中取得优异成绩,并提供在 Hugging Face 开放 LLM 排行榜上的详细分析,适合研究生成模型表现的人员参考。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号