#Alpaca

dalai - 在电脑上运行LLaMA和Alpaca模型,跨平台兼容
DalaiLLaMAAlpacaAI模型跨平台Github开源项目
Dalai项目允许用户在Linux、Mac和Windows系统上运行LLaMA和Alpaca模型,提供用户友好的Web应用和JavaScript API。通过简单的安装步骤即可在本地使用这些模型,支持多种模型尺寸,适应不同计算机配置。详细的安装和故障排除指南帮助用户快速上手。
llm-chain - 创建多步骤LLM应用,支持云端和本地部署
llm-chainRustChatGPTLLaMaAlpacaGithub开源项目
llm-chain是一组强大的Rust库,支持创建高级LLM应用,如聊天机器人和智能代理。平台支持云端和本地LLM,提供提示模板和多步骤链功能,以处理复杂任务。还支持向量存储集成,为模型提供长期记忆和专业知识。兼容ChatGPT、LLaMa和Alpaca模型,并通过llm.rs实现Rust语言的LLM支持,无需C++依赖。
instruct-eval - 指令调优的大型语言模型的评估和比较
InstructEvalLLMFlan-T5AlpacaIMPACTGithub开源项目
InstructEval项目专注于全面评估和比较指令调优的大型语言模型(如Flan-T5和Alpaca),并提供简便的基准测试库和排行榜。该项目支持多种模型和任务,使研究者能够轻松直观地在学术基准(如MMLU和BBH)上比较模型表现。此外,InstructEval发布了用于评估LLM写作能力的IMPACT数据集和安全评估基准Red-Eval,为用户提供多样的测试工具和资源。
awesome-instruction-dataset - 开源的多任务多语言指令微调数据集
LLMsChatGPTRLHF数据集AlpacaGithub开源项目
该项目收录了一系列开源指令微调数据集,用以训练基于聊天的LLM(如GPT-4、ChatGPT、LLaMA、Alpaca)。数据集包括视觉指令微调、文本指令微调和人类反馈增强学习(RLHF)数据集。项目提供了详尽的数据集列表,方便研究人员和开发人员使用这些资源。支持多任务和多语言,覆盖英语、中文等多种语言数据,数据集来源多样,包括人类生成、自我指令生成以及混合数据集,适合多种LLM训练需要。
LlamaChat - Mac平台上的本地大型语言模型聊天工具
AI工具LlamaChatLLaMAAlpacaGPT4All本地聊天模型
LlamaChat是Mac平台上的开源聊天应用,支持在本地运行LLaMA、Alpaca和GPT4All等大型语言模型。用户可直接导入PyTorch模型检查点或.ggml文件,灵活选择模型。该应用基于llama.cpp和llama.swift构建,完全免费开源,为用户提供了便捷途径来体验先进的语言模型技术。
Alpaca - 为数字艺术家打造的智能创作平台
AI工具AlpacaAI绘图数字艺术创意工作流概念设计
Alpaca是一个面向数字艺术家和创意人员的智能创作平台。它能够快速美化和渲染概念草图,加速从初始构思到成品的设计过程。平台集成了多种创新工具,如风格定制、线稿优化、色彩管理和创意变体生成。Alpaca致力于拓展艺术家的创作空间,同时确保作品风格的一致性。
alpaca-trade-api-python - Alpaca交易API Python库支持快速算法开发和实时数据访问
Alpaca交易APIPython SDK数据服务历史数据Github开源项目
alpaca-trade-api-python是一个用于访问Alpaca交易API的Python库。该库支持REST和实时数据接口,方便开发者构建交易算法。它提供历史数据查询、实时数据流、账户和投资组合管理等功能,支持Python 3.7及以上版本。通过环境变量配置,用户可以轻松获取股票历史行情、报价和交易数据,并支持自定义时间框架和数据处理方式。
Synatra-RP-Orca-2-7b-v0.1 - 个人资源开发的测试版RP细调成果
Github微调模型训练模型开源项目Alpaca个人项目Synatra-RP-Orca-2-7b-v0.1Huggingface
Synatra-RP-Orca-2-7b-v0.1是一个个人资源开发的测试RP SFT模型,基于microsoft/Orca-2-7b构建。项目通过SFT方法进行细调优化,使用A100 80GB显卡训练,并采用Alpaca和ChatML指令格式。推动自然语言处理领域研究,其开放合作和资助渠道请联系Telegram用户AlzarTakkarsen。
gpt2-alpaca - 介绍GPT2在Alpaca数据集上的指令微调实例
模型微调机器学习HuggingfaceGithub开源项目模型AlpacaGPT2语言生成
gpt2-alpaca 是在 Alpaca 数据集上进行指令微调的 GPT2 模型,展示了如健康饮食建议、诗歌创作及外星人视角评论等不同生成示例。在 TruthfulQA 和 Winogrande 等多项评测中取得优异成绩,并提供在 Hugging Face 开放 LLM 排行榜上的详细分析,适合研究生成模型表现的人员参考。
koOpenChat-sft - 多语言AI对话模型,基于OpenChat3.5构建
ChatMLHuggingface韩国人工智能Github开源项目模型AlpacaOpenChat3.5koOpenChat-sft
koOpenChat-sft项目是一个基于OpenChat3.5的多语言AI对话模型,训练于A100 80GB设备,遵循ChatML和Alpaca(No-Input)指令格式。尽管没有详细的基准测试数据,模型的评估结果已在Open LLM Leaderboard中公布。其在HellaSwag和Winogrande等指标上的得分表明了其高效的对话能力,广泛适用于多种AI场景。欲知更多信息,可通过Telegram联系开发者。