#Vicuna

Vicuna安装指南:如何快速搭建和使用Vicuna大语言模型

3 个月前
Cover of Vicuna安装指南:如何快速搭建和使用Vicuna大语言模型

Vicuna-LoRA-RLHF-PyTorch: 一套完整的大规模语言模型微调流程

3 个月前
Cover of Vicuna-LoRA-RLHF-PyTorch: 一套完整的大规模语言模型微调流程

使用LoRA方法在单个16G GPU上微调LLaMA模型

2 个月前
Cover of 使用LoRA方法在单个16G GPU上微调LLaMA模型

Flacuna:融合Flan的Vicuna模型,提升问题解决能力的新突破

2 个月前
Cover of Flacuna:融合Flan的Vicuna模型,提升问题解决能力的新突破

AnomalyGPT: 利用大型视觉语言模型检测工业异常

2 个月前
Cover of AnomalyGPT: 利用大型视觉语言模型检测工业异常

text-generation-webui-colab入门指南 - 在Colab上运行大型语言模型的Web UI工具

2 个月前
Cover of text-generation-webui-colab入门指南 - 在Colab上运行大型语言模型的Web UI工具

Vicuna安装指南 - 详细步骤教你如何配置运行Vicuna大语言模型

2 个月前
Cover of Vicuna安装指南 - 详细步骤教你如何配置运行Vicuna大语言模型
相关项目
Project Cover

text-generation-webui-colab

本页面介绍如何在Colab平台上便捷部署多种GPT模型,包括vicuna、alpaca、llama等。用户可通过一键启动这些模型,适用于文本生成等应用。页面详细描述了每个模型的特性和使用方法,并提供对应的Colab链接,帮助用户高效进行实验和开发。

Project Cover

Vicuna-LoRA-RLHF-PyTorch

本文详述如何在普通硬件上优化Vicuna语言模型,包括环境配置、监督微调、合并PEFT适配器、训练奖励模型和PPO微调等步骤,适合中文技术人员使用。

Project Cover

vicuna-installation-guide

本指南提供Vicuna模型的详细安装与配置步骤,适用于13B和7B版本。推荐Unix系统用户,需准备足够的CPU RAM和必要软件包。指南包含一键安装脚本、手动安装步骤及运行模型示例。

Project Cover

DeepInception

DeepInception是一种创新的轻量级方法,能够诱导大型语言模型(LLM)绕过安全防护,持续进行越狱操作。该方法通过构建嵌套场景,利用LLM的拟人化能力,实现自适应逃逸。实验证明,DeepInception在开源和闭源LLM(如Falcon, Vicuna, Llama-2, GPT-3.5/4/4V)上表现出高成功率,揭示了LLM的安全弱点。此研究强调了增强LLM安全措施和防范风险的重要性。

Project Cover

LLaVA-Plus-Codebase

该项目介绍了LLaVA-Plus如何提升大语言和视觉助手的工具使用能力。通过代码示例、安装说明和使用指南,用户可以快速掌握运行和训练LLaVA-Plus模型的方法,并进行推理和评估。该项目适用于需要结合视觉任务和语言模型的研究人员和开发者,提供了多个知名工具的整合与使用说明,帮助用户全面了解和应用这些工具执行多模态任务。

Project Cover

llama-lora-fine-tuning

本项目展示了在单个16G GPU上微调vicuna-7b模型的方法。通过采用LoRA、半精度模型和8位加载等技术,有效降低了内存需求。项目详细说明了环境配置、模型准备、语料处理和微调过程,并提供P100和A100的性能数据。这种方法使研究者和开发者能在有限硬件资源下进行大型语言模型的定制化训练。

Project Cover

flacuna

Flacuna是一个通过在Flan-mini数据集上微调Vicuna模型而开发的AI助手。该项目旨在保持Vicuna的写作能力,同时显著增强其问题解决能力。Flacuna在多项基准测试中表现出色,尤其在少样本和零样本场景下。项目提供快速启动指南、性能评估结果和训练方法,为AI研究和开发提供了宝贵资源。

Project Cover

AnomalyGPT

AnomalyGPT是一种创新的工业异常检测方法,结合了大型视觉语言模型技术。该方法无需手动设置阈值,能自动检测工业图像中的异常,并指出其位置和特征。AnomalyGPT通过预训练的图像编码器和语言模型,利用模拟异常数据来分析工业图像及相关描述。此外,它还可以仅凭少量正常样本就能识别新类型的异常。

Project Cover

vicuna-7b-v1.3

Vicuna-7b-v1.3是LMSYS开发的开源对话AI助手,基于LLaMA模型微调。该项目利用约125K条ShareGPT用户对话数据进行监督式指令微调训练,主要用于大型语言模型和聊天机器人研究。Vicuna提供命令行界面和API接口,便于研究人员和爱好者在自然语言处理、机器学习和人工智能领域进行实验。模型在标准基准测试、人类偏好和LLM评判方面表现优异,详细评估结果可在其论文和在线排行榜中查看,是AI对话研究的有力工具。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号