#人工智能助手

Wizard-Vicuna-7B-Uncensored-GPTQ - 支持多平台推理的高效GPTQ模型文件
Github模型人工智能助手开源项目量化模型GPTQHuggingfaceWizard Vicuna 7B未过滤
项目提供多样的GPTQ模型文件,支持多种推理配置和硬件平台需求。通过多种量化参数优化,提升推理质量及多样化VRAM使用。基础模型由Eric Hartford创建,专为NLP应用而设计,无需内容审核,用户可自由定制对齐方式,适用广泛领域的AI助手开发。
Llama-3-Smaug-8B-GGUF - Llama-3-Smaug-8B模型的GGUF格式文件 支持多级量化
文本生成Huggingface模型Github开源项目Llama-3-Smaug-8BGGUF模型人工智能助手量化
Llama-3-Smaug-8B-GGUF项目提供abacusai/Llama-3-Smaug-8B模型的GGUF格式文件,支持2-bit至8-bit多级量化。项目介绍了使用llama.cpp加载模型的方法,并概述了GGUF格式及其兼容工具。该资源有助于用户了解GGUF格式,选择适合的工具进行本地部署和文本生成应用。
llava-v1.6-vicuna-7b-hf - 改进的多模态AI模型 增强图像理解和常识推理能力
模型图像文本生成开源项目多模态模型Huggingface人工智能助手GithubLLaVA-Next视觉语言处理
LLaVA-NeXT是基于LLaVA-1.5的改进版多模态AI模型。通过增加输入图像分辨率和优化视觉指令调优数据集,该模型显著提升了OCR和常识推理能力。它结合了预训练的大型语言模型和视觉编码器,适用于图像描述、视觉问答和多模态聊天机器人等任务。LLaVA-NeXT支持动态高分辨率处理,并采用多样化、高质量的数据混合方法,从而提供更精确和全面的图像理解。
internlm2-chat-20b - 高效支持长文本的20B参数对话模型,具备卓越推理和数据分析能力
开源模型InternLM2-Chat-20B开源项目人工智能助手工具调用模型Huggingface长上下文推理Github
InternLM2-Chat-20B是具备20B参数的先进对话模型,支持长达20万字长上下文,表现出优秀的推理与数据分析能力。模型在多个领域,如数学、代码、创作上显示出色,部分指标超越GPT-3.5,并在GSM8K和MATH测试中接近GPT-4的表现。它的工具调用能力增强,适应复杂任务,同时强调生成符合伦理的文本。
vicuna-13b-v1.5-16k - 基于Llama 2的开源对话模型 支持16K长文本处理
大语言模型Llama 2Vicuna模型Github机器学习开源项目Huggingface人工智能助手
Vicuna-13b-v1.5-16k是LMSYS团队基于Llama 2开发的开源对话助手。该模型利用ShareGPT平台收集的12.5万条对话数据进行微调,通过线性RoPE缩放技术实现16K字符的上下文处理。经过标准基准测试、人工评估和LLM评判的多维度验证,主要应用于自然语言处理、机器学习和人工智能领域研究。模型开放命令行界面和API接口,便于研究人员和开发者使用。
Wizard-Vicuna-30B-Uncensored-GGUF - 多平台兼容的高效AI模型格式
开源项目GGUF人工智能助手量化模型模型HuggingfaceWizard Vicuna 30B Uncensored数据集Github
GGUF格式是llama.cpp团队于2023年8月推出的新模型格式,取代了不再支持的GGML。该项目提供多种量化方法及格式,以优化在llama.cpp、text-generation-webui等多平台上的使用。用户可以选择最合适的模型,通过支持GPU加速的客户端和库实现高效下载和使用。这些模型兼容多种第三方UI和库,有助于增强人工智能推理和应用开发的性能。
dolphin-2.9.4-llama3.1-8b-gguf - Llama3.1衍生的开放对话模型Dolphin 2.9.4
Huggingface机器学习Meta-Llama开源项目模型Github语言模型人工智能助手模型训练
Dolphin 2.9.4是基于Meta Llama3.1 8b模型优化的GGUF格式对话助手。它支持多语言指令理解和代码编程,具有8192序列长度和128K上下文窗口,采用ChatML提示模板。该模型支持函数调用,在BBH、GPQA等评测中表现良好。作为未经审查的模型,它能更自由地回应请求,但在实际应用中建议添加内容过滤机制。
Qwen-72B - 阿里云推出Qwen-72B多语言模型,具备720亿参数
HuggingfaceQwen-72B开源项目多语言模型Github大模型人工智能助手阿里云
Qwen-72B是由阿里云研发的多语言模型,包含720亿参数,并基于Transformer架构。通过超3万亿tokens预训练数据,展现出在多语言处理中的强大性能,支持32k上下文长度,并具备15万词的多语言词表。在常识推理、代码、数学等领域,该模型表现出色。
dolphin-2.9.4-llama3.1-8b - 这款模型支持多语言与对话功能的AI系统
Dolphin 2.9.4人工智能助手指令遵从Huggingface对话能力开源项目模型无偏见模型Github
Dolphin 2.9.4是基于Meta Llama 3.1 8b的AI系统,专注于多语言指令和会话功能。经过8192序列长度的优化,显著提升了多语言环境的合规性和响应性。该模型采用ChatML格式,支持函数调用,数据经过过滤处理以减少偏见。由于高度合规和开放性,建议用户自行添加适当的对齐层以确保安全应用。Dolphin还具备出色的代码生成能力,适用于多种场景。
Yi-Coder-9B-Chat-GGUF - 支持52种编程语言的大上下文AI编程助手
人工智能助手多语言支持编程模型代码生成Yi-Coder-9B-ChatGithub开源项目模型Huggingface
Yi-Coder-9B-Chat-GGUF是一个支持52种编程语言的AI助手模型,具有128k的上下文长度。作为首个在LiveCodeBench上达到20%通过率的10B以下参数模型,它专门针对编程对话进行了优化。该模型由01-ai开发,bartowski提供基于llama.cpp的GGUF量化版本。用户可以在LM Studio中使用ChatML预设与模型进行交互,获取编程问题的解答。
Llama-3-SauerkrautLM-8b-Instruct - 基于Llama 3的德英双语语言模型
Fine-Tuning自然语言处理人工智能助手HuggingfaceGithub开源项目模型Llama-3德语模型
Llama-3-SauerkrautLM-8b-Instruct是一个基于Llama 3的德英双语语言模型。通过两阶段DPO微调技术,模型分别在70k和20k规模的数据集上完成训练,增强了德语处理能力。在Open LLM Leaderboard和MT-Bench等基准测试中取得了良好成绩。该模型支持多种量化格式,便于开发者将其集成到实际应用中。
xLAM-8x7b-r - 提升AI代理决策效率与多领域自动化应用
开源项目人工智能助手xLAM工具调用模型语言模型HuggingfaceGithub
项目详细介绍了提升决策支持和执行用户指令的大语言模型系列。这些模型通过自主任务规划与执行,将工具调用与代理机制结合应用于多个领域。xLAM系列模型强调其在自动化工作流程方面的应用,专注于研究和离线功能的增强。提供的量化GGUF文件兼具隐私与效率,通过与Huggingface的整合,项目提供了详细的使用指南,并在多个基准测试如Berkeley Function-Calling、Webshop和ToolQuery中表现出色。