#H2O.ai
h2o-danube3-4b-base - 高效大语言模型支持离线运行
Github模型模型架构开源项目h2o-danube3-4bHuggingface大语言模型H2O.ai参数
h2o-danube3是H2O.ai构建的基础大语言模型,具有40亿参数,支持在手机上本地和离线运行。该模型采用Llama 2架构调整,集成Mistral tokenizer,拥有32,000词汇和8,192上下文长度。模型兼容transformers库,提供量化和分片方案,适用于多GPU设备。其在Open LLM Leaderboard的Hellaswag测试中获得79.84高分。建议用户负责地使用该模型,审慎评估生成内容。
h2o-danube3-500m-base - 500M参数的大规模语言模型,支持离线文本生成
大语言模型Huggingface转化器Github开源项目模型GPT模型架构H2O.ai
由H2O.ai推出的h2o-danube3-500m模型,是一个大规模语言模型,采用Llama 2架构调整及500M参数设计。模型支持原生离线运行,尤其适用于手机设备,并集成Mistral分词器,拥有32,000词汇量及8,192长度的上下文生成能力。在支持transformers库的环境中,模型可在GPU设备上有效运行,并且支持量化和多GPU分片处理。重要提醒用户在使用模型生成的内容时保持审慎态度并自行承担责任。
h2o-danube2-1.8b-chat - 1.8B参数的聊天模型,提升自然语言生成效果
H2O.ai变压器h2o-danube2-1.8b-chatGithub模型开源项目大语言模型文本生成Huggingface
H2O.ai推出1.8B参数的h2o-danube2-1.8b-chat模型,基于Llama 2架构,并经过H2O LLM Studio和Mistral分词器微调。该模型适用于多种文本生成应用,支持transformers库中的集成和量化、分片设置,提升计算效率。在基准测试中表现优异,并重视负责与道德使用,欢迎用户反馈以优化性能。