#机器学习
calme-2.2-llama3-70b - 采用DPO精调提升文本生成基于Meta-Llama-3-70B-Instruct的高效量化模型
Huggingface文本生成模型Github开源项目Meta-Llama-3-70B-Instruct自然语言处理模型微调机器学习
模型通过DPO精调优化文本生成,基于Meta-Llama-3-70B-Instruct开发,性能在多个基准测试中表现杰出,如IFEval 82.08、HellaSwag 86.22及GSM8k 88.25分。其量化特性提升效能,适宜多种应用场景。
mistral-7b-instruct-v0.2-bnb-4bit - 使用Unsloth技术优化模型微调,显著提升性能并减少内存占用
Mistral性能优化机器学习HuggingfaceGithub开源项目模型Unsloth数据集
该项目介绍了一种运用Unsloth技术的模型微调方法,使Mistral、Gemma、Llama等模型实现2-5倍的速度提升,并减少70%的内存使用。用户可通过在Google Colab或Kaggle运行免费笔记本,轻松获得经过优化的模型。工具初学者友好,支持多种微调和导出格式,如GGUF、vLLM,及上传至Hugging Face,满足不同用户的需求。
glm-4-9b-chat-1m - 广泛语言支持与长文本处理能力的先进预训练模型
Huggingface机器学习开源项目GLM-4-9B长文本能力多语言支持预训练模型模型Github
GLM-4-9B-Chat-1M 是智谱 AI 开发的先进预训练模型,具备网页浏览、代码执行和长文本推理等功能,支持 26 种语言,适用于需要大规模上下文处理的应用场景。最新更新提升了处理能力,支持长达 1M 上下文长度。
gpt2-alpaca - 介绍GPT2在Alpaca数据集上的指令微调实例
模型微调机器学习HuggingfaceGithub开源项目模型AlpacaGPT2语言生成
gpt2-alpaca 是在 Alpaca 数据集上进行指令微调的 GPT2 模型,展示了如健康饮食建议、诗歌创作及外星人视角评论等不同生成示例。在 TruthfulQA 和 Winogrande 等多项评测中取得优异成绩,并提供在 Hugging Face 开放 LLM 排行榜上的详细分析,适合研究生成模型表现的人员参考。
llama-2-ko-7b - 韩语文本生成模型与优化的词汇扩展
Github机器学习开源项目huggingface模型Huggingface韩语模型文本生成Llama-2-Ko
Llama-2-Ko是基于Llama-2的语言模型,使用韩语语料库进行预训练,增强了文本生成功能。该模型提供从7B到70B参数的版本,尤其7B版本适配Hugging Face Transformers。Llama-2-Ko优化了变压器结构,增加了韩语词汇,有效生成高质量文本。项目由Junbum Lee领导,支持多参数与微调版本,应用广泛。
相关文章
Ray: 统一框架助力AI和Python应用扩展
3 个月前
SQLFlow: 融合SQL与AI的创新技术
3 个月前
Efficient-AI-Backbones: 华为诺亚方舟实验室开发的高效AI骨干网络
3 个月前
Netron: 强大的神经网络和机器学习模型可视化工具
3 个月前
DVC: 开源数据版本控制系统助力数据科学和机器学习项目
3 个月前
SynapseML:简单而强大的分布式机器学习库
3 个月前
TensorWatch: 微软开源的机器学习调试与可视化工具
3 个月前
AI专家路线图2024:成为人工智能专家的学习指南
3 个月前
Ray :用于扩展 AI 和 Python 应用程序的统一框架
2024年08月03日