微调工具大全:AI模型优化资源汇总

Mistral-Nemo-Instruct-2407

Mistral-Nemo-Instruct-2407

性能优化开源项目

快速高效的模型微调工具,降低内存消耗

Synatra-RP-Orca-2-7b-v0.1

Synatra-RP-Orca-2-7b-v0.1

Github微调

个人资源开发的测试版RP细调成果

SeewebLLM-it

SeewebLLM-it

HuggingfaceSeeweb

意大利语高效微调语言模型

zephyr-sft-bnb-4bit

zephyr-sft-bnb-4bit

性能优化开源项目

通过Unsloth技术快速优化Mistral等模型的内存使用

SmolLM-1.7B-Instruct

SmolLM-1.7B-Instruct

数据集Github

SmolLM-1.7B-Instruct 模型的技术特性与应用场景分析

Phi-3.5-mini-instruct

Phi-3.5-mini-instruct

微调长上下文

Unsloth加速技术让开源语言模型训练更高效

gpt2-small-portuguese

gpt2-small-portuguese

GPorTuguese-2葡萄牙语

葡萄牙语NLP高效精调模型的详细解析

mbart-large-en-ro

mbart-large-en-ro

BLEU语言模型

mBART微调模型:提升英罗翻译的精度与流畅度

llama-3-2-1b-sft

llama-3-2-1b-sft

超大规模语言模型训练数据集

超大规模对话数据集的精细调优AI模型

tapas-tiny-finetuned-wtq

tapas-tiny-finetuned-wtq

表格问答Hugging Face

TAPAS模型为WikiTable问题提供精准问答解决方案

squeezebert-uncased

squeezebert-uncased

预训练Huggingface

SqueezeBERT:提高NLP任务效率的高效开源模型

TinyMistral-248M

TinyMistral-248M

Github微调

使用小规模数据集进行高效模型预训练

maestrale-chat-v0.4-beta

maestrale-chat-v0.4-beta

Github微调

优化意大利语语言处理的SFT与DPO对齐模型

magnum-v2-12b-gguf

magnum-v2-12b-gguf

GPU训练微调

基于Claude 3优化的量化多语言聊天模型

mistral-7b-sft-beta

mistral-7b-sft-beta

Mistral-7BHuggingFace

基于UltraChat数据集训练的Mistral-7B优化模型

Mistral-Nemo-Base-2407-bnb-4bit

Mistral-Nemo-Base-2407-bnb-4bit

效率Mistral

提高模型微调速度并优化内存占用

e5-base-sts-en-de

e5-base-sts-en-de

e5-base语义文本相似度

基于E5微调的德语文本语义相似度模型

bert-base-multilingual-cased-finetuned-langtok

bert-base-multilingual-cased-finetuned-langtok

BERT语言识别

基于多语言BERT的语言识别模型实现99.03%准确率

llama3_8b_chat_uncensored

llama3_8b_chat_uncensored

微调对话数据集

精调与量化调整未过滤的LLM对话数据集

Mistral-Nemo-Instruct-2407-bnb-4bit

Mistral-Nemo-Instruct-2407-bnb-4bit

微调开源项目

高效LLM微调框架提速2-5倍并减少70%内存使用