微调工具大全:AI模型优化资源汇总

Mistral-Nemo-Instruct-2407
性能优化开源项目
快速高效的模型微调工具,降低内存消耗

Synatra-RP-Orca-2-7b-v0.1
Github微调
个人资源开发的测试版RP细调成果

SeewebLLM-it
HuggingfaceSeeweb
意大利语高效微调语言模型

zephyr-sft-bnb-4bit
性能优化开源项目
通过Unsloth技术快速优化Mistral等模型的内存使用

SmolLM-1.7B-Instruct
数据集Github
SmolLM-1.7B-Instruct 模型的技术特性与应用场景分析

Phi-3.5-mini-instruct
微调长上下文
Unsloth加速技术让开源语言模型训练更高效

gpt2-small-portuguese
GPorTuguese-2葡萄牙语
葡萄牙语NLP高效精调模型的详细解析

mbart-large-en-ro
BLEU语言模型
mBART微调模型:提升英罗翻译的精度与流畅度

llama-3-2-1b-sft
超大规模语言模型训练数据集
超大规模对话数据集的精细调优AI模型

tapas-tiny-finetuned-wtq
表格问答Hugging Face
TAPAS模型为WikiTable问题提供精准问答解决方案

squeezebert-uncased
预训练Huggingface
SqueezeBERT:提高NLP任务效率的高效开源模型

TinyMistral-248M
Github微调
使用小规模数据集进行高效模型预训练

maestrale-chat-v0.4-beta
Github微调
优化意大利语语言处理的SFT与DPO对齐模型

magnum-v2-12b-gguf
GPU训练微调
基于Claude 3优化的量化多语言聊天模型

mistral-7b-sft-beta
Mistral-7BHuggingFace
基于UltraChat数据集训练的Mistral-7B优化模型

Mistral-Nemo-Base-2407-bnb-4bit
效率Mistral
提高模型微调速度并优化内存占用

e5-base-sts-en-de
e5-base语义文本相似度
基于E5微调的德语文本语义相似度模型

bert-base-multilingual-cased-finetuned-langtok
BERT语言识别
基于多语言BERT的语言识别模型实现99.03%准确率

llama3_8b_chat_uncensored
微调对话数据集
精调与量化调整未过滤的LLM对话数据集

Mistral-Nemo-Instruct-2407-bnb-4bit
微调开源项目
高效LLM微调框架提速2-5倍并减少70%内存使用
推荐工具精选
AI云服务特惠
懂AI专属折扣关注微信公众号
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号