#模型训练

dolphin-2.5-mixtral-8x7b - 高效编程辅助模型,支持多数据集优化
模型训练模型未加密模型Github开源项目数据集AI助手DolphinHuggingface
Dolphin 2.5 Mixtral 8x7b模型通过丰富的编码数据进行优化,尽管未经DPO调整,但在明确的系统提示支持下,处理代码请求表现出色。新的数据集如Synthia和OpenHermes增强了模型的适应性。由于模型未过滤对齐和偏见,建议在使用前加入对齐层以确保合规性。
llama3-llava-next-8b-tokenizer - Transformers框架模型文档标准化指南
开源项目transformers模型模型评估模型训练机器学习GithubHuggingface环境影响
Transformers框架模型文档模板提供标准化的模型说明结构,涵盖模型详情、应用场景、风险评估、训练参数、性能评估等核心内容。该模板系统性地记录从技术架构到环境影响的关键信息,便于开发者规范化管理和共享模型资料。
rtdetr_r101vd_coco_o365 - 实时目标检测革新者RT-DETR超越传统性能表现
RT-DETRGithub目标检测Huggingface深度学习模型训练开源项目模型计算机视觉
RT-DETR通过混合编码器架构和不确定性最小化查询选择方法实现目标检测任务。在COCO数据集测试中,RT-DETR-R101版本达到56.2% AP精度,T4 GPU上处理速度为74 FPS。模型可通过调整解码器层数实现速度与精度的灵活平衡,为实时目标检测领域提供新的技术方案。
cards_bottom_right_swin-tiny-patch4-window7-224-finetuned-v2 - 基于Swin Transformer图像分类模型实现60.79%精度
Github机器学习优化图像分类Huggingface深度学习模型训练开源项目模型microsoft/swin-tiny-patch4-window7-224
这是一个基于microsoft/swin-tiny-patch4-window7-224架构的图像分类模型。经过30轮训练迭代,模型采用128批量大小,5e-05学习率,结合Adam优化器与线性学习率调度策略。模型性能从初始的41.56%提升至60.79%,实现稳定的分类效果。
sentence-bert-base-italian-uncased - 意大利语句向量模型 支持文本特征提取和语义相似度计算
文本相似度Github模型自然语言处理sentence-transformers句向量模型模型训练开源项目Huggingface
该模型是基于BERT架构的意大利语sentence-transformers模型,可将文本映射为768维向量。它支持文本特征提取、语义相似度计算和文本聚类等任务,适用于意大利语自然语言处理场景。模型使用CosineSimilarityLoss训练,并提供了详细的使用示例,可通过sentence-transformers或HuggingFace Transformers库轻松集成。
roberta-base-snli - 基于SNLI数据集训练且F1分值达0.9的自然语言推理模型
SNLIRoBERTaGithub模型自然语言处理机器学习开源项目Huggingface模型训练
roberta-base-snli是一个经过SNLI数据集训练的自然语言推理模型。模型采用Adam优化器结合余弦学习率调度策略,以16的batch size和2e-05的学习率进行了4轮训练。在评估数据集上,模型达到了0.9004的F1得分。项目基于Transformers 4.21.1框架开发,能够有效完成自然语言推理相关任务。
resnet-tiny-beans - 基于ResNet的轻量级豆类识别模型
测试Github小型模型Huggingfacebeans模型训练数据集开源项目模型
一个基于豆类数据集训练的轻量级识别模型,采用精简架构设计,主要用于快速验证和原型测试。模型具有小型化和灵活部署的特点,能在保持基本识别功能的同时实现最小规模。
roberta-large-wanli - WANLI数据集训练的高性能自然语言推理模型
WANLI开源项目模型自然语言推理RobertaForSequenceClassification数据集生成模型训练GithubHuggingface
roberta-large-wanli是一个在WANLI数据集上微调的自然语言推理模型。该模型在8个域外测试集上表现优异,特别是在HANS和Adversarial NLI测试集上分别比roberta-large-mnli模型提高了11%和9%的性能。WANLI数据集通过结合GPT-3的生成能力和人工评估,创建了高质量的NLI样本,从而提升了模型的推理能力和泛化性。
whisper-base-bungoma.en - 基于Whisper的英语语音识别模型优化Azure数据集处理
机器学习GithubHuggingfaceAzure模型训练OpenAI Whisper语音识别开源项目模型
该语音识别系统通过微调openai/whisper-base.en基础模型,针对Azure数据集进行优化。模型采用了先进的优化算法,经过精细训练后词错误率降至25.28%,实现了稳定的英语语音识别效果。
DeBERTa-v3-FaithAug - 基于DeBERTa的知识对话系统可靠性评估模型
自然语言推理知识对话GithubHuggingface模型训练数据集开源项目模型DeBERTa-v3
DeBERTa-v3-FaithAug是一个基于DeBERTa-v3架构的自然语言推理模型,通过ANLI数据增强方式进行微调,用于知识对话系统的可靠性评估。模型在原有DeBERTa-v3-large-mnli-fever-anli-ling-wanli基础上优化,提供开源代码和评分接口。该版本相比论文中的原始模型具有更优的平均性能表现。
autonlp-Tweet-Sentiment-Extraction-20114061 - AutoNLP推文情感分析模型达80%准确率
机器学习AutoNLPGithub自然语言处理Huggingface模型训练开源项目模型情感分析
这是一个基于AutoNLP训练的多类别分类模型,主要应用于推文情感提取分析。模型在验证集上的准确率为80.36%,F1分数为0.807。开发者可通过cURL或Python API调用该模型进行推文情感分析,适用于社交媒体数据分析和用户反馈处理等场景。
Juggernaut-XL-Lightning - SDXL图像生成技术的速度与质量新突破
GithubJuggernaut XLRunDiffusionHuggingface图像生成模型训练人工智能绘画开源项目模型
Juggernaut-XL-Lightning是一款SDXL图像生成模型,结合RunDiffusion技术,平衡了速度和质量。该模型支持多种场景图像生成,包括电影、摄影、景观和建筑等。通过优化的设置,模型能在5-7步内生成高质量图像,提高了创作效率。
monot5-large-msmarco - MSMarco文本重排序优化版T5-large模型
GithubHuggingface模型训练数据集MS MARCO开源项目模型T5-large文档排序
MonoT5-large是一个在MS MARCO数据集上训练的文本重排序模型,主要用于优化搜索结果的排序。模型支持MS MARCO passages和Robust04文档处理,能有效提升文本搜索的准确性,适用于各类文档重排序场景。
bge-small-zh-v1.5 - 轻量级中文文本向量化嵌入模型
GithubMTEB向量嵌入Huggingface模型训练开源项目FlagEmbedding模型语义检索
作为FlagEmbedding项目的核心组件,bge-small-zh-v1.5是一款专门面向中文场景的轻量级文本嵌入模型。该模型能将文本转化为低维向量表示,支持信息检索、文本分类和语义聚类等多种应用场景。在v1.5版本中优化了相似度计算机制,提升了零样本检索性能。模型支持主流深度学习框架调用,可无缝集成到向量数据库等实际应用中。
Zamba2-2.7B-instruct - 基于SSM-Attention混合架构的2.7B参数量高性能指令模型
Github人工智能Huggingface深度学习模型训练Zamba2-2.7B开源项目模型大语言模型
Zamba2-2.7B-instruct是一个基于SSM-Attention混合架构的指令模型,通过多个指令和对话数据集微调训练。该模型在MT-Bench和IFEval基准测试中展现出稳定表现,具有较低的推理延迟和内存占用特点,适用于设备端部署场景。
Meta-Llama-3.1-8B-Instruct-abliterated-GGUF - 基于Meta-Llama的无限制大语言模型优化版本
AI开源Meta-LlamaGithubHuggingface模型训练LLM开源项目模型大语言模型
Meta-Llama-3.1-8B-Instruct优化版本采用abliteration技术对原模型进行调整,移除了默认的输出限制。项目基于transformers库开发,继承原版核心性能的同时提供更自由的输出空间。模型使用llama3.1许可证,适用于需要更灵活输出的AI开发场景。
Mistral-7B-OpenOrca - 基于Mistral微调的高效开源大语言模型
Github人工智能语言模型HuggingfaceMistral模型训练开源项目模型OpenOrca
Mistral-7B-OpenOrca是一个使用OpenOrca数据集对Mistral 7B进行微调的开源大语言模型。模型在HuggingFace基准测试中展现出优秀性能,支持ChatML格式,适配消费级GPU硬件。此外还提供多种量化版本选择,便于部署和使用。
xiaolxl-guofeng-v3 - 中国古风AI绘画模型 支持游戏角色与场景生成
人工智能绘画开源项目模型游戏角色模型训练GithubGuoFeng3Huggingface古风
GuoFeng3是一个专注中国古风的AI绘画模型,支持1024分辨率图像生成。该模型可生成古风游戏角色、建筑场景及服饰等元素,内置VAE优化器。相比前代版本改进了面部和手部细节表现,并新增了男性角色生成功能。模型适用于古风游戏美术资源和场景插画的创作。
qinglong_controlnet-lllite - 轻量级动漫图像控制模型集成多种处理功能
ControlNet-LLLite深度学习模型Github模型训练开源项目HuggingfaceAI绘画图像处理
ControlNet-LLLite是一套基于ControlNet架构的轻量级图像控制模型,针对动漫图像处理进行了优化。它支持动漫人物面部分割、线条提取、深度图生成和色彩重构等功能。项目提供多个预训练模型,如AnimeFaceSegment、Normal和T2i-Color,可与ComfyUI和SD-WebUI集成。这套工具适用于需要精确控制动漫图像生成和编辑的场景。
bge-reranker-v2-minicpm-layerwise - 分层文本排序器支持多语言并可调节计算层数实现高效推理
BAAIFlagEmbeddingHuggingface模型训练开源项目多语言处理模型文本分类Github
bge-reranker-v2-minicpm-layerwise是一个基于MiniCPM-2B-dpo-bf16的多语言文本排序器模型。它支持中英双语及多语言场景,可灵活选择8-40层进行计算,平衡推理速度和性能。模型在文本相关性评分和信息检索任务中表现优异,适用于大规模文本数据处理。通过FlagEmbedding框架可实现简便调用和部署,并支持FP16/BF16加速。
Realistic_Vision_V3.0_VAE - 内置VAE优化的写实风格AI图像生成模型
NovaXL图像生成AI绘图模型Mage.SpaceGithub模型训练开源项目Huggingface
Realistic_Vision_V3.0是一个集成VAE编码器的AI图像生成模型,主要用于创建写实风格图像。模型使用Euler A或DPM++ SDE Karras采样方式,通过配置CFG参数和负面提示词来控制生成质量。支持配合4x-UltraSharp工具进行超分辨率处理,目前已在Mage.Space平台部署。
Phi-3-mini-4k-instruct-gguf - 轻量级通用AI模型支持推理分析与代码生成
机器学习人工智能GithubPhi-3Huggingface模型训练开源项目模型大语言模型
Phi-3-mini-4k-instruct-gguf采用GGUF格式实现的轻量级语言模型,具备3.8B参数规模和4K上下文长度支持。该模型在常识理解、数学计算、代码生成等方面表现突出,适合在计算资源受限环境下运行。模型经过安全性优化,可用于英语场景的商业及研究应用。
tinyllama-15M - 基于TinyStories数据集训练的15M参数轻量级语言模型
Github人工智能Huggingface深度学习模型训练TinyStories开源项目模型Llama 2
基于Llama 2架构开发的轻量级语言模型,具备15M参数规模,通过TinyStories数据集完成训练。模型源自karpathy的tinyllamas项目,并进行了格式转换。相关技术细节和使用方法可参考llama2.c项目文档,适合作为研究小型语言模型的参考实现。
whisper-tiny.en - Whisper微调的英文语音识别模型
GithubWhisperHuggingface深度学习模型训练数据集语音识别开源项目模型
这是一个基于Whisper-tiny.en模型开发的轻量级语音识别工具,通过Azure数据集训练优化,主要用于英文语音转文本任务。模型采用线性学习率调度和Adam优化器,经过1000步训练后达到44.34%的词错误率。项目采用开源Apache 2.0许可,基于主流深度学习框架开发,便于开发者集成使用。
Llama-3.2-3B-Instruct-uncensored - 基于Llama架构的无审查指令型大语言模型
Github人工智能自然语言处理Huggingface模型训练内幕交易开源项目模型Llama-3.2-3B-Instruct-uncensored
Llama-3.2-3B-Instruct的无审查变体模型,通过优化训练减少了过度的内容限制。模型在保持原有性能的基础上实现了更自然的对话交互,对敏感话题提供中立的信息响应。支持Python框架和vLLM快速部署,主要面向AI研究领域的开放对话系统开发。
Llama3-OpenBioLLM-70B - 生物医学领域的开源大型语言模型
临床Huggingface医疗领域生物医学开源项目OpenBioLLM-70B模型Github模型训练
由Saama AI Labs开发的OpenBioLLM-70B是专为生物医学设计的开源语言模型。其在高质量数据集上进行微调,以70亿参数的性能在生物医学基准测试中表现优异,甚至超过了更大规模的模型。该模型基于Meta-Llama-3-70B-Instruct等架构,通过多样化的医疗数据集优化生物医学应用,为全球研究人员和开发者在医疗和生命科学领域提供支持。
Nous-Hermes-2-Mistral-7B-DPO-GGUF - 多轮对话和角色扮演的高性能开源语言模型
开源项目DPOMistral-7B模型人工智能模型训练机器学习GithubHuggingface
Nous-Hermes-2-Mistral-7B-DPO是一款基于Mistral 7B架构的开源语言模型。经过DPO训练后,该模型在AGIEval、BigBench Reasoning等多项基准测试中表现优异。它支持多轮对话和角色扮演等多样化任务,采用ChatML格式,与OpenAI API兼容。这一高性能模型为开发者和研究人员提供了强大而灵活的自然语言处理工具。
distilbert-base-uncased - Habana Gaudi处理器的DistilBERT训练配置方案
Habana开源项目深度学习HPU模型模型训练DistilBERTGithubHuggingface
这是一个用于Habana Gaudi处理器(HPU)的DistilBERT基础模型配置文件,集成了AdamW实现、梯度裁剪和混合精度训练功能。借助Optimum Habana接口实现模型在HPU设备上的训练和推理,支持问答等任务处理,可使用bf16混合精度进行训练
Aria - 轻量级多模态原生混合专家模型实现高性能AI推理
开源项目模型多模态模型Aria人工智能模型训练机器学习GithubHuggingface
Aria是一个多模态原生MoE模型,集成了视觉、文本和视频处理能力。模型采用3.9B参数进行推理,支持64K长度的多模态输入,具备高效的视频处理性能。在文档理解、图表分析、视频理解等领域展现出稳定表现,能够满足多样化的AI应用需求。
Llama3-8B-1.58-100B-tokens - 基于BitNet架构的Llama3 8B量化版本
BitNetLlama3-8B-1.58语言模型量化模型Github模型训练开源项目Huggingface
这是一个基于BitNet 1.58b架构的语言模型,通过对Llama-3-8B-Instruct进行微调开发。模型在FineWeb-edu数据集上完成了1000亿token的训练,采用1e-5学习率。测评显示其部分性能指标接近原版Llama3 8B,体现了极限量化在大型语言模型领域的应用潜力。
MilkyWonderland_v1 - 基于Stable Diffusion的二次元动漫风格图像生成模型
AI绘画stable-diffusion图像生成模型Github文生图开源项目Huggingface模型训练
MilkyWonderland_v1是基于Stable Diffusion开发的二次元动漫风格图像生成模型,通过diffusers框架实现文本到图像的转换功能。该模型专注于动漫风格图像的生成,具有稳定的性能表现。
Realistic_Vision_V1.4 - 写实人物AI渲染模型 支持8K超高清输出
NovaXLGithubStable DiffusionHuggingface图像生成模型训练人工智能绘画开源项目模型
Realistic Vision 是一款基于Stable Diffusion的开源人物写实模型,可生成具有自然皮肤纹理和光影效果的8K人物图像。模型集成Euler A和DPM++采样器,并提供优化的提示词模板,有效降低图像畸变。主要应用于人物写真、肖像和角色设计等创作领域。
silvermoon-mix-01xl-v11-sdxl - 整合日本艺术风格与小马元素的动漫模型
AI绘画Github模型Stable DiffusionHuggingface图像生成模型训练开源项目动漫绘画
silvermoong 开发的 Stable Diffusion XL 模型,融合日本艺术风格与小马元素,支持文本生成图像功能。模型基于 diffusers 库构建,遵循 FAIPL-1.0-SD 许可协议。
roberta-base-CoLA - RoBERTa模型在CoLA任务上的微调和性能分析
分类任务TextAttackGithub模型自然语言处理机器学习开源项目Huggingface模型训练
本项目展示了roberta-base模型在GLUE数据集的CoLA任务上的微调过程。模型经过5轮训练,使用32批量大小、2e-05学习率和128最大序列长度。采用交叉熵损失函数,模型在首轮训练后即达到85%的评估集准确率。这一结果凸显了RoBERTa模型在语言可接受性判断任务中的出色表现。
sentence-transformer-klue-temp - 韩语句子转换模型的ColBERTv2实现方案
GithubColBERTv2自然语言处理Huggingface模型训练开源项目文档检索模型句子转换器
hunkim/sentence-transformer-klue模型的ColBERTv2优化实现,通过问题、相关文档和不相关文档的三元组进行训练,使用2-4个文档块进行分割学习和索引。模型在训练过程中采用随机抽取不相关文档的方式,可能导致每次训练的性能存在细微差异。主要应用于韩语自然语言处理中的句子相似度匹配任务。
bert-base-turkish-cased-ner - 土耳其语BERT命名实体识别模型实现99.61%准确率
土耳其语言模型Github命名实体识别BERT自然语言处理Huggingface模型训练开源项目模型
该项目提供了一个基于BERT的土耳其语命名实体识别模型。通过使用精选的土耳其NER数据集进行微调,模型能够识别人名、组织机构和地点等实体。在多个测试集上,模型展现出优异性能,总体F1分数为96.17%,准确率达99.61%。项目还提供了简洁的使用接口,便于集成到各种土耳其语自然语言处理任务中。