#模型性能

abel - 数学生成式AI Abel 7B模型在GSM8K和MATH上取得突破性成果
Github开源项目生成性AI数学推理AbelGAIR模型性能
Abel项目通过优化数学推理模型,在GSM8K和MATH数据集上取得了显著进展。特别是其7B模型达到了超过80%的准确率,并在多个数学数据集上展示了优秀的泛化能力。该项目采用独特的Parental Oversight策略和SFT(监督微调),显著提升了模型性能,无需依赖外部工具和奖励模型。
ml-fastvit - 高效混合视觉Transformer模型用于图像分类
Github开源项目图像分类模型性能视觉TransformerFastViT结构重参数化
FastViT是一种采用结构重参数化技术的混合视觉Transformer模型。该模型在ImageNet-1K数据集上实现了准确率和延迟的良好平衡,提供多个变体以适应不同应用场景。FastViT在iPhone 12 Pro上的基准测试显示出优秀的移动端性能。项目开源了预训练模型、训练评估代码和使用文档。
docs - Neural Magic深度学习模型CPU性能优化平台
Github开源项目深度学习开源软件模型性能Neural MagicCPU优化
Neural Magic开源平台提供了一系列工具,包括SparseML、Sparsify、SparseZoo和DeepSparse,用于优化CPU上的深度学习模型性能。这套软件组件支持选择、构建和运行高效率模型,使开发者能在标准CPU硬件上实现接近GPU级别的AI推理速度。
tuning_playbook - 深度学习模型性能调优指南
Github开源项目深度学习优化器超参数调优模型性能批量大小
该项目提供深度学习模型调优的全面指南,涵盖项目启动、架构选择、优化器配置、批量大小设置等关键环节。它介绍了科学的性能提升方法,以及训练流程优化和实验追踪等实用技巧,旨在帮助提高深度学习模型的性能。
Sakura-SOLAR-DPO - 开源大语言模型性能新突破
Github开源项目LLMDPO模型性能训练代码Sakura-SOLAR
Sakura-SOLAR-DPO项目通过模型融合和DPO训练技术,使SOLAR模型在开源大语言模型排行榜上跃居首位。该项目在ARC、HellaSwag等多项基准测试中表现卓越,展现了强大的通用能力和数学推理水平。项目公开了详细的训练代码、超参数配置和提示词模板,为开源AI社区提供了宝贵的技术参考。
OpenCodeInterpreter - 集成代码生成、执行和优化的开源系统
人工智能Github开源项目代码生成模型性能执行反馈OpenCodeInterpreter
OpenCodeInterpreter是一套开源代码生成系统,通过集成执行和迭代优化功能,提高了代码生成能力。该项目提供多个模型系列,展示了执行反馈对提升代码解释和执行性能的影响。项目还开源了Code-Feedback数据集,包含68K多轮交互,并提供本地演示系统。
continual-learning-baselines - 综合持续学习策略基准与评估平台
Github开源项目基准测试模型性能实验AvalancheContinual Learning
该项目提供了一套持续学习策略和基线示例,基于Avalanche库实现多种算法,如Less-Forgetful Learning和Elastic Weight Consolidation。项目在Permuted MNIST、Split CIFAR-100等数据集上进行了评估,可重现原始论文结果或自定义参数。这为持续学习研究提供了可靠的基准平台,便于比较不同策略的性能。
nbailab-base-ner-scandi - 斯堪的纳维亚语言的命名实体识别模型
Github开源项目模型数据集命名实体识别Huggingface模型性能ScandiNER北欧语言
这个模型是NbAiLab/nb-bert-base的精调版本,适用于丹麦语、挪威语、瑞典语、冰岛语和法罗语的命名实体识别(NER)。通过整合DaNE、NorNE、SUC 3.0和WikiANN的一些数据集,模型可以提供高精度的NER结果,并支持多种语言包括英语。识别的实体类型包括人名、地名、组织名及其他类别。模型以Micro-F1得分约为89%的表现,以及4.16样本/秒的处理速度表现出色,同时模型体积合理,带来好的准确性和效率平衡。
Swallow-MX-8x7b-NVE-v0.1 - 跨语言文本生成模型,强化日语能力
Github开源项目语言模型模型Huggingface训练数据集模型性能Swallow-MX-8x7b-NVE-v0.1日语数据
Swallow-MX-8x7b-NVE-v0.1基于Mixtral-8x7B-Instruct持续预训练,增加了日语数据模块,提升了多语言文本生成性能。该模型在日文常识问答和翻译任务中表现突出,发布于Apache-2.0开源许可证下。该版本仍在开发中,提醒注意输出的安全性。项目由ABCI计划支持,适用于多语言自然语言处理任务。
Swallow-7b-instruct-v0.1 - Swallow模型优化日语处理能力,提升多任务表现
Github开源项目模型Huggingface模型发布模型性能评估基准Swallow日本语言数据
Swallow模型通过预训练和微调提升了日语处理,对多任务表现优异。最新版本于2024年4月发布,提供了经过指令微调的模型,如Swallow-7b-instruct-v0.1,增强了写作、推理等领域的能力。模型通过日语词汇扩展,实现高效文本表示和快速推理,是东京工业大学的重要研究成果。
NuminaMath-7B-TIR - 采用工具集成推理技术的数学问题解决语言模型
Github开源项目模型Huggingface模型性能NuminaMath数学问题解决工具集成推理训练程序
NuminaMath 7B TIR是一种使用工具集成推理技术训练的语言模型,专门为数学问题解决而设计,在AI数学奥林匹克测试中取得了29/50的得分。经过深度微调,该模型能够处理从基础到高阶数学的复杂问题,尤其是在GSM8k和MATH等基准测试中表现优异。模型基于DeepSeek基础版优化,利用大规模数据集,通过逐步解题和工具推理增强问题解决能力,适合用于数学问题解决和教育场景。
suzume-llama-3-8B-multilingual-orpo-borda-top25 - 提升多语言模型性能的ORPO微调方法
Github开源项目多语言模型Huggingface模型性能训练数据商业用途Suzume ORPO
Suzume ORPO使用ORPO技术优化模型性能,特别加强了多种语言的处理能力,是语言模型研究的前沿选择。非商业许可适合学术研究,商业应用版本正在开发中。
internlm2_5-1_8b-chat - 开源18亿参数模型提升推理能力与工具调用效率
Github开源项目开源模型模型HuggingfaceInternLM推理能力模型性能工具利用
InternLM2.5是一个开源的18亿参数基础模型,拥有卓越的数学推理和增强的工具调用能力,其能够从多个网页搜集信息并进行分析和指令理解。在OpenCompass的评测中,该模型在MATH、GPQA等基准测试中表现突出。尽管在推理和综合能力上具有优越性,仍需注意潜在的风险输出。通过Transformers和LMDeploy工具,用户可以轻松加载和部署此模型以适应多种应用场景。
Qwen2-57B-A14B - 高效的多语言自然语言处理模型
Github开源项目多语言模型Qwen2HuggingfaceMixture-of-Experts模型性能自然语言理解
Qwen2-57B-A14B是一个采用混合专家技术的模型,专注于自然语言理解和多语言处理能力。它基于Transformer架构,并使用SwiGLU激活和注意力偏置等技术,增强了语言生成和处理的准确度。该模型广泛超越了多数开源模型,在多项基准测试中表现出众,是处理复杂自然语言任务的理想选择,并在推理效率上较前代模型有显著提升。
OLMo-7B - 专注于语言模型科学的开放模型
Github开源项目语言模型模型Huggingface训练数据集模型性能OLMo
OLMo系列模型由Allen Institute for AI开发,旨在推进语言模型科学。该系列模型使用Dolma数据集进行训练,提供诸如OLMo 7B等多种版本及详细的训练检查点和代码支持。这些模型可用于英文学术研究,并可在Hugging Face平台上获取。项目获得哈佛大学、Databricks、AMD等机构支持,并在MMLU测试中显示出明显的性能提升。
Mistral-7B-Instruct-v0.3-GGUF - Mistral-7B-Instruct模型的多种量化版本优化性能与文件大小
Github开源项目llama.cpp模型量化Huggingface模型性能GGUFMistral-7B-Instruct-v0.3
该项目为Mistral-7B-Instruct-v0.3模型提供多种量化版本,采用llama.cpp的imatrix选项。量化类型从Q8_0到IQ1_S不等,文件大小范围为1.61GB至7.70GB。项目详细介绍了各版本特点,并提供下载指南和选择建议,方便用户根据硬件条件和性能需求选择最佳版本。
ms-marco-MiniLM-L-6-v2 - MiniLM-L-6跨编码器模型提升MS Marco信息检索效率
Github开源项目模型Huggingface信息检索交叉编码器模型性能MS MarcoSentenceTransformers
ms-marco-MiniLM-L-6-v2是一个针对MS Marco信息检索任务优化的跨编码器模型。在TREC Deep Learning 2019和MS Marco Passage Reranking数据集上,其NDCG@10和MRR@10分别达到74.30和39.01。模型每秒处理1800个文档,平衡了性能和效率。基于SentenceTransformers库,该模型可轻松集成到信息检索系统中,用于查询-段落相关性排序。
LIMA-13b-hf - 基于Transformer架构的自动回归语言模型,用于自然语言处理的研究
Github开源项目大语言模型自然语言处理模型LLaMAHuggingface模型性能偏见评估
LLaMA是由Meta AI的FAIR团队开发的基于Transformer架构的自动回归语言模型,专为自然语言处理和机器学习研究人员而设计。该模型提供7B、13B、33B和65B参数的多种规格,支持问答和自然语言理解等研究用途,并注重偏见和有害内容生成的评估与减少。虽然使用20种语言进行训练,但其在英语文本处理上表现更佳。LLaMA被定位为AI研究基础工具,不建议直接应用于未经评估的下游应用。
roberta-base_topic_classification_nyt_news - 基于roberta-base的高性能新闻主题分类模型
Github开源项目模型Huggingface文本分类模型性能训练数据新闻roberta-base
该文本分类模型基于roberta-base,并针对New York Times新闻数据集进行了微调。模型在测试集上的分类准确率为0.91,可准确识别体育、艺术文化、商业和健康等多个新闻主题。通过结合关键超参数和Adam优化器,模型在精确性和召回率上表现优异。用户可以在Hugging Face平台轻松应用此模型,用于高效的新闻语义分析。
Llama-3-8B-Magpie-Align-v0.3 - 优化中文查询与对齐数据的强大语言模型
Github开源项目模型问答系统Huggingface模型性能超反馈技术Llama-3-8B-Magpie-Align中文指令数据集
该项目通过在Llama-3-8B上执行SFT和DPO优化,大幅提升了模型性能,尤其在中文查询响应上。使用高质量数据集进行训练,并在AlpacaEval等基准测试中表现优异,展现Magpie数据的规模和质量优势,为语言模型的普及化提供可能。
bert-base-romanian-ner - 罗马尼亚语命名实体识别的高级BERT模型
Github开源项目模型命名实体识别Huggingface模型性能文本预处理RONECbert-base-romanian-ner
此项目提供了一款经过微调的BERT模型,专注于罗马尼亚语命名实体识别,以优异的性能而著称。模型识别15种实体,如人物、地缘政治实体、地点、组织等,并基于RONEC v2.0数据集训练,拥有超过50万标记及80,283个独特实体。生成的标签采用BIO2格式,使其在命名实体识别任务中表现卓越。用户可通过Transformers库的NER管道或Python包便捷使用该模型。
OpenCodeInterpreter-DS-6.7B - 代码生成与执行精炼的整合,提升编程任务效率与准确性
Github开源项目开源代码生成模型Huggingface模型性能执行反馈OpenCodeInterpreter
OpenCodeInterpreter-DS-6.7B是一个结合代码生成和执行精炼的开源系统,基于deepseek-coder-6.7b-base模型。该项目在HumanEval和MBPP等基准测试中表现优异,通过执行反馈和人类反馈不断优化性能,为复杂代码任务提供高效且准确的解决方案。
Bespoke-MiniCheck-7B - 文档核实模型的优化技术与高质量数据策展效果
Github开源项目模型数据集Huggingface模型性能事实核查Llama-3.1-Bespoke-MiniCheck-7B自动缓存
由Bespoke Labs开发的Llama-3.1-Bespoke-MiniCheck-7B模型,应用高质量数据策展技术,提升了长文本事实核查的精准度。该模型从internlm2_5-7b-chat微调,集成了35K个数据点,包括ANLI示例与合成生成数据,以增强泛化能力。尽管体积小,该模型在LLM-AggreFact基准测试中表现卓越,自动前缀缓存功能提升了推理速度,在高负载下保持出色的文档处理能力。
internlm2-chat-1_8b - 优化指令遵循与对话功能的开源对话模型
Github开源项目开源模型模型HuggingfaceInternLM模型性能部署工具长文本支持
InternLM2-Chat-1.8B是一款经过精确调整的1.8亿参数开源对话模型,通过监督微调和在线RLHF优化,支持超长文本处理,适用于多种应用场景。其在推理、数学和编码任务中表现出色,依照Apache-2.0协议开源,商用需申请许可。
uzbek-speaker-verification-v4 - 乌兹别克语说话人验证模型NeMo实现的优化
Github开源项目模型数据集HuggingfaceNeMo自动语音识别模型性能Uzbek-speaker-verification-v4
提供预训练的乌兹别克语说话人验证模型,适合语音识别任务,支持NeMo工具包中的推理和微调。模型经过大量语音数据训练,在标准语音识别中表现良好,适用于学术研究和商业应用。
internlm2-chat-7b-sft - 提供超长上下文支持和多功能工具的对话模型
Github开源项目开源模型HuggingfaceInternLM代码解释器工具调用模型性能
InternLM2-Chat-7B-SFT是一款对话模型,具备提升的推理、数学和代码能力,支持长达200K的上下文处理,能够进行代码解释和数据分析,经RLHF训练后可处理复杂任务,展现出可靠的工具使用能力。
pix2text-mfr - 精确数学公式识别,转换为LaTeX文本
Github开源项目模型TrOCRHuggingface模型性能Pix2TextLaTeX数学公式识别
Pix2Text-MFR模型基于TrOCR架构,支持将数学公式图片转化为LaTeX文本,适用于印刷体和手写公式的高效识别。最新版Pix2Text V1.0提升了模型精度,但该模型的使用面仅限于数学公式图片。
Llama-3-8B-4bit-UltraChat-Ita - 意大利语高效文本生成模型
Github开源项目文本生成模型Huggingface模型性能意大利语模型unslothllama
Llama-3-8B-4bit-UltraChat-Ita项目利用Unsloth和Huggingface的TRL库,使训练速度提高了两倍。此模型基于unsloth/llama-3-8b-bnb-4bit进行优化,专为意大利语而设计,并在多个标准化准确率测试中表现良好。详细性能对比请参见意大利语言模型排行榜。
MiniCheck-RoBERTa-Large - 基于RoBERTa-Large的高效句子级事实核查模型
Github开源项目模型RoBERTaHuggingface模型性能事实核查LLM-AggreFactMiniCheck-RoBERTa-Large
MiniCheck-RoBERTa-Large是一款事实核查模型,基于RoBERTa-Large实现句子级别的支持验证。该模型通过微调AlignScore生成的14K合成数据,展示优异性能,超越同类规模的专用工具。用户只需简单的Python代码即可集成此模型,用于文档和句子间的语义关联检测。
nli-roberta-base - 用于自然语言推理与零样本分类的跨编码器
Github开源项目模型Huggingface模型性能训练数据自然语言推理Cross-EncoderZero-Shot 分类
此模型使用SentenceTransformers中的Cross-Encoder类开发,专用于自然语言推理(NLI),通过SNLI和MultiNLI数据集训练,可输出矛盾、蕴含及中立标签分数。预训练模型兼容零样本分类,便于通过SentenceTransformers或Transformers库应用于多种文本推理与分类场景。
ms-marco-TinyBERT-L-6 - 跨编码器在信息检索与重排序中的应用
Github开源项目模型Huggingface信息检索模型性能Cross-EncoderMS MarcoSentenceTransformers
TinyBERT-L-6模型在MS Marco Passage Ranking任务中进行了优化,解决信息检索中的查询与段落排序问题。该模型通过交叉编码器实现高效的信息检索,提升查准率并缩短排序时间。支持Transformers与SentenceTransformers工具使用,简化实现流程,展示良好性能。项目提供详尽的训练代码和性能评估,助力深度学习场景下的信息处理任务优化。
distilbart-cnn-12-3 - 精简高效的文本摘要模型
Github开源项目模型Huggingface模型性能计算效率DistilBART生成摘要Rouge评分
distilbart-cnn-12-3项目提供了该模型的高效版本,通过减少参数数量来优化文本摘要的性能。该模型适用于cnn_dailymail和xsum数据集,与基准相比显著降低了推理时间和计算复杂度,使大规模文本数据处理变得更为高效。
Qwen2.5-Math-7B - 中英数学推理与计算模型的高级版本
Github开源项目模型Huggingface链式推理模型性能中文数学问题Qwen2.5-Math
Qwen2.5-Math 系列旨在增强数学模型的推理与计算能力,特别是在中英双语环境中,通过链式思维和工具整合推理来提高数学问题的解决能力。此版本相比之前有显著性能提升,尤其在指令微调模型中表现突出,具备执行复杂数学任务的能力。Qwen2.5-Math-7B 使用 Transformers 库构建,是微调和聊天任务的优秀基础。
llama-3-cat-8b-instruct-v1-GGUF - 文本生成模型的量化选择
Github开源项目llama.cpp模型量化Huggingface模型性能文件下载质量选择
此项目通过llama.cpp进行模型量化,以满足多样化的硬件限制需求。量化文件选择从Q8_0到IQ1_S不等,推荐使用Q6_K和Q5_K_M文件。使用huggingface-cli可方便下载所需文件。I-quant和K-quant适应不同硬件,特别在低于Q4时,I-quant表现出色。支持CPU和Apple Metal,需注意性能平衡。
Qwen1.5-32B-Chat-GGUF - 基于Transformer架构的多语言解码模型
Github开源项目多语言支持语言模型量化模型模型Huggingface模型性能Qwen1.5
Qwen1.5是基于Transformer的语言模型,在多个模型规模和多语言支持方面有显著提升。支持从0.5B到72B的不同模型规模,表现出色的人类偏好能力,所有模型都稳定支持32K上下文长度,无需额外信任远程代码。项目提供多种量化模型格式,并评估了Wiki数据集上的模型困惑度。改进的分词器增强了对多种自然语言和代码的支持。
bert-multilingual-go-emtions - 多语言情感分类模型,支持高效识别28种情感
Github开源项目多语言BERT模型Huggingface模型性能情感分类GoEmotions
该BERT模型经过微调,可在GoEmotions数据集上进行中英跨语言情感分类,支持28种情感类别,如喜悦、愤怒、爱等。模型在验证集上表现出85.95%的高准确率,训练过程结合了英语和机器翻译的中文样本,通过两阶段方法提升性能,包含初始训练和高置信度样本回馈再训练。