#模型性能
abel - 数学生成式AI Abel 7B模型在GSM8K和MATH上取得突破性成果
AbelGAIR数学推理生成性AI模型性能Github开源项目
Abel项目通过优化数学推理模型,在GSM8K和MATH数据集上取得了显著进展。特别是其7B模型达到了超过80%的准确率,并在多个数学数据集上展示了优秀的泛化能力。该项目采用独特的Parental Oversight策略和SFT(监督微调),显著提升了模型性能,无需依赖外部工具和奖励模型。
ml-fastvit - 高效混合视觉Transformer模型用于图像分类
FastViT视觉Transformer图像分类模型性能结构重参数化Github开源项目
FastViT是一种采用结构重参数化技术的混合视觉Transformer模型。该模型在ImageNet-1K数据集上实现了准确率和延迟的良好平衡,提供多个变体以适应不同应用场景。FastViT在iPhone 12 Pro上的基准测试显示出优秀的移动端性能。项目开源了预训练模型、训练评估代码和使用文档。
docs - Neural Magic深度学习模型CPU性能优化平台
Neural Magic深度学习CPU优化开源软件模型性能Github开源项目
Neural Magic开源平台提供了一系列工具,包括SparseML、Sparsify、SparseZoo和DeepSparse,用于优化CPU上的深度学习模型性能。这套软件组件支持选择、构建和运行高效率模型,使开发者能在标准CPU硬件上实现接近GPU级别的AI推理速度。
tuning_playbook - 深度学习模型性能调优指南
深度学习超参数调优模型性能优化器批量大小Github开源项目
该项目提供深度学习模型调优的全面指南,涵盖项目启动、架构选择、优化器配置、批量大小设置等关键环节。它介绍了科学的性能提升方法,以及训练流程优化和实验追踪等实用技巧,旨在帮助提高深度学习模型的性能。
Sakura-SOLAR-DPO - 开源大语言模型性能新突破
Sakura-SOLARLLMDPO模型性能训练代码Github开源项目
Sakura-SOLAR-DPO项目通过模型融合和DPO训练技术,使SOLAR模型在开源大语言模型排行榜上跃居首位。该项目在ARC、HellaSwag等多项基准测试中表现卓越,展现了强大的通用能力和数学推理水平。项目公开了详细的训练代码、超参数配置和提示词模板,为开源AI社区提供了宝贵的技术参考。
OpenCodeInterpreter - 集成代码生成、执行和优化的开源系统
OpenCodeInterpreter代码生成执行反馈人工智能模型性能Github开源项目
OpenCodeInterpreter是一套开源代码生成系统,通过集成执行和迭代优化功能,提高了代码生成能力。该项目提供多个模型系列,展示了执行反馈对提升代码解释和执行性能的影响。项目还开源了Code-Feedback数据集,包含68K多轮交互,并提供本地演示系统。
continual-learning-baselines - 综合持续学习策略基准与评估平台
Continual LearningAvalanche实验基准测试模型性能Github开源项目
该项目提供了一套持续学习策略和基线示例,基于Avalanche库实现多种算法,如Less-Forgetful Learning和Elastic Weight Consolidation。项目在Permuted MNIST、Split CIFAR-100等数据集上进行了评估,可重现原始论文结果或自定义参数。这为持续学习研究提供了可靠的基准平台,便于比较不同策略的性能。
nbailab-base-ner-scandi - 斯堪的纳维亚语言的命名实体识别模型
数据集Github开源项目命名实体识别模型性能ScandiNERHuggingface北欧语言模型
这个模型是NbAiLab/nb-bert-base的精调版本,适用于丹麦语、挪威语、瑞典语、冰岛语和法罗语的命名实体识别(NER)。通过整合DaNE、NorNE、SUC 3.0和WikiANN的一些数据集,模型可以提供高精度的NER结果,并支持多种语言包括英语。识别的实体类型包括人名、地名、组织名及其他类别。模型以Micro-F1得分约为89%的表现,以及4.16样本/秒的处理速度表现出色,同时模型体积合理,带来好的准确性和效率平衡。
Swallow-MX-8x7b-NVE-v0.1 - 跨语言文本生成模型,强化日语能力
模型性能HuggingfaceSwallow-MX-8x7b-NVE-v0.1开源项目模型训练数据集Github语言模型日语数据
Swallow-MX-8x7b-NVE-v0.1基于Mixtral-8x7B-Instruct持续预训练,增加了日语数据模块,提升了多语言文本生成性能。该模型在日文常识问答和翻译任务中表现突出,发布于Apache-2.0开源许可证下。该版本仍在开发中,提醒注意输出的安全性。项目由ABCI计划支持,适用于多语言自然语言处理任务。
ms-marco-MiniLM-L-6-v2 - 高性能跨编码器模型用于信息检索和文本排序
Cross-Encoder模型信息检索MS MarcoGithub模型性能Huggingface开源项目自然语言处理
ms-marco-MiniLM-L-6-v2是一款针对MS Marco段落排序任务开发的跨编码器模型。该模型在信息检索领域表现卓越,能够高效编码和排序查询与文本段落。在TREC Deep Learning 2019和MS Marco Passage Reranking数据集评测中,模型展现出优异性能,NDCG@10和MRR@10分别达到74.30和39.01。ms-marco-MiniLM-L-6-v2兼顾效率与准确性,每秒可处理1800个文档,为信息检索应用提供了实用解决方案。
deberta-large-mnli - 基于DeBERTa架构的MNLI微调大型语言模型
DeBERTa模型BERTGithub注意力机制模型性能Huggingface开源项目自然语言处理
DeBERTa-large-mnli是一个针对MNLI任务微调的大型语言模型,基于DeBERTa架构开发。该模型采用解耦注意力机制和增强型掩码解码器,在多数自然语言理解任务中表现优于BERT和RoBERTa。在SQuAD和GLUE等基准测试中,DeBERTa-large-mnli展现出优异性能。这个模型适用于各种自然语言理解应用,可为NLP研究提供有力支持。
ms-marco-electra-base - ELECTRA跨编码器模型提升MS Marco信息检索效率
模型GithubMS Marco开源项目Huggingface信息检索模型性能自然语言处理Cross-Encoder
该模型是基于ELECTRA架构的跨编码器,专为MS Marco段落排序任务设计。其主要功能是高效编码查询和段落,用于信息检索的检索和重排序。模型在TREC Deep Learning 2019数据集上达到71.99的NDCG@10分数,MS Marco开发集上MRR@10为36.41,处理速度为每秒340文档。这些指标显示该模型在性能和效率方面达到了良好平衡。
zephyr-7b-beta - 7B参数开源对话模型在多项基准测试中表现卓越
语言模型模型人工智能GithubZephyr-7B-β模型性能开源项目Huggingface机器学习
Zephyr-7B-β是基于Mistral-7B-v0.1微调的开源对话模型。在MT-Bench和AlpacaEval等基准测试中,其性能超越多个参数量更大的模型。采用DPO技术训练,能生成有帮助的回复,但缺乏安全性对齐。适用于多种对话任务,在编码和数学等复杂任务上仍需改进。该模型表现出色,但使用时需注意其局限性。
ms-marco-MiniLM-L-2-v2 - 基于MS Marco训练的跨编码器模型实现高效文本排序
Cross-EncoderHuggingface模型性能模型信息检索Github开源项目自然语言处理MS Marco
这是一个基于MS Marco Passage Ranking任务训练的跨编码器模型。主要用于信息检索领域,通过对查询和候选段落编码实现文本排序。模型在TREC Deep Learning 2019和MS Marco Passage Reranking数据集上展现出优秀性能,NDCG@10和MRR@10指标表现突出。支持Transformers和SentenceTransformers两种调用方式,适用于多种应用场景。
Swallow-7b-instruct-v0.1 - Swallow模型优化日语处理能力,提升多任务表现
日本语言数据评估基准模型性能模型Github开源项目Swallow模型发布Huggingface
Swallow模型通过预训练和微调提升了日语处理,对多任务表现优异。最新版本于2024年4月发布,提供了经过指令微调的模型,如Swallow-7b-instruct-v0.1,增强了写作、推理等领域的能力。模型通过日语词汇扩展,实现高效文本表示和快速推理,是东京工业大学的重要研究成果。
NuminaMath-7B-TIR - 采用工具集成推理技术的数学问题解决语言模型
模型性能工具集成推理开源项目模型NuminaMath数学问题解决训练程序HuggingfaceGithub
NuminaMath 7B TIR是一种使用工具集成推理技术训练的语言模型,专门为数学问题解决而设计,在AI数学奥林匹克测试中取得了29/50的得分。经过深度微调,该模型能够处理从基础到高阶数学的复杂问题,尤其是在GSM8k和MATH等基准测试中表现优异。模型基于DeepSeek基础版优化,利用大规模数据集,通过逐步解题和工具推理增强问题解决能力,适合用于数学问题解决和教育场景。
suzume-llama-3-8B-multilingual-orpo-borda-top25 - 提升多语言模型性能的ORPO微调方法
Huggingface商业用途模型性能训练数据模型Github开源项目Suzume ORPO多语言
Suzume ORPO使用ORPO技术优化模型性能,特别加强了多种语言的处理能力,是语言模型研究的前沿选择。非商业许可适合学术研究,商业应用版本正在开发中。
internlm2_5-1_8b-chat - 开源18亿参数模型提升推理能力与工具调用效率
Github模型开源项目工具利用推理能力InternLMHuggingface模型性能开源模型
InternLM2.5是一个开源的18亿参数基础模型,拥有卓越的数学推理和增强的工具调用能力,其能够从多个网页搜集信息并进行分析和指令理解。在OpenCompass的评测中,该模型在MATH、GPQA等基准测试中表现突出。尽管在推理和综合能力上具有优越性,仍需注意潜在的风险输出。通过Transformers和LMDeploy工具,用户可以轻松加载和部署此模型以适应多种应用场景。
Qwen2-57B-A14B - 高效的多语言自然语言处理模型
Mixture-of-ExpertsGithub开源项目模型性能多语言自然语言理解Qwen2Huggingface模型
Qwen2-57B-A14B是一个采用混合专家技术的模型,专注于自然语言理解和多语言处理能力。它基于Transformer架构,并使用SwiGLU激活和注意力偏置等技术,增强了语言生成和处理的准确度。该模型广泛超越了多数开源模型,在多项基准测试中表现出众,是处理复杂自然语言任务的理想选择,并在推理效率上较前代模型有显著提升。
deberta-v2-xlarge - 强大的NLU模型在多项任务中表现优异
Huggingface模型性能模型机器学习人工智能DeBERTaGithub开源项目自然语言处理
DeBERTa-v2-xlarge是一个基于解缠注意力机制和增强型掩码解码器的自然语言理解模型。该模型拥有24层结构、1536隐藏层大小,总参数量为900M,经160GB原始数据训练。在SQuAD、GLUE等多项NLU基准测试中,DeBERTa-v2-xlarge的表现超越了BERT和RoBERTa。模型在问答、文本分类等任务中展现出优异性能,为自然语言处理领域提供了新的研究方向。
OLMo-7B - 专注于语言模型科学的开放模型
模型性能Huggingface开源项目OLMo模型训练数据集Github语言模型
OLMo系列模型由Allen Institute for AI开发,旨在推进语言模型科学。该系列模型使用Dolma数据集进行训练,提供诸如OLMo 7B等多种版本及详细的训练检查点和代码支持。这些模型可用于英文学术研究,并可在Hugging Face平台上获取。项目获得哈佛大学、Databricks、AMD等机构支持,并在MMLU测试中显示出明显的性能提升。
Mistral-7B-Instruct-v0.3-GGUF - Mistral-7B-Instruct模型的多种量化版本优化性能与文件大小
Huggingface模型性能模型Mistral-7B-Instruct-v0.3llama.cppGithub开源项目GGUF量化
该项目为Mistral-7B-Instruct-v0.3模型提供多种量化版本,采用llama.cpp的imatrix选项。量化类型从Q8_0到IQ1_S不等,文件大小范围为1.61GB至7.70GB。项目详细介绍了各版本特点,并提供下载指南和选择建议,方便用户根据硬件条件和性能需求选择最佳版本。
ms-marco-MiniLM-L-6-v2 - MiniLM-L-6跨编码器模型提升MS Marco信息检索效率
模型交叉编码器SentenceTransformersMS MarcoGithub模型性能Huggingface开源项目信息检索
ms-marco-MiniLM-L-6-v2是一个针对MS Marco信息检索任务优化的跨编码器模型。在TREC Deep Learning 2019和MS Marco Passage Reranking数据集上,其NDCG@10和MRR@10分别达到74.30和39.01。模型每秒处理1800个文档,平衡了性能和效率。基于SentenceTransformers库,该模型可轻松集成到信息检索系统中,用于查询-段落相关性排序。
LIMA-13b-hf - 基于Transformer架构的自动回归语言模型,用于自然语言处理的研究
自然语言处理开源项目模型性能Github模型LLaMAHuggingface偏见评估大语言模型
LLaMA是由Meta AI的FAIR团队开发的基于Transformer架构的自动回归语言模型,专为自然语言处理和机器学习研究人员而设计。该模型提供7B、13B、33B和65B参数的多种规格,支持问答和自然语言理解等研究用途,并注重偏见和有害内容生成的评估与减少。虽然使用20种语言进行训练,但其在英语文本处理上表现更佳。LLaMA被定位为AI研究基础工具,不建议直接应用于未经评估的下游应用。
roberta-base_topic_classification_nyt_news - 基于roberta-base的高性能新闻主题分类模型
roberta-base开源项目模型性能文本分类GithubHuggingface模型新闻训练数据
该文本分类模型基于roberta-base,并针对New York Times新闻数据集进行了微调。模型在测试集上的分类准确率为0.91,可准确识别体育、艺术文化、商业和健康等多个新闻主题。通过结合关键超参数和Adam优化器,模型在精确性和召回率上表现优异。用户可以在Hugging Face平台轻松应用此模型,用于高效的新闻语义分析。
Llama-3-8B-Magpie-Align-v0.3 - 优化中文查询与对齐数据的强大语言模型
开源项目模型性能Github超反馈技术Huggingface模型问答系统Llama-3-8B-Magpie-Align中文指令数据集
该项目通过在Llama-3-8B上执行SFT和DPO优化,大幅提升了模型性能,尤其在中文查询响应上。使用高质量数据集进行训练,并在AlpacaEval等基准测试中表现优异,展现Magpie数据的规模和质量优势,为语言模型的普及化提供可能。
bert-base-romanian-ner - 罗马尼亚语命名实体识别的高级BERT模型
模型性能文本预处理开源项目命名实体识别模型RONECHuggingfacebert-base-romanian-nerGithub
此项目提供了一款经过微调的BERT模型,专注于罗马尼亚语命名实体识别,以优异的性能而著称。模型识别15种实体,如人物、地缘政治实体、地点、组织等,并基于RONEC v2.0数据集训练,拥有超过50万标记及80,283个独特实体。生成的标签采用BIO2格式,使其在命名实体识别任务中表现卓越。用户可通过Transformers库的NER管道或Python包便捷使用该模型。
OpenCodeInterpreter-DS-6.7B - 代码生成与执行精炼的整合,提升编程任务效率与准确性
模型性能代码生成开源项目执行反馈OpenCodeInterpreter模型Huggingface开源Github
OpenCodeInterpreter-DS-6.7B是一个结合代码生成和执行精炼的开源系统,基于deepseek-coder-6.7b-base模型。该项目在HumanEval和MBPP等基准测试中表现优异,通过执行反馈和人类反馈不断优化性能,为复杂代码任务提供高效且准确的解决方案。
Bespoke-MiniCheck-7B - 文档核实模型的优化技术与高质量数据策展效果
Llama-3.1-Bespoke-MiniCheck-7B模型性能事实核查模型Github开源项目数据集自动缓存Huggingface
由Bespoke Labs开发的Llama-3.1-Bespoke-MiniCheck-7B模型,应用高质量数据策展技术,提升了长文本事实核查的精准度。该模型从internlm2_5-7b-chat微调,集成了35K个数据点,包括ANLI示例与合成生成数据,以增强泛化能力。尽管体积小,该模型在LLM-AggreFact基准测试中表现卓越,自动前缀缓存功能提升了推理速度,在高负载下保持出色的文档处理能力。
internlm2-chat-1_8b - 优化指令遵循与对话功能的开源对话模型
开源模型长文本支持模型性能InternLM部署工具模型Github开源项目Huggingface
InternLM2-Chat-1.8B是一款经过精确调整的1.8亿参数开源对话模型,通过监督微调和在线RLHF优化,支持超长文本处理,适用于多种应用场景。其在推理、数学和编码任务中表现出色,依照Apache-2.0协议开源,商用需申请许可。
uzbek-speaker-verification-v4 - 乌兹别克语说话人验证模型NeMo实现的优化
模型性能NeMoGithub开源项目模型Huggingface自动语音识别数据集Uzbek-speaker-verification-v4
提供预训练的乌兹别克语说话人验证模型,适合语音识别任务,支持NeMo工具包中的推理和微调。模型经过大量语音数据训练,在标准语音识别中表现良好,适用于学术研究和商业应用。
internlm2-chat-7b-sft - 提供超长上下文支持和多功能工具的对话模型
开源工具调用InternLMHuggingfaceGithub开源项目模型模型性能代码解释器
InternLM2-Chat-7B-SFT是一款对话模型,具备提升的推理、数学和代码能力,支持长达200K的上下文处理,能够进行代码解释和数据分析,经RLHF训练后可处理复杂任务,展现出可靠的工具使用能力。
pix2text-mfr - 精确数学公式识别,转换为LaTeX文本
Pix2Text模型性能HuggingfaceTrOCR数学公式识别LaTeX开源项目模型Github
Pix2Text-MFR模型基于TrOCR架构,支持将数学公式图片转化为LaTeX文本,适用于印刷体和手写公式的高效识别。最新版Pix2Text V1.0提升了模型精度,但该模型的使用面仅限于数学公式图片。
Llama-3-8B-4bit-UltraChat-Ita - 意大利语高效文本生成模型
意大利语模型模型性能unsloth文本生成Huggingface开源项目模型Githubllama
Llama-3-8B-4bit-UltraChat-Ita项目利用Unsloth和Huggingface的TRL库,使训练速度提高了两倍。此模型基于unsloth/llama-3-8b-bnb-4bit进行优化,专为意大利语而设计,并在多个标准化准确率测试中表现良好。详细性能对比请参见意大利语言模型排行榜。
MiniCheck-RoBERTa-Large - 基于RoBERTa-Large的高效句子级事实核查模型
RoBERTaGithubLLM-AggreFact模型事实核查开源项目Huggingface模型性能MiniCheck-RoBERTa-Large
MiniCheck-RoBERTa-Large是一款事实核查模型,基于RoBERTa-Large实现句子级别的支持验证。该模型通过微调AlignScore生成的14K合成数据,展示优异性能,超越同类规模的专用工具。用户只需简单的Python代码即可集成此模型,用于文档和句子间的语义关联检测。
nli-roberta-base - 用于自然语言推理与零样本分类的跨编码器
Github模型开源项目Zero-Shot 分类Cross-EncoderHuggingface训练数据自然语言推理模型性能
此模型使用SentenceTransformers中的Cross-Encoder类开发,专用于自然语言推理(NLI),通过SNLI和MultiNLI数据集训练,可输出矛盾、蕴含及中立标签分数。预训练模型兼容零样本分类,便于通过SentenceTransformers或Transformers库应用于多种文本推理与分类场景。
相关文章
Abel: 从圣经人物到数学突破的传奇之名
2024年08月31日
FastViT: 快速混合视觉Transformer的结构重参数化
2024年09月05日
OpenCodeInterpreter: 融合代码生成与执行反馈的开源系统
2024年09月05日
OpenCodeInterpreter:整合代码生成、执行和优化的开源系统
2024年09月05日
深度学习调优指南:Google Brain工程师的实战经验
2024年09月05日
Sakura-SOLAR-DPO: 融合、微调和优化的开源大语言模型
2024年09月05日
持续学习基线方法概述及实现
2024年09月05日
Abel - 数学推理开源大模型学习资料汇总
2024年09月10日