#数据集
stella-large-zh-v3-1792d - 多领域文本相似性与分类模型
数据集开源项目模型Github度量Huggingface任务sentence-similarity
stella-large-zh-v3-1792d项目专注于文本相似性与分类问题,结合多种评估任务和数据集,如STS、分类、聚类、重排序、检索等,展现了其在中文自然语言处理中的强大能力。在MTEB评测集的不同任务下,该模型表现良好。在相似度评估中,Pearson和Spearman相关系数较高,而在分类任务中,模型的准确率和F1值均有提升。同时,在搜索和重排序任务中,其平均精度和召回率也表现不俗,使其成为适用于多种语言处理场景的工具。
dolphin-2.9.1-mixtral-1x22b - Dolphin在指令对话及编程能力上的优化
Apache-2.0许可模型精调开源项目模型HuggingfaceDolphin 2.9.1数据集Github训练过程
Dolphin-2.9.1 Mixtral 1x22b通过细致的微调优化了多位来自Mixtral架构的专家,保留了指令、对话及编程的多样化技能,并提供函数调用支持。模型不受审查限制,能够处理各种请求,建议在使用前自行加入合规性层,尤其适合需要高度灵活性和效率的自然语言处理应用。
regnety_120.sw_in12k_ft_in1k - 高级图像分类模型,优化大规模数据集的性能
预训练图像分类RegNetY开源项目模型Huggingface特征提取数据集Github
RegNetY-12GF模型致力于图像分类,先在ImageNet-12k上预训练,再在ImageNet-1k上微调。其结构支持多项增强功能,如随机深度和梯度检查点,提高模型准确性和效率。基于timm库实现,广泛用于特征图提取和图像嵌入,适用于多种图像处理场景。
dolphin-2.6-mixtral-8x7b - 非DPO调整的高效编程AI
编码开源项目训练模型Huggingface不受限Dolphin数据集Github
该模型擅长编程,经过大量编码数据的训练。2.6版本通过修正训练配置显著提升了质量,并重新引入了基于Samantha的同理心数据,替换了Synthia和Pure-dove数据为Capybara。由于模型未经过审查,并过滤了对齐与偏见,建议在部署服务前加入对齐层。训练采用qLoRA与Axolotl框架,并使用ChatML提示格式。
bertweet-base-emotion-analysis - BerTweet英文情感分析模型集成EmoEvent语料库
机器学习Github自然语言处理Huggingface数据集开源项目模型BERTweet情感分析
bertweet-base-emotion-analysis是一个基于BerTweet架构的英文情感分析开源模型,通过EmoEvent语料库训练而成。作为pysentimiento库的组成部分,该模型支持英文文本的情感识别与分析,主要应用于学术研究领域。该模型结合预训练语言模型技术,为自然语言处理研究提供了实用的情感分析工具。
gpt2-horoscopes - 基于GPT-2的星座预测,探索五大类星座运势
开源项目星座模型HuggingfaceGPT2训练数据集Github生成
GPT2-Horoscopes项目利用AI技术生成星座运势,通过微调来自Horoscopes.com的数据集实现。用户能够通过HuggingFace的`pipeline` API根据星座类别生成不同的运势。此项目支持五类星座:综合、事业、爱情、健康及生日,数据集源自Kaggle,共包含约12000条运势信息。本工具专注于教育与学习目的,非真实星座预测的替代品。
LiteLlama-460M-1T - 轻量级高性能语言模型精简参数实现大模型能力
数据集机器学习大语言模型Github开源项目LiteLlamaHuggingface模型训练模型
LiteLlama是基于LLaMA 2的开源复现项目,将模型参数优化至460M,并使用1T规模tokens训练。采用RedPajama数据集和GPT2分词器,在MMLU等基准测试中表现良好。支持HuggingFace Transformers加载,是一款轻量级但性能优异的语言模型。该项目遵循MIT许可证开源。
Llama-2-7B-32K-Instruct - 长上下文对话模型,支持自定义微调和高效推理
数据集Llama-2-7B-32K-InstructGithub开源项目Together API指令微调长上下文聊天模型Huggingface模型
Llama-2-7B-32K-Instruct是开源长上下文对话模型,微调自高质量指令和对话数据。适用于长上下文的摘要与问答任务,通过评估与多款顶尖模型对比。在Together API的支持下,用户可自定义微调以提升性能。模型数据与使用方法已完全开放,方便个性化开发。建议安装Flash Attention V2以提高推理效率。
led-large-book-summary - 探索BookSum数据集带来的长文档摘要新挑战
数据集Github开源项目长文档BookSum模型文本摘要Huggingfacesummarization
本项目通过BookSum数据集应对长篇叙述的摘要挑战。该数据集包含来自文学领域的小说、戏剧和故事,提供段落、章节和书籍级别的人工摘要。其独特的结构与内容对摘要系统提出了处理长文档及复杂因果和时间关系的挑战。项目组还基于该数据集训练并评估了不同类型的基线模型。
news-category-classification-distilbert - 使用21万条HuffPost头条数据训练的新闻分类模型
数据集Github开源项目新闻分类distilbertHuggingface机器学习标题分析模型
该项目开源了一个经过HuffPost新闻标题训练的分类模型,采用DistilBERT架构,基于2012-2022年间的21万条新闻数据构建。模型专注于新闻类别识别,提供完整的数据来源和技术文档,可用于新闻分析和内容分类应用。
bert-base-turkish-sentiment-cased - 高精度的土耳其语言情感分析BERT模型
数据集Github开源项目土耳其语BERTurkHuggingface模型训练情感分析模型
该模型基于BERTurk,专为土耳其语言的情感分析设计,结合了电影评论、产品评论和推特数据集,实现了95.4%的准确度。适用于多种土耳其语文本情感分析场景,项目由Savas Yildirim发布于Hugging Face平台,并采用了先进的特征表示与融合技术。使用者需遵循引用要求以符合合规标准。
Wizard-Vicuna-30B-Uncensored-GGUF - 多平台兼容的高效AI模型格式
开源项目GGUF人工智能助手量化模型模型HuggingfaceWizard Vicuna 30B Uncensored数据集Github
GGUF格式是llama.cpp团队于2023年8月推出的新模型格式,取代了不再支持的GGML。该项目提供多种量化方法及格式,以优化在llama.cpp、text-generation-webui等多平台上的使用。用户可以选择最合适的模型,通过支持GPU加速的客户端和库实现高效下载和使用。这些模型兼容多种第三方UI和库,有助于增强人工智能推理和应用开发的性能。
opus-mt-hu-en - 基于OPUS数据集的匈牙利语-英语机器翻译模型
BLEU评分开源项目自然语言处理模型Huggingface机器翻译数据集Githubopus-mt-hu-en
此项目为基于transformer-align架构的匈牙利语到英语机器翻译模型,采用OPUS数据集训练。模型使用normalization和SentencePiece进行预处理,在Tatoeba测试集上获得52.9的BLEU分数和0.683的chr-F分数。项目提供模型权重、测试集翻译结果及评估数据下载。
Llama-3.2-3B-Instruct-uncensored-GGUF - 多硬件兼容的Llama-3.2量化模型
数据集开源项目ARM推理Llama-3.2-3B-Instruct-uncensored模型嵌入权重Huggingface量化Github
LLama-3.2-3B-Instruct模型经过imatrix量化处理,确保在多种硬件配置(如ARM架构)下的高效表现。可在LM Studio中运行并支持多种格式选择,以满足不同内存和性能要求。通过huggingface-cli下载特定文件或全集成,方便易用。K-quants和I-quants提供多样化速度与性能的选择,是研究及开发人员的灵活工具。用户反馈能有效提升量化模型的适用性。
e5-base-sts-en-de - 基于E5微调的德语文本语义相似度模型
e5-base语义文本相似度开源项目模型Huggingface多语言模型微调数据集Github
这是一个基于多语言E5基础模型开发的德语语义相似度模型。模型通过德语释义语料库、PAWS-X和STSB多语言数据集进行训练,结合多负例排序和余弦相似度两种损失函数。模型在STSB测试集达到0.904的相关性分数,能够有效完成德语文本相似度计算任务。
roberta-base-finetuned-jd-binary-chinese - 精准中文文本分类的先进模型
文本分类开源项目预训练模型RoBERTa模型Huggingface微调数据集Github
本文介绍了5个中文RoBERTa-Base分类模型,这些模型由UER-py和TencentPretrain进行微调,基于用户评论与新闻文章的数据集实现精准分类。文章详细解释了模型的使用方法,并提供下载链接,同时概述了在腾讯云上进行的微调过程及优化参数,确保最佳性能。
suzume-llama-3-8B-japanese-gguf - 专注日语对话优化的Llama 3微调模型
数据集Github开源项目日语聊天模型Llama 3HuggingfaceSuzumefinetune模型
Suzume是Llama 3的日语定制模型,通过近3000个日语对话数据集进行训练,提升了在日语基准测试中的表现。用户可在LM Studio中轻松找到和使用该模型,适用于多种日语交流场景。详细的训练和超参数配置确保了其性能和准确性。
TinyStories-33M - 基于GPT-Neo架构的开源文本生成模型
模型训练开源项目GPT-NeoTinyStories模型Huggingface文本生成数据集Github
该模型以TinyStories数据集为基础,采用GPT-Neo架构进行训练,可通过API简便生成文本,广泛应用于自然语言处理任务。
small-e-czech-finetuned-ner-wikiann - 捷克语命名实体识别模型精细化
数据集Github开源项目small-e-czech-finetuned-ner-wikiann训练精度Huggingface模型
这是一个基于Seznam/small-e-czech的微调模型,专用于wikiann数据集的捷克语命名实体识别。模型在精度、召回率和F1分数上分别达到0.8713、0.8970和0.8840,总体准确率为0.9557。项目采用Transformer、PyTorch等技术框架,使用线性学习率调度器,经过20个epoch的训练。适合需要捷克语文本命名实体识别的开发者和研究人员使用。
e5-small - 高效轻量的句子相似度计算模型
数据集开源项目sentence-transformersGithubMTEB机器学习性能评估Huggingface模型
e5-small是一个轻量级神经网络模型,专注于句子相似度计算。该模型在文本分类、检索和聚类等多项基准测试中表现优异。支持多语言处理,适用于需要高效文本嵌入的场景。其轻量设计在保持性能的同时减少计算资源消耗,适合各类文本相似度应用。
pythia-1b-deduped - Pythia模型家族为大规模语言模型的可解释性研究提供了全面支持
HuggingfaceEleutherAI开源项目模型PythiaGithub数据集语言模型科研
Pythia Scaling Suite由EleutherAI开发,专注于大规模语言模型可解释性研究,包含16个模型,这些模型使用相同的数据集并提供154个中间检查点,托管于Hugging Face。尽管未专门针对下游性能优化,Pythia模型的表现仍可与OPT和GPT-Neo套件媲美甚至超越,适用于科研和实验用途,并支持进一步微调。
Bespoke-MiniCheck-7B - 文档核实模型的优化技术与高质量数据策展效果
Llama-3.1-Bespoke-MiniCheck-7B模型性能事实核查模型Github开源项目数据集自动缓存Huggingface
由Bespoke Labs开发的Llama-3.1-Bespoke-MiniCheck-7B模型,应用高质量数据策展技术,提升了长文本事实核查的精准度。该模型从internlm2_5-7b-chat微调,集成了35K个数据点,包括ANLI示例与合成生成数据,以增强泛化能力。尽管体积小,该模型在LLM-AggreFact基准测试中表现卓越,自动前缀缓存功能提升了推理速度,在高负载下保持出色的文档处理能力。
Infinity-Instruct-7M-Gen-mistral-7B - Infinity-Instruct-7M-Gen-Mistral-7B 提升AI模型指令执行效率的开源方案
北京人工智能研究院开源开源项目Huggingface数据集Github模型Infinity Instruct
Infinity-Instruct-7M-Gen-Mistral-7B是一个公开可用的监督指令微调模型。它在Infinity-Instruct-7M和Infinity-Instruct-Gen数据集上进行优化,无需用户反馈强化学习。在AlpacaEval 2.0评测中,该模型表现优于Mixtral 8x22B v0.1、Gemini Pro和GPT-4。使用创新的训练技术,显著减少了模型训练成本,且基于与OpenHermes-2.5-Mistral-7B相同的聊天模板,专为对话场景设计。该模型和相关资源仅用于学术研究,且准确性不可担保。
Llama-3-8b-rm-mixture - 基于Llama3-8b的奖励模型训练与优化
OpenRLHFLlama3-8bHuggingface奖励模型Github开源项目训练模型数据集
Llama-3-8b奖励模型利用OpenRLHF进行训练,结合OpenLLMAI的数据集,旨在提高模型性能。该项目基于Llama-3-8b-sft-mixture模型,使用余弦调度器,学习率为9e-6,预热比例0.03,批量大小256,并执行一次学习迭代。目标是通过优化和数据集策略,提升模型的奖励决策能力,为深度学习与AI开发者提供精确的工具。
JaColBERTv2.5 - 优化资源应用的日语信息检索模型
数据集开源项目模型Github日本语检索器HuggingfaceJaColBERTv2.5多语言模型模型权重
该模型使用全新的训练方法,基于40%的数据成功创建了高效的日语信息检索系统。在多个数据集上表现优异,特别是改进的多向量检索方法,在资源受限的情况下提供卓越性能,优于包括BGE-M3在内的多语言模型,适合资源有限的应用场景。
timely-arctic-small - 语义相似度分析模型:句子向量化工具
Snowflake/snowflake-arctic-embed-sHuggingfaceGithub文本分类相似性函数语义相似性开源项目模型数据集
基于Sentence Transformers的模型,采用Snowflake/snowflake-arctic-embed-s进行语义相似度分析。模型将句子转化为384维向量,适用于语义搜索、同义词挖掘、文本分类和聚类等领域。使用余弦相似度作为基本算法,支持最长512个token的序列,训练与评估数据集分别包含55736与1000条样本,提升精确度。更多技术细节与用法,请参考GitHub和相关文档。
Llama-3-Lumimaid-8B-v0.1-OAS-GGUF-IQ-Imatrix - Llama-3新版本增强模型转换准确性
数据集Github量化模型开源项目模型转换HuggingfaceLlama3SillyTavern
在Llama-3-Lumimaid-8B-v0.1-OAS项目的v2版本中,模型转换方式有所改进,通过Orthogonal Activation Steering增强了模型响应灵活性。建议使用最新的KoboldCpp版本以获得最佳兼容性。此次更新还引入了Luminae数据集,结合ERP与RP数据提升了模型智能性。对于8GB VRAM GPU,推荐使用Q4_K_M-imat quant(4.89 BPW)以支持较大的上下文尺寸。
xlm-roberta-large-ner-hrl - 十种多语言命名实体识别模型,覆盖高资源语言
Huggingface开源项目多语言模型命名实体识别Github数据集模型训练xlm-roberta-large-ner-hrl
此模型是基于xlm-roberta-large微调的命名实体识别模型,支持十大高资源语言:阿拉伯语、德语、英语、西班牙语、法语、意大利语、拉脱维亚语、荷兰语、葡萄牙语和中文。具备识别地点、组织和人物三类实体的功能。通过Transformers库的pipeline,可便捷地应用于NER任务。训练数据来自特定时间段的新闻文章,虽然适用于多种场景,但在不同领域的推广性有限。
toutiao - 中文新闻分类模型,便捷文本分析工具
数据集Github模型文本分类开源项目pytorchHuggingface中文新闻分类今日头条
此中文新闻分类模型基于pytorch和今日头条数据集,支持文本分类,适用文化、娱乐、体育等多个领域。通过transformers库中text-classification方法,可实现高效中文文本处理,提升分类精度。
japanese-sentiment-analysis - 基于chABSA数据集的日语情感分析模型,具有高准确率和F1分数
高精度模型训练japanese-sentiment-analysisHuggingfaceGithub开源项目模型情感分析数据集
此模型基于chABSA数据集构建,专为日语情感分析设计,具有极高的准确率和F1得分。使用transformers和Pytorch进行训练,可通过Python API进行访问和集成。
SecureBERT_Plus - 网络安全领域的增强版语言模型
SecureBERT+机器学习HuggingfaceGithub开源项目模型网络安全数据集语言模型
该模型在网络安全数据上进行训练,提升了9%的MLM性能,使用8xA100 GPU进行大规模训练,目前已上传至Huggingface平台,供用户访问和使用。
LanguageBind_Audio - 语言驱动的多模态预训练解决方案
语义对齐公开源码开源项目模型多模态HuggingfaceLanguageBind数据集Github
LanguageBind是一个语言驱动的多模态预训练工具,在五个数据集上表现出色。该项目采用VIDAL-10M数据集,将视频、红外、深度、音频和语言模态结合,实现了跨越视觉模态的扩展。通过多视图增强和ChatGPT的结合,它提高了语言的语义表达,并支持在线和本地运行,包括音频与语言、视频与语言的相似性计算。
scenario-teacher-data-hate_speech_filipino-model-xlm-roberta-base - 优化后的模型用于菲律宾语的仇恨言论检测
开源项目准确率仇恨言论模型Huggingfacexlm-roberta-base数据集Github训练过程
该项目利用xlm-roberta-base模型微调适用于菲律宾语的仇恨言论检测,已达到78.17%的准确率和76.87%的F1得分。模型特别适应于处理此类任务,通过调整学习率和其他超参数优化性能。训练使用了Adam优化和线性学习率调度策略,总计训练了6969个epoch。
Replete-Coder-Llama3-8B-GGUF - 基于llama.cpp优化的高效量化方法提升文本生成性能
量化Replete-Coder-Llama3-8B开源项目模型Huggingface模型压缩文本生成数据集Github
该开源项目利用llama.cpp进行模型量化,适用于HumanEval和AI2推理挑战等任务,提供多种量化选项如Q8_0和Q6_K,适应不同内存要求,同时优化性能表现。I-quant量化在低于Q4时表现良好,用户可依据自己的设备内存和GPU VRAM选择合适的量化格式,通过huggingface-cli便捷获取所需文件。
cloudy-large-zh - 支持多任务评估的高级句子相似性和特征提取模型
Huggingface排序重排开源项目模型Github数据集sentence-transformers句子相似性检索
cloudy-large-zh项目专注于句子相似性和特征提取,利用MTEB数据集进行广泛的任务评估。在中医问答、电子商务和视频检索等领域表现优异,特别是在MTEB CMedQAv2重新排序任务中获得89.47的MRR分数。采用先进算法提高检索性能,确保各领域内容的准确排序和高效检索。
uzbek-speaker-verification-v4 - 乌兹别克语说话人验证模型NeMo实现的优化
模型性能NeMoGithub开源项目模型Huggingface自动语音识别数据集Uzbek-speaker-verification-v4
提供预训练的乌兹别克语说话人验证模型,适合语音识别任务,支持NeMo工具包中的推理和微调。模型经过大量语音数据训练,在标准语音识别中表现良好,适用于学术研究和商业应用。
相关文章
Character-LLM: 可训练的角色扮演AI代理 - trainable-agents项目学习资源汇总
2 个月前
alpaca-chinese-dataset入门学习资料汇总 - 中文指令微调数据集
2 个月前
Voice-Cloning-App 学习资料汇总 - 一款易用的人声合成Python/Pytorch应用
2 个月前
bocoel入门指南 - 高效评估大语言模型的贝叶斯优化工具
2 个月前
LLMDataHub入门指南 - 大型语言模型训练数据集汇总
2 个月前
CareGPT学习资料汇总 - 开源驱动的医疗大语言模型
2 个月前
DB-GPT-Hub学习资料汇总 - 基于大语言模型的开放文本到SQL基准平台
2 个月前
deep-text-recognition-benchmark入门学习资料 - 场景文本识别框架
2 个月前
Fashion-MNIST学习资料汇总 - 替代MNIST的时尚产品图像数据集
2 个月前