#数据集

olm-roberta-base-dec-2022 - OLM项目的更新模型,增强了语言任务表现
Huggingface开源项目模型OLM RoBERTaGithub数据集语言模型BERT评估结果
OLM项目的OLM RoBERTa/BERT模型于2022年12月更新,提升了在标准基准测试中的表现。该模型利用清理后的Common Crawl和Wikipedia数据集进行训练,适用于掩码语言建模和序列分类等任务,并在GLUE任务中表现出色,提供了详细的使用示例。
retrocomicflux - 了解如何使用AI技术生成复古漫画风格图像
图像生成Huggingface漫画风格开源项目模型视觉效果Github数据集Retro Comic Flux
Retro Comic Flux项目通过Flux LoRA和稳定扩散技术生成复古漫画风格图像,其基于公共领域图像,经过裁剪和增强处理。虽然在人物细节上有挑战,但使用DEIS采样器可优化效果。关键词“c0m1c”和“comic book panel”有助于生成图像,未来版本旨在提高一致性和多样性。
KoAlpaca-Polyglot-5.8B - 韩文文本生成模型的优化与安全增强
训练数据集Github模型开源项目KoAlpacaHuggingface语言生成
该项目基于EleutherAI的polyglot-ko-5.8b模型,并在KoAlpaca数据集v1.1b上进行了优化,提升了韩文文本生成的准确性和效率。新增的最大分片1GB的Safetensor模型权重,显著增强了模型的稳定性。通过应用Adam优化器和特定训练参数,该模型在短期内达到了预期效果。详细信息和代码可在KoAlpaca的Github仓库中获取。
ToolACE-8B - 在工具调用性能上与GPT-4旗鼓相当的开源语言模型
模型函数调用开源项目HuggingfaceToolACE-8B数据集GithubLLaMAAPI
ToolACE-8B是一个基于LLaMA-3.1-8B-Instruct模型微调的工具调用专家模型。它在Berkeley Function-Calling Leaderboard上表现出色,性能与GPT-4相当。该模型采用ToolACE数据集训练,结合多智能体对话生成和双层验证系统,确保了数据的多样性和准确性。ToolACE-8B在函数调用方面展现出卓越能力,为开发者提供了强大的工具使用支持。
opus-mt-tr-en - 基于OPUS数据集的土耳其语英语机器翻译模型
语言模型机器翻译HuggingfaceOPUS-MT模型数据集Github开源项目BLEU评分
opus-mt-tr-en是一个基于Transformer架构的土耳其语到英语机器翻译模型。该模型使用OPUS数据集训练,通过normalization和SentencePiece进行预处理。在多个测试集上表现优异,Tatoeba测试集上的BLEU分数达63.5。模型权重可供下载,便于研究人员和开发者进行评估和应用。
distilbert-base-uncased-CoLA - DistilBERT模型在CoLA任务上的微调与应用
Huggingface模型机器学习数据集模型微调Github开源项目自然语言处理TextAttack
本项目展示了基于TextAttack框架的distilbert-base-uncased模型在CoLA(语言可接受性语料库)任务上的微调过程。模型经过5轮训练,批量大小为64,学习率为3e-05,最大序列长度为128。在第2轮训练后,模型在评估集上达到了82.36%的最佳准确率。该项目为研究者提供了一个在特定NLP任务上高效应用BERT变体模型的实例。
opus-mt-en-id - 英语至印尼语开源神经机器翻译模型
模型Github机器翻译开源项目Huggingface数据集opus-mt-en-id自然语言处理模型评估
opus-mt-en-id是一个开源的英语到印尼语神经机器翻译模型,基于Transformer架构设计。该模型使用OPUS数据集训练,经过normalization和SentencePiece预处理。在Tatoeba测试集上,模型达到38.3 BLEU分和0.636 chr-F分的性能。项目提供预训练权重和测试集,方便研究人员进行评估和应用。
dreamshaper-xl-1-0 - 基于Diffusers的AI图像生成模型 支持多样化创意表达
模型模型卡片开源项目HuggingfaceDiffusers机器学习数据集GithubAI模型
Dreamshaper-xl-1-0是基于Diffusers框架的AI图像生成模型。该模型能根据文本描述生成图像,支持多种艺术风格和场景。它可应用于创意设计、内容创作等领域。虽然功能强大,但使用时需注意潜在的偏见和局限性。目前该模型的具体训练数据、评估结果等信息尚未公开。
roberta-spam - RoBERTa垃圾短信检测系统提升组织安全防护能力
模型文本分类GithubRoBERTa机器学习垃圾信息检测开源项目Huggingface数据集
这个项目基于RoBERTa模型构建了一套垃圾短信检测系统。该系统能够精准识别和过滤垃圾信息,为组织安全增添一道防线,有助于规避财务风险、法律隐患和声誉受损。系统在准确率、精确度和召回率等指标上表现优异,可作为组织强化信息安全的有力工具。
bert-tiny-finetuned-sms-spam-detection - BERT-Tiny模型实现高精度SMS垃圾信息检测
垃圾短信检测Huggingface模型数据集BERTGithub开源项目自然语言处理文本分类
该项目基于BERT-Tiny模型,针对SMS垃圾信息检测任务进行了微调。模型在验证集上实现了98%的准确率,展现了优秀的性能。作为一个轻量级解决方案,它特别适用于资源受限的环境,如移动设备上的实时垃圾短信过滤。
whisper-tiny-quiztest - 微型语音识别模型为Quiz测试场景提供精准解决方案
Huggingface模型数据集机器学习Whisper Tiny语音识别模型微调Github开源项目
Whisper Tiny Quiztest是一款基于openai/whisper-tiny模型优化的自动语音识别(ASR)系统,专注于提升quiz测试场景的识别效果。通过在quiztest数据集上的训练,该模型在评估集上实现了55.05%的词错误率(WER)。采用Adam优化器和余弦退火学习率策略,经过1000步训练后,模型性能得到显著提升。作为一个轻量级解决方案,Whisper Tiny Quiztest为Quiz应用提供了高效的语音识别支持。
LLaMA-1B-dj-refine-150B - LLaMA架构的开源语言模型基于精炼数据集训练
模型LLM预训练Github模型评估开源项目Data-Juicer数据集Huggingface
LLaMA-1B-dj-refine-150B是一个采用LLaMA-1.3B架构的开源语言模型,基于Data-Juicer精炼的150B tokens RedPajama和Pile数据预训练。模型在16个HELM任务上的平均得分达34.21,优于同级别的Falcon-1.3B、Pythia-1.4B和Open-LLaMA-1.3B。项目提供了详细的训练数据集信息和性能对比,可作为语言模型研究的参考资源。
opus-mt-en-da - 基于OPUS数据集的英丹双语机器翻译模型
模型机器翻译Github模型评估BLEUopus-mt-en-da开源项目Huggingface数据集
opus-mt-en-da是一个英语到丹麦语的机器翻译模型,基于transformer-align架构设计。该模型利用OPUS数据集训练,应用了normalization和SentencePiece预处理技术。在Tatoeba测试集上,模型展现出优秀的翻译性能,BLEU分数达60.4,chr-F分数为0.745。模型提供原始权重下载,便于研究者进行深入探索和实际应用。
opus-mt-hi-en - 基于OPUS数据集的印地语-英语开源机器翻译模型
语言模型机器翻译Huggingface模型数据集Github开源项目opus-mt-hi-enBLEU评分
opus-mt-hi-en是一个开源的印地语到英语机器翻译模型,基于transformer-align架构构建。该模型使用OPUS数据集训练,采用规范化和SentencePiece进行预处理。在Tatoeba测试集上,模型达到40.4的BLEU分数。项目提供预训练权重下载,便于用户部署和使用。此外,模型还在newsdev2014和newstest2014等测试集上进行了评估,为研究人员提供了性能参考。
opus-mt-en-gl - 英语到加利西亚语机器翻译模型 基于OPUS数据集
语言模型模型opus-mt-en-gl机器翻译BLEU评分Github开源项目Huggingface数据集
opus-mt-en-gl是一个开源的英语到加利西亚语机器翻译模型。该模型采用transformer-align架构,基于OPUS数据集训练,使用normalization和SentencePiece进行预处理。在Tatoeba测试集上,模型达到36.4的BLEU得分和0.572的chr-F值,表现出较好的翻译质量。这个模型为英语到加利西亚语的翻译任务提供了一个有效的工具。
Skywork-Reward-Llama-3.1-8B - 开源奖励模型的紧凑数据集设计
文本分类开源项目模型算法HuggingfaceSkywork Reward数据集Github
Skywork-Reward-Llama-3.1-8B通过80K优质偏好对数据集,展示了无需改变算法或架构即可实现高效奖励建模的潜力,在数学、编码和安全领域中表现出色,且在RewardBench排行榜中占据领先地位。
transformers-ud-japanese-electra-base-ginza-510 - 基于ELECTRA的日语自然语言处理模型
数据集句法结构Github开源项目ELECTRAMIT许可证Huggingface模型
项目基于ELECTRA模型与spaCy v3,预训练与微调来源于mC4数据集的2亿句日语文本,通过UD_Japanese_BCCWJ r2.8增强。Python包ja_ginza_electra通过识别日语短语结构提升自然语言处理能力,遵循MIT许可证,适合开发者和研究人员使用。
wav2vec2-xls-r-1b-ca-lm - 基于先进技术的加泰罗尼亚语语音识别模型
wav2vec2-xls-r-1b-ca-lmHuggingfaceGithub开源项目模型训练过程模型评估数据集自动语音识别
此模型是在facebook/wav2vec2-xls-r-300m的基础上微调的,专注于加泰罗尼亚语自动语音识别。通过使用Mozilla Common Voice 8.0及其他数据集进行优化训练,该模型在加泰罗尼亚口音识别上展现出高效性能。适用于需要精准语音识别的场景,尽管资源稀缺的方言可能效果较差。模型精度得益于优化后的学习率和批量大小,是语音识别技术发展的重要里程碑。
blip-itm-base-flickr - 用于视觉语言理解和生成的多功能开源工具
数据集生成任务GithubBLIP开源项目视觉语言理解Huggingface图像文本匹配模型
BLIP通过生成并过滤图像描述,有效地增强了视觉与语言结合任务的能力,如图像文本检索、图像描述生成和视觉问答。其在实际应用中的优异表现及对视频语言任务的零样本迁移能力,使其成为研究人员的理想工具。
Configurable-Yi-1.5-9B-Chat - 提升语言模型安全性和灵活性的方法
安全调优数据集准确率GithubConfigurable-Yi-1.5-9B文本生成开源项目Huggingface模型
该项目应用Configurable Safety Tuning (CST)技术对语言模型进行微调,以提升其在各种任务场景中的表现与安全性。项目支持多种系统提示,能够适应不同需求,比如无偏见助手或完全开放的助手。在AI2 Reasoning Challenge、HellaSwag、MMLU等多项任务中,该模型展示了卓越的准确性。针对需要调整AI助手安全性和行为的应用场景,该项目提供了一种理想的框架,使模型既能保持有用性又能避免生成非法内容。
UnslopNemo-12B-v2-GGUF - 增强AI模型表达能力的实验探索
数据集开源项目模型GithubHuggingfaceMistralChatML反馈UnslopNemo
该项目通过减少RP数据集中的特点,以提高模型的表达力。适用于Mistral、ChatML以及文本补全任务。通过调整采样设置,用户有可能获得更优的结果。参与者被鼓励在讨论页面提供反馈,以帮助进一步改进性能。
Lumimaid-v0.2-12B-GGUF-IQ-Imatrix - 高效量化与SillyTavern兼容的Lumimaid角色扮演模型
Lumimaid量化过程Huggingface角色扮演Github开源项目模型兼容性数据集
采用GGUF-IQ-Imatrix量化方法,高效转换和运行Lumimaid v0.2模型。兼容SillyTavern角色扮演预设,并建议使用最新版本KoboldCpp进行运行。支持低温度预设优化性能,并通过丰富的预设和示例提升角色扮演体验。如有疑问,可参与讨论获取更多支持。
ALMA-13B-Pretrain - 改进大型语言模型的翻译性能与偏好优化技术
ALMALoRA微调对比偏好优化机器翻译HuggingfaceGithub开源项目模型数据集
ALMA基于新的翻译模型范式,初步在单语数据上进行精调,接着应用高质量的平行数据进行优化,从而显著提升大型语言模型的翻译效果。其最新版本ALMA-R采用了对比偏好优化(CPO),相较于传统监督精调,进一步提高了翻译的精度,可与GPT-4媲美。尤其是ALMA-13B-LoRA,通过过渡性精调和人类撰写的平行数据,确保了在专业翻译任务中的卓越表现。
dolphin-2.5-mixtral-8x7b - 高效编程辅助模型,支持多数据集优化
模型训练模型未加密模型Github开源项目数据集AI助手DolphinHuggingface
Dolphin 2.5 Mixtral 8x7b模型通过丰富的编码数据进行优化,尽管未经DPO调整,但在明确的系统提示支持下,处理代码请求表现出色。新的数据集如Synthia和OpenHermes增强了模型的适应性。由于模型未过滤对齐和偏见,建议在使用前加入对齐层以确保合规性。
opus-mt-eo-en - 准确的跨语言翻译引擎,支持世界语到英语的转换
Huggingface模型BLEU评分开源项目Githubopus-mt-eo-en机器翻译数据集
该项目专注于世界语到英语的翻译,使用transformer-align模型进行处理,结合SentencePiece和数据规范化。其在Tatoeba数据集上达到了54.8的BLEU分数,展示了出色的翻译能力。用户可以获取模型的详细资源,如下载原始权重和查看测试结果及评估分数,为跨语言交流提供有效支持。
SFR-Embedding-Mistral - 基于Mistral的开源多语言文本嵌入模型
性能指标模型评估Github模型数据集MTEB机器学习开源项目Huggingface
SFR-Embedding-Mistral是基于Mistral架构的多语言文本嵌入模型,通过MTEB基准测试验证其在文本分类、语义匹配和信息检索领域的性能表现。模型在AmazonPolarity分类测试中实现95.97%准确率,可用于多语言文本向量化处理。
resnet-tiny-beans - 基于ResNet的轻量级豆类识别模型
测试Github小型模型Huggingfacebeans模型训练数据集开源项目模型
一个基于豆类数据集训练的轻量级识别模型,采用精简架构设计,主要用于快速验证和原型测试。模型具有小型化和灵活部署的特点,能在保持基本识别功能的同时实现最小规模。
opus-mt-en-he - 基于OPUS数据集的英语-希伯来语机器翻译模型
开源项目机器翻译模型GithubOPUS-MT模型评估英语希伯来语翻译数据集Huggingface
这是一个基于transformer-align架构的英语-希伯来语翻译模型,采用Apache-2.0开源协议。模型在OPUS数据集上训练,使用规范化和SentencePiece进行预处理,在Tatoeba测试集上获得40.1 BLEU分和0.609 chr-F分。模型提供训练权重下载,可用于英语和希伯来语之间的翻译任务。
DeBERTa-v3-FaithAug - 基于DeBERTa的知识对话系统可靠性评估模型
自然语言推理知识对话GithubHuggingface模型训练数据集开源项目模型DeBERTa-v3
DeBERTa-v3-FaithAug是一个基于DeBERTa-v3架构的自然语言推理模型,通过ANLI数据增强方式进行微调,用于知识对话系统的可靠性评估。模型在原有DeBERTa-v3-large-mnli-fever-anli-ling-wanli基础上优化,提供开源代码和评分接口。该版本相比论文中的原始模型具有更优的平均性能表现。
opus-mt-en-et - 英语至爱沙尼亚语神经机器翻译模型
opus-mt模型评估Github语言模型Huggingface数据集开源项目模型机器翻译
该英语至爱沙尼亚语(en-et)翻译模型基于transformer-align架构构建,使用OPUS数据集训练。模型采用normalization和SentencePiece预处理技术,在Tatoeba、newsdev2018和newstest2018等测试集上分别获得了54.0、21.8和23.3的BLEU评分。模型提供预训练权重及相关评估数据下载。
monot5-large-msmarco - MSMarco文本重排序优化版T5-large模型
GithubHuggingface模型训练数据集MS MARCO开源项目模型T5-large文档排序
MonoT5-large是一个在MS MARCO数据集上训练的文本重排序模型,主要用于优化搜索结果的排序。模型支持MS MARCO passages和Robust04文档处理,能有效提升文本搜索的准确性,适用于各类文档重排序场景。
opus-mt-fr-de - transformer-align架构的法德翻译模型,适用于新闻政治等多领域
opus-mt-fr-de机器翻译语言模型神经网络Github模型数据集Huggingface开源项目
该法德翻译模型基于transformer-align架构,使用OPUS数据集训练。模型在多个测试集上表现出色,Tatoeba测试集达49.1 BLEU分,新闻领域测试集普遍达22-28 BLEU分,在euelections_dev2019测试集上达26.4 BLEU分。采用normalization和SentencePiece预处理,适用于新闻、政治等多领域翻译。模型权重和测试集翻译结果可供下载使用。
snowflake-arctic-embed-s - 开源语义搜索模型实现文本匹配分类与相似度分析
Huggingface开源项目模型GithubMTEB模型评估机器学习数据集分类任务
snowflake-arctic-embed-s是一个开源语义搜索模型,用于文本匹配、分类和相似度计算。模型通过MTEB基准测试评估,覆盖Amazon评论分类、问答检索和文本聚类等场景。支持多语言处理,适用于搜索引擎、推荐系统和文本分析等应用场景。
gpt2-imdb - 利用IMDB电影评论数据集微调的GPT-2模型
学习率开源项目Adam优化器训练超参数模型Huggingface数据集Githubgpt2-imdb
该项目基于IMDB数据集对GPT-2模型进行微调,以增强情感分析的准确性。训练中采用Adam优化器和线性学习率调度器,学习率设置为5e-05。框架使用了Transformers 4.26.1、Pytorch 1.13.1和Datasets 2.9.0等技术,以有效提高深度学习训练。这款模型通过微调,提升了对电影评论数据集的处理能力,从而在情感分类任务中表现更加出色。
whisper-tiny.en - Whisper微调的英文语音识别模型
GithubWhisperHuggingface深度学习模型训练数据集语音识别开源项目模型
这是一个基于Whisper-tiny.en模型开发的轻量级语音识别工具,通过Azure数据集训练优化,主要用于英文语音转文本任务。模型采用线性学习率调度和Adam优化器,经过1000步训练后达到44.34%的词错误率。项目采用开源Apache 2.0许可,基于主流深度学习框架开发,便于开发者集成使用。
vit_large_patch14_clip_336.openai - 通过CLIP模型探索计算机视觉鲁棒性
数据集OpenAI开源项目模型GithubHuggingface计算机视觉偏见CLIP
OpenAI开发的CLIP模型通过ViT-L/14 (336x336)架构提高视觉任务的鲁棒性,专注于零样本图像分类,供研究人员深入探索。这个模型针对英语场景,其数据主要源自发达国家的互联网用户,目前不建议用于商用部署,但在学术界具备多学科研究的重要价值。