#transformers

NSFW_DPO_Noromaid-7b-Mistral-7B-Instruct-v0.1-GGUF - 结合多模型的量化文本生成引擎
Huggingface文本生成NSFW_DPO_Noromaid-7b-Mistral-7B-Instruct-v0.1量化开源项目模型transformers模型合并Github
NSFW_DPO_Noromaid-7b-Mistral-7B-Instruct-v0.1-GGUF是利用llama.cpp开发的量化模型,整合了mistralai和athirdpath的两款7B模型。通过slerp合并法和bfloat16数据类型,该项目优化了文本生成任务的性能。用户可以通过Transformers和Accelerate库在Python中完成文本生成。该模型结合了多模型的优点,专为处理复杂文本生成任务而设计,提供了高效的运行性能。
distilbert-extractive-qa-project - 描述NLP模型卡片的功能与使用
开源项目模型GithubHuggingface偏见和风险环境影响训练详细信息transformers模型卡片
该项目为NLP模型卡片提供信息展示和使用指导,涵盖训练细节、用途范围、偏见与风险和环境影响等方面。虽然模型卡片信息有待完善,但项目提供了基础框架与导向,帮助评估模型应用和识别潜在风险及局限性。用户可以按步骤快速开始使用该模型。
subnet9_Aug30_1_c - AI模型功能与使用风险的客观分析
训练细节推荐transformers模型模型卡Github开源项目风险和局限性Huggingface
该模型卡是一个自动生成的🤗 transformers模型,详细介绍了模型的使用场景、潜在风险、偏见和限制,并含有对训练数据、预处理和超参数的描述。尽管当前缺少开发和财务方面的详细信息,但链接到的环境影响估计工具为用户提供了进一步的使用体验评估依据。
question-answering-qa-may-12-tablang-LOCAL - 审视AI问答模型的应用领域与潜在挑战
使用开源项目模型GithubHuggingface开发评估transformers
这篇文章提供了一个Transformers问答模型的概览,讨论其直接应用和下游应用的可能性以及相应的偏差、风险和限制。尽管缺乏详细的开发者信息,理解该模型的潜在风险和误用可能至关重要。文章还为用户提供了入门指南并鼓励性能评估。
test-demo-qa - 介绍开源项目的NLP模型及其应用
Github模型transformers开源项目风险和局限训练细节应用场景Huggingface模型卡
本文概述了一个发布在🤗 transformers平台的NLP模型test-demo-qa,包括其使用方式、潜在用户群体及相关风险提示。文章指明需要补充的模型开发细节及资金来源信息,同时也提供了开始使用该模型的基础指导。模型在直接使用及下游应用中的偏见、风险和局限被识别并建议以优化其应用效果。
ag-nli-DeTS-sentence-similarity-v3-light - 多语言句子相似性评分模型
HuggingfaceCross-Encoder开源项目模型sentence similaritytransformers预训练模型Github句子相似性
本模型通过多语言NLI数据集训练,利用跨编码器评估句子间的语义相似度。支持使用Python库SentenceTransformers调用,适用于英语、德语、法语、西班牙语、意大利语等多种语言。
Llama-3.2-1B-Instruct-Uncensored-GGUF - Llama小型无审查语言模型的量化实现
Llama开源项目量化模型transformersGithubGGUFHuggingface模型语言模型
这是针对Llama-3.2-1B-Instruct-Uncensored模型的GGUF量化项目,提供从Q2_K到f16在内的多种量化版本。模型文件大小范围在0.7GB至2.6GB之间,通过不同的量化方案平衡了性能与存储空间。项目包含完整的性能对比数据和使用文档,方便开发者根据实际需求选择合适的模型版本。
text2vec-base-chinese - 基于LERT的中文句子相似度模型
Apache-2.0开源项目模型transformersGithubHuggingface语言模型text2vec句子相似度
text2vec-base-chinese 是一个中文自然语言处理模型,通过将MacBERT替换为LERT实现改进,用于提升句子相似度计算的精确性。该项目在保持其他训练条件不变的情况下,确保了模型性能的稳定性,对需要进行高效特征提取和相似度计算的用户尤其有帮助。2024年6月25日,该项目的onnxruntime版本已发布,以支持更广泛的应用,让开发者能够更高效地构建智能应用。
subnet9_772_4 - 介绍Transformer模型特性与应用
偏见环境影响Huggingface卡片模型Github开源项目transformers
此页面提供subnet9_772_4 Transformer模型的详细信息,涵盖使用指导、潜在限制及应用示例。页面内容自动生成,包含模型细节、训练数据与评估方法等。用户可以通过推荐的代码使用模型,并了解模型可能的环境影响与碳足迹。
luke-japanese-base-finetuned-jnli - 日本语自然语言推理优化模型
实体自注意机制LUKEHuggingfaceyahoo japan/JGLUEGithub开源项目自然语言推理模型transformers
该项目是LUKE的日本语言版本,利用Yahoo Japan的JGLUE JNLI数据集进行优化调整。模型具备89.77%的准确率,用于计算文本关系(矛盾、中立、蕴含)并适用于自然语言推理任务。通过安装Transformers和SentencePiece库,可快速测试和应用于多语言自然语言处理项目。
wmt19-ru-en - Facebook开源的WMT19俄英双向机器翻译模型
俄英翻译机器翻译FSMTHuggingfaceWMT19Github开源项目模型transformers
Facebook AI研究团队基于WMT19新闻翻译任务开发了这个俄英双向机器翻译模型。它采用Transformer架构,支持俄语到英语和英语到俄语的翻译。该模型在BLEU评分上表现优异,是自然语言处理领域的重要工具。模型已开源,研究人员和开发者可以方便地使用它进行俄英文本翻译。值得注意的是,该模型在处理包含重复短语的输入时可能存在一些局限性。
LLaMA3-SFT - 研究奖励建模与在线RLHF应用
HuggingfaceRLHF开源项目模型transformers在线学习Github元语言模型高质量数据
LLaMA3-SFT项目提供了在Meta-Llama-3-8B模型基础上开发的SFT检查点,利用多样化高质量开源数据训练而成,尚未经过RLHF训练,是进行RLHF研究的良好起点。
subnet9_track2_2 - 探索AI模型特性及环境影响
碳排放Huggingface模型卡使用评估Github开源项目模型transformers
此页面提供对一个AI模型的详细分析,包括实现方法、使用情境及环境影响评估。读者可以了解到模型的直接应用和下游可能性,并需注意模型的偏见和限制。页面包括快速使用指南、训练细节及评价指标,帮助用户全面理解模型的特性和应用价值。
subnet9_best - 深度学习模型评估与文档标准化模板
模型文档模型训练Github开源项目transformersHuggingface机器学习模型评估模型
该项目提供了一个标准化的深度学习模型文档模板,涵盖模型描述、应用场景、潜在风险、训练过程和评估方法等关键信息。模板旨在提高模型文档的完整性和透明度,便于开发者记录和用户理解。此外,模板还包含了环境影响评估和技术规格等特色内容,有助于全面了解模型特性。
MN-12B-Starcannon-v3-i1-GGUF - 多种量化选项提升模型性能和适应性
Github静态量化开源项目Hugging Face量化模型transformersMN-12B-Starcannon-v3Huggingface模型
该项目提供多种量化文件类型和大小,满足不同用户需求,优化模型性能。用户可在mradermacher的Hugging Face页面获取IQ-quants与静态量化文件。有关GGUF文件的使用,建议查阅TheBloke的说明。本项目通过iMatrix文件,专注于高质量模型的量化,感谢nethype GmbH及nicoboss的硬件支持。
llavanext-qwen-tokenizer - 自动生成Transformers模型卡片的标准化工具
模型卡片机器学习自然语言处理HuggingfaceGithub开源项目模型人工智能transformers
一个开源的模型文档标准化工具,基于Hugging Face Transformers框架开发。工具提供了包含模型详情、使用场景、训练参数等完整的文档模板,帮助开发者快速生成规范的模型卡片文档,实现AI模型信息的统一管理和共享。
OpenCrystal-15B-L3-v2-i1-GGUF - 提供多种量化文件支持AI模型性能提升
Huggingface量化开源项目模型OpenCrystal-15B-L3-v2transformersnethype GmbHGithub模型提供
OpenCrystal-15B-L3-v2-i1-GGUF项目提供多种GGUF量化文件,旨在优化AI模型的性能。不同的量化类型和大小让用户可以按照需求选择合适的设置,以提升模型运行速度或在资源有限的情况下提高输出质量。感谢nethype GmbH公司和@nicoboss对项目的技术支持。
vram-96 - 该模型的功能和潜在应用
使用开源项目模型GithubHuggingface环境影响transformers训练细节
此transformers模型卡由🤗Hub生成,提供模型的详细信息和用途。包括直接使用方式和下游任务的应用。尽管部分信息尚待补充,模型卡为用户理解基本用法、评估指标及潜在偏见和风险提供指南,并对模型的风险、偏见及技术局限性进行建议。
Defne_llama3_2x8B - 增强型MoE模型,结合llama3的融合创新
自然语言处理混合专家模型HuggingfaceGithub开源项目模型Defne_llama3_2x8Btransformers文本生成
Defne_llama3_2x8B是一个支持多语言的混合专家结构(MoE)模型,由两个llama3模型合并而成。通过transformers库实现高效的自然语言生成,支持英语和土耳其语,适合多语言文本生成和自然语言理解。用户可通过Python代码轻松与模型交互,实现数学问题解答及友好的人机对话。该模型在动态计算环境中具备高效的运行能力。
gemma-2-9b-it - 优化模型微调,降低内存使用,提升处理性能
内存优化量化模型机器学习HuggingfaceGithub开源项目模型transformers免费调优
采用Unsloth技术,通过4bit量化实现Gemma 2 (9B)模型在低内存环境下的高效微调。Google Colab笔记本适合初学者,便于用户添加数据集和运行,获得性能提升至2倍的微调模型,支持导出为GGUF、vLLM或上传至Hugging Face,并减少内存使用达63%。
llama2_esci_v1 - 针对ESCI查询,利用Llama2进行微调提升产品关联度
Github模型transformers模型训练开源项目ESCI任务Huggingface模型微调Llama2
Llama2的微调用于优化ESCI查询与产品的相关性,项目通过深度学习模型增进查询与产品的理解,提升搜索结果的精确性与关联度。
llama3-8B-usenet-merged - 高效NLP模型潜力与使用指南
语言处理Github开源项目transformers限制偏见Huggingface模型
探讨使用transformers库的NLP模型,通过环境影响分析及初学者指南,了解其应用潜力及可能的偏见与限制。
subnet9_Aug30_c - 深入了解最新Transformers模型的特性与潜在应用
使用指南开源项目模型卡片评价指标模型语言模型HuggingfacetransformersGithub
页面介绍了最新Transformer模型的详细信息,包括使用方法、训练细节及初步评估结果。开发者资料、语言支持、许可信息等细节有待完善。用户可参考代码示例以便快速入门,并了解模型的直接及潜在应用。页面同时提示模型存在的偏见、风险和技术限制,建议使用者在应用时加以考虑。
instructor-base - Transformer架构的文本相似度模型,支持多语言文档检索和语义分析
开源项目模型GithubMTEBHuggingface模型评估文本嵌入transformers句子相似度
instructor-base是一个基于Transformer架构的文本相似度模型。该模型在MTEB基准测试中表现良好,可用于文本分类、信息检索和文档聚类等任务。它使用文本嵌入技术来捕捉句子间的语义相似度,适用于搜索优化、问答系统和文本分析。模型支持多语言处理,可作为自然语言处理的有效工具。
rho-1b-sft-GSM8K - 探索Rho 1B SFT模型的多样功能
SFTHuggingface训练数据Rho 1B模型Github开源项目transformers
Rho 1B SFT模型卡展示自然语言处理模型的特点,从使用指南到环境影响评估,概述其架构、训练过程和技术规格,帮助全面理解其适用场景和局限性。
subnet9_track2_1 - Transformer模型使用指南及相关风险和技术限制
用途环境影响开源项目技术规格模型Huggingface模型细节transformersGithub
本页面概述Transformer模型的使用说明,包含潜在风险和技术限制,指导用户在直接或下游应用中采用最佳实践,规避偏见和误用。
MiniCPM-V-2_6-GGUF - 使用imatrix量化优化模型性能
MiniCPM-V-2_6多语言Github量化transformers模型开源项目视觉处理Huggingface
项目应用llama.cpp的imatrix量化方法,优化模型的文本性能。提供多种量化文件,适配不同硬件配置,尤其适合低RAM环境。这一技术允许根据系统RAM和GPU VRAM选择合适的模型,实现性能与速度的平衡。支持多模态图像-文本转换和多语言处理,可在LM Studio中运行,为开源社区提供多样化的工具和使用选择。
text2cypher-demo-6bit-gguf - 采用Unsloth加速的llama文本生成模型
Tomasonjotext-generation-inferencellamaHuggingfaceGithub开源项目模型Unslothtransformers
通过Unsloth与Huggingface的TRL库优化,模型训练速度提升两倍,支持快速文本生成和推理,基于Apache-2.0许可,灵活性与持续开发兼备。
Mythomax-L2-13b-Q4_K_M-GGUF - MythoMax L2 13b模型的Q4_K_M量化版本
Gryphe/MythoMax-L2-13b个人使用量化HuggingfaceGithub开源项目模型transformers
项目中包含MythoMax L2 13b模型的Q4_K_M量化版本,基于mradermacher的GGUF方案。这一版本能通过Text Gen Webui与llamacpp_hf结合实现个性化应用,适合希望优化资源利用和提升模型性能的开发者与研究人员。
Qwen1.5-MoE-A2.7B - 提高模型生成速度与资源效率的Transformer架构MoE语言模型
Mixture of ExpertsHuggingfaceQwen1.5-MoE-A2.7B文字生成开源项目transformers模型Github语言模型
Qwen1.5-MoE-A2.7B是一种基于Transformer架构和专家混合(MoE)的大规模预训练语言模型,通过重构密集模型来增强性能。它推理速度提高1.74倍,训练资源仅为类似模型的25%。建议在使用中结合SFT或RLHF等后训练技术,以进一步改进文本生成能力。详细信息及源码可在博客和GitHub仓库中查看。
ToxicityModel - 基于RoBERTa的毒性检测与评分优化工具
词汇评级毒性识别开源项目模型HuggingfaceAI辅助ToxicityModeltransformersGithub
这是一款基于RoBERTa的微调模型,用于有效检测和评分文本毒性。模型通过有毒及无毒语言示例训练,特别在wiki_toxic和toxic_conversations_50k数据集上表现出色。作为RLHF训练的辅助工具,该模型的输出值可用于判断文本的毒性与否,适合多种需检测有毒语言的应用场景。
text2vec-large-chinese - 中文大规模句子相似性与特征提取模型
MacBERTHuggingfacetext2vecGithub开源项目模型特征提取transformers句子相似度
基于text2vec衍生的中文模型,采用LERT替代MacBERT,提高句子相似性和特征提取效率。支持onnxruntime,发布于2024年6月25日。
Yi-Coder-9B-Chat-GGUF - Yi-Coder-9B-Chat模型量化文件选择及使用指南
Huggingface模型文件文本生成量化开源项目模型transformersGithubYi-Coder-9B-Chat
Yi-Coder-9B-Chat经过Llamacpp的imatrix选项量化处理,增强了在不同硬件上的推理能力。用户能根据自身需求从Q8_0、Q6_K_L等多种量化模型中选择,以适应不同的RAM和VRAM配置。更新内容包括分词器修复,所有文件均可在LM Studio中运行。项目亦提供对ARM芯片优化的Q4_0_X_X文件,用户可通过huggingface-cli下载具体量化模型并查看硬件兼容性和使用建议。