#transformers

nlp-recipes - 使用最新深度学习模型加速自然语言处理系统开发
NLPAzure Machine LearningtransformersBERT深度学习Github开源项目
该资源库提供构建NLP系统的示例和最佳实践,重点关注最新的深度学习方法和常见场景,如文本分类、命名实体识别和文本摘要。支持多语言,特别是利用预训练模型应对不同语言任务。内容基于与客户的合作经验,旨在简化开发过程,帮助数据科学家和工程师快速部署AI解决方案。
spacy-transformers - 在 spaCy 中使用 BERT、XLNet 和 GPT-2 等预训练转换器
spaCytransformersBERTXLNetGPT-2Github开源项目
spacy-transformers通过Hugging Face的transformers实现预训练模型如BERT、XLNet和GPT-2的集成,提升spaCy的功能。支持多任务学习、转换器输出自动对齐等,兼容Python 3.6以上版本,需要PyTorch v1.5+和spaCy v3.0+。
attention_sinks - 调整预训练的 LLM 以使用修改后的滑动窗口注意力形式
attention_sinkstransformers流畅生成深度学习模型高效流处理Github开源项目
通过`attention_sinks`改进预训练语言模型,结合滑动窗口注意力,实现流畅文字生成。与传统`transformers`不同,保持显存恒定使用,确保高效性能。支持Llama、Mistral、Falcon、MPT、GPTNeoX等多种模型,适用于多步生成任务,如聊天机器人。详细benchmark测试结果显示,该技术在处理数百万个令牌后依然保持低困惑度和高流畅度,是多任务处理的理想选择。
LongLM - 通过Self-Extend方法扩展大语言模型的上下文窗口
SelfExtendLLMtransformersFlashAttentionLlama-3Github开源项目
LongLM项目介绍了Self-Extend方法,通过不需要调优的方式扩展大语言模型(LLM)的上下文窗口,利用其内在能力处理长上下文。此方法获得了Google I/O和ICML 2024的关注,并支持多种模型如Llama-3、Gemma和Qwen1.5。项目说明了如何安装和运行Self-Extend,并提供组选参数的指导原则及实验结果,以帮助用户应用这一技术。
transformers - 免费开源的transformers课程,详解关键概念与实践操作
transformers课程自注意力机制多头注意力机制BERTGithub开源项目
该课程由软件工程师Peter发起,现正免费且开放源码。内容涵盖transformers的关键概念、实践练习和学术论文剖析。通过YouTube视频讲解和Jupyter笔记本实操,深入学习编码器-解码器架构、自注意力、多头注意力等核心概念,并从零开始构建简单的transformer模型。亦包含如何微调BERT和GPT-2等预训练模型及进行特定任务处理和文本生成。
awesome-huggingface - 综合NLP开源项目与Hugging Face集成工具
Hugging Facetransformers自然语言处理机器学习NLP工具包Github开源项目
该项目列出了多个优秀的开源项目和应用,均与Hugging Face库集成,为各类NLP任务提供有效的解决方案。内容涵盖官方库教程、NLP工具包、文本表示、推理引擎、模型扩展、模型压缩、对抗攻击、风格转换、情感分析、语法纠正、翻译、知识与实体、语音处理、多模态学习、强化学习、问答系统、推荐系统、评估工具、神经搜索、云支持和硬件支持等多个领域。此项目能够帮助用户找到并使用适合的工具和库,提升自然语言处理任务的效率和效果。
OpenDelta - 高效参数调整的开源工具包
OpenDelta参数高效微调delta tuningPyTorchtransformersGithub开源项目
OpenDelta是一个高效的开源调优工具包,通过添加少量参数进行调整,可实现如前缀调优、适配器调优、Lora调优等多种方法。最新版本支持Python 3.8.13、PyTorch 1.12.1和transformers 4.22.2。
transformers-interpret - 快速解读Transformer模型的工具,只需2行代码
Transformers Interpret解释工具transformers可视化文本分类Github开源项目
Transformers-interpret是一款为Transformer模型设计的解释工具,只需简单代码即可实现。支持文本和计算机视觉模型,并可在笔记本中展示或保存为PNG和HTML文件。通过导入预训练模型和tokenizer,用户能快速获得预测分类解释,并提供可视化功能。此项目基于Captum库构建,支持多标签分类等功能,帮助开发者深入理解模型决策。
BERTopic - 高效的Transformers主题建模,支持多种模式
BERTopic主题建模transformersc-TF-IDFPythonGithub开源项目
BERTopic是一种利用Transformers和c-TF-IDF进行主题建模的技术,能够生成易于解释的密集主题聚类,同时保留关键词描述。该项目支持多种主题建模方法,如有监督、半监督和无监督模式,具有模块化和高扩展性。丰富的可视化功能和多种表示方法进一步支持深入分析。BERTopic还兼容多种嵌入模型,并支持多语言处理,适应不同应用场景。
chat_templates - 标准化大语言模型聊天模板的开源库
chat templatesLLMHuggingFacetransformersJSONGithub开源项目
chat_templates是一个开源项目,为指令微调的大语言模型提供标准化聊天模板。该项目支持transformers库的chat_template功能,收录了Llama、Mistral、Qwen等主流大语言模型的聊天模板。此外,项目还提供了用于控制响应生成的配置文件。开发者可借助这些模板和配置,更便捷地使用各类大语言模型进行对话生成。
PhoBERT - 为越南语自然语言处理带来革新
PhoBERT自然语言处理预训练语言模型越南语transformersGithub开源项目
PhoBERT是首个针对越南语的大规模预训练语言模型,基于RoBERTa架构开发。该模型在多项越南自然语言处理任务中展现出卓越性能,包括词性标注、依存句法分析、命名实体识别和自然语言推理。PhoBERT提供base和large两种版本,可通过transformers和fairseq库轻松集成使用,为越南语自然语言处理研究和应用开辟了新的可能。
dart-v1-sft - 优化Danbooru标注生成的Transformer模型
transformers标签生成深度学习Github模型开源项目自然语言处理模型微调Huggingface
Dart是一款经过微调的Transformer模型,专注于Danbooru标注生成,具备良好的效率和准确性。借助Hugging Face的Transformers和Optimum库,该模型支持ONNX等多种高性能推理工具。Dart旨在为开发者提供便捷的标注生成功能,基于2020年以后的最新数据集进行训练,确保生成结果的时效性和相关性。
Qwen2.5-Coder-1.5B-Instruct-GGUF - Qwen2.5-Coder致力于提升代码生成及修复
Qwen2.5-Coder长上下文支持transformers性能评估代码生成Github模型开源项目Huggingface
Qwen2.5-Coder通过5.5万亿训练标记和128K长上下文支持,提升代码生成、推理和修复的能力,适用于代码代理等实际应用。模型采用先进的transformers架构,实现对数学及一般能力的增强,满足广泛应用需求。
KULLM3 - 高性能韩语指令跟踪与对话模型
NLP&AI LabKULLM3Huggingface韩国大学开源项目模型transformersGithub语言模型
KULLM3是由NLP&AI Lab开发的语言模型,专注于韩语的指令跟随和流畅对话。基于upstage/SOLAR-10.7B-v1.0优化训练,适用于多种场景。利用66000多个训练样例,KULLM3在仿效GPT-3.5-turbo指令方面表现突出。在符合道德和法律标准的前提下提供自然互动,适合研究和商业用途。采用Apache 2.0许可,开放源码,详情可参阅KULLM的GitHub页面。
Phi-3.5-mini-ITA - 小巧强大的意大利语文本生成模型优化与性能提升
开源项目模型意大利语模型GithubHuggingface文本生成参数高效学习Phi-3.5-mini-ITAtransformers
Phi-3.5-mini-ITA是Microsoft/Phi-3.5-mini-instruct的精调版本,专为提升意大利语文本生成性能而设计。拥有3.82亿参数和128k上下文长度,适用于Hugging Face Spaces等平台的流畅对话。通过Spectrum技术,仅高信噪比层参与训练,提高了参数学习效率。评估显示模型在意大利语处理任务中表现卓越。
Fimbulvetr-11B-v2-GGUF - Fimbulvetr-11B-v2量化文件选择,优化模型性能方案
Fimbulvetr-11B-v2nethype GmbHHuggingface使用指南Github量化文件开源项目模型transformers
Fimbulvetr-11B-v2项目提供优化的静态量化文件,助力模型性能和效率提升。多种类型和大小的量化文件可供选择,满足不同需求。推荐Q4_K_S和Q4_K_M量化文件。新手可参考详细使用指南进行GGUF格式文件操作,简化模型集成流程。项目展示量化文件在性能提升上的潜力,用户可通过链接查阅更多资源和模型需求,实现应用扩展。
llama_3.1_q4 - 高效文本生成模型,结合优化技术提升性能
模型训练HuggingfaceGithub开源项目模型Unslothtransformers文本生成
llama_3.1_q4模型结合Unsloth与Huggingface TRL库,实现快速训练,保持8B参数模型的强大性能,优化文本生成能力。项目在Apache-2.0许可下开放使用,适用于多语言生成,由keetrap负责开发。
sn9_vx - 了解sn9_vx模型的特性与应用场景
评估指标transformers训练数据环境影响模型Github开源项目模型卡Huggingface
此页面介绍了sn9_vx模型的相关信息,包括其开发背景、应用场景和潜在用户,以及模型的主要用途和风险。还涵盖了训练数据、评估方法和环境影响,帮助用户全面了解模型,并提醒用户注意模型可能的偏见和限制。
Lexora-Lite-3B - 意大利语指令生成与自动化对话模型
语言模型神经网络transformers预训练模型Github开源项目自然语言处理Huggingface
Lexora-Lite-3B通过深度学习与自然语言处理技术提供意大利语的文本生成与对话自动化,依托transformers库及Sonnet-3.5-ITA-INSTRUCTION与Sonnet-3.5-ITA-DPO数据集,以高效处理语料指令与自动生成对话为核心,适用于多场景文本交互需求,简化任务管理。
v3_1_pt_ep1_sft_5_based_on_llama3_1_8b_final_data_20241019 - 探索先进的自然语言处理开源模型及其实际应用
语言模型训练细节transformers环境影响模型Github开源项目模型卡Huggingface
了解先进自然语言处理开源模型的信息,包括用途、评估方法及风险提示。虽然详细信息未完全披露,但以上内容可为开发和应用提供重要参考。
Llama-3-Hercules-5.1-8B-GGUF - 量化文本生成模型的高效选择指南
Github量化transformers模型开源项目性能优化Llama-3-Hercules-5.1-8BHuggingface文件下载
Llama-3-Hercules-5.1-8B-GGUF项目通过llama.cpp工具实现文本生成模型的量化,提供多种量化类型,以满足不同内存和性能的需求。用户可以在包括Q8_0、Q6_K、Q5_K_M等量化选项中,根据具体条件选择合适版本。建议用户通过合理的内存配置,在GPU或CPU上实现高效的模型运行。推荐使用K-quants格式以获取较高性能,而I-quants则适用于内存优化。
generative-qa-model - 简述AI问答模型的生成式技术
Github模型transformers开源项目模型说明训练细节Huggingface环境影响模型卡
该生成式问答模型基于transformers库,提供开发背景、用途、训练方案及评价标准的信息,帮助了解使用方法并识别潜在风险和局限性。
test-demo-t5-qa - 探索Transformer模型的用途及风险
Github模型transformers开源项目技术规格Huggingface模型卡环境影响使用案例
页面详情介绍了一种开发于🤗 transformers库的模型,概述其应用、预期用户和影响。同时,分析模型相关的偏见、风险和局限性,强调了解其技术和社会技术限制的重要性。提供初始使用的信息及优化建议。
Florence-2-SD3-Captioner - 图像到文本转换的先进工具
AI绘图开源项目自然语言处理图像描述模型HuggingfaceVolkswagen BeetletransformersGithub
Florence-2-SD3-Captioner是一个强大的图像到文本转换工具,支持通过结合多个数据集如google/docci、ProGamerGov/synthetic-dataset等,来生成详尽的图像描述。该工具能够在CUDA设备上高效运行,可处理多种格式的RGB图像。只需提供任务提示和文本,即可获得精确详细的内容描述。
llama-2-tiny-random - 小型架构高效实现文本生成
GithubPython开源项目文本生成模型初始化transformersHuggingfaceLlama-2模型
基于Llama-2-7b-chat-hf配置进行随机初始化,通过修改隐藏层、注意力头等参数设置,以低资源消耗实现文本生成,适合低成本运算的研究及开发场景。
llm-jp-3-13b-instruct - 提供多语言大规模模型,支持多编程环境
数据集Github模型transformers大型语言模型开源项目Huggingfacellm-jp-3-13b-instruct自然语言处理
项目由日本国立信息学研究所研发,部分支持来自GENIAC。模型包含13b版,基于Transformer架构,支持多种语言如Python、Java、Rust。预训练数据集丰富,适用于日语、英语等多语言环境。项目使用Huggingface的Transformers,评估覆盖多领域任务。模型处于早期阶段,尚未完全对输出的人类意图和安全性进行调校。
reader-lm-1.5b - 多语言支持的HTML到Markdown转换模型
HTMLGithub模型transformers开源项目Jina Reader-LMMarkdownHuggingface内容转换
reader-lm-1.5b是一款支持多语言的文本生成模型,可将HTML内容转化为Markdown格式。模型基于精选的数据集训练,适合多种内容转换任务。在Google Colab上,用户可以免费体验。而且,在本地可使用transformers库实现模型性能。此外,reader-lm-1.5b在AWS Sagemaker和Azure Marketplace上可用,满足多平台集成需求。
PowerMoE-3b - 创新型AI模型提升文本生成精准度
PowerMoE-3BHuggingface文本生成模型开源项目transformersGithub稀疏组合专家
PowerMoE-3B是一种稀疏Mixture-of-Experts语言模型,优化于多任务文本生成精度。模型利用Power学习率调度器,每个token激活800M参数,在自然语言、多重选择、代码生成和数学推理任务上表现出色。适用于不同数据集的混合训练,提供高效的文本生成方案。
MultiLBinSClass_Property_Plant_and_Equipment_17june_student_XLMR - 深入解析模型的应用与限制
Huggingface评估开源项目模型transformers环境影响Github模型卡训练数据
本文提供了有关🤗 transformers模型的详细信息,包括其使用范围、局限性及相关建议。重点分析模型在不同情境下的应用和限制,特别关注其潜在偏见与风险。内容简洁,旨在帮助用户轻松理解模型特点及其实际应用。
dac_16khz - 描述开源模型的功能与可能应用
环境影响Github开源项目transformers偏见Huggingface训练数据模型卡模型
本文提供有关此开源模型的详细信息,涵盖应用场景、技术规格以及偏见和风险评估。页面尚在完善,初步介绍模型说明、训练详情及环境影响。评估和结果部分指引用户查阅更多资源。
bert-base-multilingual-cased-pos-english - BERT多语言模型优化后的英文词性标注应用
BERTGithub开源项目Penn TreeBank多语言transformersHuggingface词性标注模型
该模型为多语言BERT,经过特别优化用于英语的词性标注,基于Penn TreeBank训练,达成96.69的F1得分。使用者可以通过transformers管道快速应用此模型,并结合AutoTokenizer和AutoModelForTokenClassification进行高效处理。该模型已在NAACL'22大会的研究成果中使用,适合于高需求精度的词性标注任务,尤其在专业和学术领域。描述中应注重客观性,避免主观夸大。
COKAL-DPO_test-v2-13b - 采用LLaMA2架构的13B规模自动回归语言模型
语言模型训练数据集Github开源项目transformersCOKAL-DPO_test-v2Huggingface模型开发模型
模型由韩国公司Media Group Saramwa Soop与Marker合作开发,基于LLaMA2变压器架构,具备文本生成能力。基础模型为COKAL_pre_DPO_Test_v1-13b,采用DPO及SFT私有数据集训练,适用于多种文本生成任务。该研究项目由韩国科学技术信息通信部和光州广域市资助,旨在推动人工智能产业集群发展。
XL-Judge-LLM - 多语言法律评判和文本生成的先进模型
模型卡片文本生成transformers机器学习自然语言处理Github开源项目Huggingface模型
XL-Judge-LLM是基于Transformers库开发的文本生成模型,专注于法律评判和复杂文本生成。该模型利用维基百科和推理数据集等多个大规模数据集进行训练,在F1值、准确率和困惑度方面表现出色。支持多语言处理,可用于直接应用和下游任务,为法律评判和文本生成提供可靠的解决方案。
1 - 开源自然语言处理工具库提升文本处理效率
模型GithubAI模型深度学习开源项目transformers机器学习Huggingface自然语言处理
transformers是一个开源自然语言处理工具包,旨在通过简化模型训练和应用,提升机器学习项目的效率。该库提供丰富功能和预训练模型,便于执行各种文本分析和生成任务。
vram-24 - 探索Transformer库在机器学习和NLP中的创新应用
transformersHuggingface绘图模型深度学习机器学习Github开源项目AI
transformers库在机器学习和自然语言处理中的应用,凭借强大的算法和灵活的工具,增强数据分析及模型部署能力,提高AI开发效率,为研究和应用提供创新支持。
BLOOM - 开发的多语言、大规模开放科学语言模型
AI开发模型训练AI工具BloomModeltransformers自然语言处理PyTorch模块模型配置热门
作为致力于通过开源和开放科学推进AI发展的平台,BLOOM提供包括BloomModel在内的多款AI模型,充实的文档与代码资源助力研究人员与开发者更好地探索与应用前沿AI技术。