#transformers
vit-gpt2-image-captioning - ViT-GPT2结合的智能图像描述生成模型
模型计算机视觉Github图像描述深度学习transformers开源项目Huggingface自然语言处理
vit-gpt2-image-captioning是一个结合视觉Transformer和GPT-2的图像描述生成模型。该模型能准确识别图像内容并生成对应文本描述,支持多种图像输入方式,易于集成应用。项目提供简单使用示例和Transformers pipeline部署方法,为开发者提供了实用的开源图像描述解决方案。
electra-base-discriminator - 创新的自监督语言表示学习模型
判别器transformersHuggingface模型ELECTRAGithub预训练模型开源项目自然语言处理
ELECTRA是一种创新的自监督语言表示学习模型,采用判别器而非生成器的方式预训练文本编码器。这种方法显著降低了计算资源需求,使得在单GPU上也能获得优秀性能。ELECTRA不仅在小规模任务中表现出色,在大规模应用中更是在SQuAD 2.0等数据集上达到了领先水平。该项目开源了ELECTRA的预训练和微调代码,支持分类、问答和序列标注等多种下游任务。
dummy-GPT2-correct-vocab - 轻量级GPT2模型实现TRL测试框架
模型模型训练GithubGPT2开源项目Huggingface机器学习transformers自然语言处理
本项目提供一个简化版GPT2模型,专为TRL(Transformer强化学习)测试设计。基于transformers库构建,模型配置精简,并定制了tokenizer的聊天模板。项目已上传至Hugging Face Hub,方便开发者进行强化学习实验。这一轻量级实现为TRL技术的研究和验证提供了便捷工具。
vram-16 - 低内存高效的视觉语言模型
模型Github开源项目Huggingface机器学习transformers自然语言处理深度学习人工智能
VRAM-16是一个基于Transformers库的视觉语言模型,专为低内存设备设计。它能在16GB显存设备上高效处理图像描述、视觉问答等多模态任务。该模型通过创新架构平衡了性能和内存占用,为计算机视觉和自然语言处理的融合研究提供了实用工具。
surya_layout3 - Surya项目的文档布局分析模型
transformersHuggingface模型Github开源项目suryaLayout
surya_layout3是Surya项目的文档布局分析模型,基于transformers库开发。该模型旨在识别和分析文档的结构和布局元素,如段落、标题和表格。作为一个开源工具,surya_layout3为研究人员和开发者提供了进行文档分析和处理的基础。模型采用CC-BY-NC-SA-4.0许可证发布,可用于非商业用途。
tiny-random-LlamaForCausalLM - 微型随机语言模型助力AI生成能力研究
transformersHuggingface模型机器学习人工智能Github模型卡片开源项目自然语言处理
tiny-random-LlamaForCausalLM是基于Hugging Face Transformers库的小型随机语言模型。这个轻量级模型为AI研究人员和开发者提供了一个实验平台,用于探索基本的文本生成功能。尽管规模小巧,但它适用于快速原型设计、测试和教育目的,可以轻松部署和定制,为AI研究和应用开发奠定基础。
optimized-gpt2-1b - GPT-2架构优化模型 提供高效可扩展的自然语言处理功能
transformersHuggingface模型机器学习人工智能Github开源项目自然语言处理模型卡
optimized-gpt2-1b是一个基于GPT-2架构优化的大规模语言模型。该模型在保持GPT-2性能的基础上,通过架构和训练方法的优化提高了效率和可扩展性。它可应用于文本生成、摘要和问答等多种自然语言处理任务。模型支持直接使用或针对特定需求进行微调。项目提供了使用说明和评估结果,有助于研究人员和开发者更好地理解和应用这一语言模型。
tiny-random-Llama-3 - 基于Meta-Llama-3-8B-Instruct的微型化语言模型
模型开源GithubMeta-Llama-3-8B-Instructtransformers开源项目Huggingface自然语言处理
tiny-random-Llama-3是Meta-Llama-3-8B-Instruct模型的微型化版本,旨在降低模型规模并简化部署过程。该项目基于Transformers库开发,采用Apache 2.0开源许可。虽然不支持直接推理,但为开发者提供了一个探索和实验大型语言模型缩小版本的轻量级选择。
french-camembert-postag-model - 基于CamemBERT的法语词性标注模型提供精确文本分析
法语transformersHuggingface词性标注模型Github开源项目自然语言处理CamemBERT
这是一个基于CamemBERT训练的法语词性标注模型,支持31种词性标签,可识别形容词、副词、代词等多种词类。模型通过Transformers库易于集成,为法语自然语言处理项目提供了准确的词性分析功能。
T5ForConditionalGeneration-correct-vocab-calibrated - T5条件生成模型的词汇校准优化
模型模型卡人工智能Github开源项目transformers机器学习Huggingface自然语言处理
这是一个基于Hugging Face Transformers库的T5条件生成模型,通过词汇校准进行了优化。该模型致力于提升文本生成任务的性能,尤其注重词汇准确性。它可应用于摘要生成、问答和文本翻译等多种下游任务。虽然模型的具体细节、训练过程和评估结果尚未完全披露,但其应用潜力值得关注。用户在使用时应当了解模型可能存在的偏见和局限性。
mxbai-embed-large-v1 - 多语言NLP嵌入模型在MTEB基准测试中展现卓越性能
模型检索开源项目Huggingface聚类分类transformersGithubMTEB
mxbai-embed-large-v1是一个多语言嵌入模型,在MTEB基准测试中表现优异。该模型在文本分类、检索、聚类和语义相似度等NLP任务中取得了良好成绩。基于transformer技术,mxbai-embed-large-v1生成高质量文本表示,可应用于信息检索、问答系统和文本分析等领域。
jina-embeddings-v3 - 多语言文本嵌入模型支持超过100种语言处理
模型多语言模型开源项目Huggingface信息检索特征提取transformersGithub句子相似度
jina-embeddings-v3是一个多语言文本嵌入模型,支持超过100种语言的处理。该模型在句子相似度和检索任务中表现优异,能生成高质量的文本嵌入。在MTEB基准测试中,它在多个语言的相关任务上取得了优异成绩。适用于信息检索、文本分类和语义搜索等多种自然语言处理应用。模型的多语言能力使其成为处理跨语言NLP任务的理想选择。
tiny-random-Phi3ForCausalLM - 轻量级Phi3因果语言模型实现
模型Phi3ForCausalLMGithub模型卡片开源项目transformers机器学习Huggingface自然语言处理
这是一个基于微软Phi-3-mini-4k-instruct模型构建的轻量级Phi3因果语言模型。模型采用Transformers库实现,配置为32个隐藏单元、64个中间单元、4个注意力头和2个隐藏层。该项目旨在提供Phi3模型的精简版本,在保留核心功能的同时显著减小模型规模。这使其特别适用于资源受限环境或快速原型开发,同时仍可应用于多种自然语言处理任务。
t5-base-en-generate-headline - 基于T5的智能新闻标题生成模型
维基新闻transformersHuggingface模型Github开源项目自然语言处理T5模型标题生成
t5-base-en-generate-headline是一个基于T5架构的自然语言处理模型,专门用于生成新闻文章标题。该模型经过50万篇文章的训练,能够为输入的文章内容生成简洁有力的单行标题。支持Python编程接口,可轻松集成到新闻网站、内容管理系统或自动化内容平台中。这个开源项目为开发者和内容创作者提供了一种高效的方式来生成引人注目的新闻标题。
tiny-dummy-qwen2 - 基于Transformers的精简Qwen2模型
模型人工智能Github模型卡片开源项目transformers机器学习Huggingface自然语言处理
tiny-dummy-qwen2是基于Transformers库的轻量级Qwen2模型实现。该项目旨在提供高效性能和较小模型规模,为开发者提供快速使用Qwen2模型的方式。虽然目前细节信息有限,但该项目有望成为自然语言处理领域的实用工具,适用于多种NLP任务。
other - 高性能开源自然语言处理框架
模型Github开源项目Huggingface机器学习transformers自然语言处理深度学习人工智能
Transformers是一个开源的自然语言处理框架,提供多种预训练模型和工具。支持文本分类、问答和生成等任务,适用于研究和生产环境。该框架易用且灵活,可处理多语言文本,支持迁移学习。Transformers定期更新,紧跟NLP领域最新进展,为用户提供丰富的API和优化的性能。
surya_rec2 - Surya项目专用的光学字符识别模型
模型SuryaOCR开源Githubtransformers开源项目Huggingface
surya_rec2是Surya项目的光学字符识别(OCR)组件,基于Transformers库开发。该模型旨在从图像中提取文本,可处理各种文档和图像场景。作为Surya项目的一部分,这个OCR模型致力于提高文本识别的准确性和效率。该模型采用CC-BY-NC-SA-4.0许可证发布,供非商业用途使用。
optimized-gpt2-500m - GPT-2语言模型的优化版本 用于多种自然语言处理任务
transformersHuggingface模型机器学习人工智能Github模型卡片开源项目自然语言处理
optimized-gpt2-500m是一个经过优化的GPT-2语言模型,参数量为5亿。该模型在保持GPT-2语言理解和生成能力的同时,提高了推理速度和资源利用效率。它可用于文本生成、对话系统、问答等多种自然语言处理任务,为开发者和研究人员提供了一个高效的预训练语言模型选择。
Llama-3.2-3B-Instruct-bnb-4bit - Unsloth技术加速大型语言模型微调
UnslothtransformersHuggingface模型大语言模型Github开源项目Llama 3.2微调
Llama-3.2-3B-Instruct-bnb-4bit项目利用Unsloth技术提高大型语言模型微调效率。该方法可将Llama 3.2、Gemma 2和Mistral等模型的微调速度提升2-5倍,同时降低70%内存占用。项目提供多个Google Colab笔记本,支持Llama-3.2、Gemma 2、Mistral等多种模型。这些笔记本操作简便,适合初学者使用,只需添加数据集并运行即可完成模型微调。
Mistral-7B-v0.3 - 扩展词汇量提升语言模型能力
模型Github开源项目Huggingface文本生成transformers扩展词汇表Mistral-7B-v0.3大语言模型
Mistral-7B-v0.3是Mistral-7B-v0.2的升级版本,词汇量扩展至32768。该模型保持原有性能,提供更广泛的语言理解能力。支持mistral-inference和Hugging Face transformers等多种安装使用方式。目前尚无审核机制,Mistral AI团队正与社区合作,探索在保证输出质量的同时实现精细保护措施的方法。
Ovis1.6-Gemma2-9B - Ovis1.6-Gemma2-9B开源多模态大语言模型的嵌入对齐解决方案
图像处理Github模型transformers开源项目多模态Huggingface大语言模型Ovis1.6
Ovis1.6-Gemma2-9B是一个开源的多模态大语言模型,致力于视觉与文本嵌入的高效对齐。相比Ovis1.5,它在图像处理分辨率、数据集规模与质量上都有所提升,并通过DPO训练提高总性能。该模型在OpenCompass基准测试中展现了优异表现,支持图像和文本的多模态输入处理。更多使用指导与代码示例请访问其GitHub页面。
Stellar-Odyssey-12b-v0.0 - 语言模型合并的先锋工具
开源项目模型transformersGithubHuggingface合并模型mergekitStellar Odyssey语言模型
Stellar Odyssey 12b v0.0项目使用mergekit和della_linear方法,将Mistral-Nemo-Base-2407与MN-12B系列等多个语言模型成功整合,结合不同模型的特点,提高了性能表现。目前项目处于测试阶段,在此感谢AuriAetherwiing的技术支持。
Flux-Prompt-Enhance - 文本生成技术提升Prompts表现
google-t5/t5-base语言模型模型检查点开源项目模型transformersGithubHuggingfacetext2text-generation
该项目通过整合transformers库和Google T5模型,强化了Prompts的生成效果。使用gokaygokay的Flux-Prompt-Enhance模型,加强了文本的丰富性和描述性,尤其适合创意与内容生成领域。支持多语言能力,依据前缀指令生成详尽自然的文本,适用于研究者与开发者在自然语言处理任务中的应用,推动AI内容生成的创新。
llavanext-qwen-siglip-tokenizer - 整合多模态模型的开源项目探索图像与文本处理新方向
模型Github模型卡片开源项目Huggingface机器学习transformers自然语言处理人工智能
该项目整合了LLaVA、Qwen和SIGLIP等先进多模态模型的功能,基于Transformers库开发高效tokenizer。它支持视觉问答和图像描述等跨模态任务,为计算机视觉和自然语言处理的交叉研究提供了实用工具。该项目旨在提供一个强大的图像-文本处理框架,为研究人员和开发者探索和应用多模态AI提供便捷途径,有望在相关领域带来突破性进展。
vram-80 - 优化大型语言模型微调的开源工具
transformersHuggingface模型深度学习机器学习人工智能Github开源项目自然语言处理
vram-80是一个开源项目,旨在优化大型语言模型的微调过程。该工具通过先进的显存管理技术,使得在有限计算资源下也能进行高效的模型微调。vram-80支持LoRA和QLoRA等多种微调方法,并提供简洁的接口,方便研究人员和开发者定制和优化语言模型。这个项目不仅提高了微调效率,还降低了硬件要求,为AI领域的研究和应用提供了有力支持。
Qwen2.5-Coder-1.5B - 提高代码生成和推理的新一代开源模型
代码推理Qwen2.5-Coder长上下文支持transformers代码生成Github模型开源项目Huggingface
Qwen2.5-Coder通过扩展训练数据集,提高了在代码生成、推理和修复方面的性能,支持最长128K标记的文本处理,适用于多种实际应用。
falcon-180B-i1-GGUF - 深入解析量化模型在质量与速度之间的平衡
Falcon-180B量化Huggingface模型使用条件Github开源项目transformers
项目运用weighted/imatrix量化方法以提升质量、速度和文件大小。用户可依据需求选择不同类型和大小的量化模型,并通过性能对比获取最优方案。得益于nethype GmbH和@nicoboss提供的技术和计算资源支持,项目确保高质量的用户成果,并提供FAQ解答常见问题及模型请求功能。
deberta-v2-base-japanese-char-wwm - 日语DeBERTa V2模型实现字符级遮蔽与预训练
开源项目自然语言处理字符级别模型HuggingfaceDeBERTa V2transformers日本語Github
该项目介绍了日语DeBERTa V2 base模型,该模型在日语Wikipedia、CC-100和OSCAR数据集上进行字符级分词和整体词遮蔽的预训练,可用于掩码语言建模及下游任务微调,采用了22,012个字符级子词的sentencepiece分词模型,通过transformers库进行训练。
Mistral-7B-v0.3 - 词汇扩展提升语言模型性能
Mistral-7B-v0.3Hugging Face大语言模型HuggingfaceGithub开源项目模型transformers词汇扩展
Mistral-7B-v0.3版本引入了32768项扩展词汇,提升了语言模型的表现能力。结合mistral-inference使用,支持灵活的文本生成和定制处理。该版本尚未具备完善的安全机制,计划通过与社区合作,探索在输出需调节的环境中实现安全部署。
gte-base-en-v1.5 - 英文文本嵌入模型在自然语言处理任务中的应用
模型检索开源项目Huggingface分类transformerssentence-transformersGithubMTEB
gte-base-en-v1.5是一个英文文本嵌入模型,在MTEB基准测试中展现出优秀性能。该模型在句子相似度、文本分类和信息检索等自然语言处理任务中表现突出,能有效捕捉文本语义并为下游应用提供高质量的文本表示。测试结果显示,gte-base-en-v1.5在多个评估指标上取得了良好成绩,体现了其在不同应用场景中的实用价值。
cot_5k - 研究开源变形金刚模型的功能与技术特点
Github模型transformers开源项目训练细节Huggingface环境影响模型卡评价
本文详细介绍了开源模型的功能用途、潜在风险和关键技术细节。通过深入了解这些方面,有助于优化模型应用,规避潜在问题。
v3_1_pt_ep1_sft_5_based_on_llama3_1_70b_final_data_20241026 - 揭示新型Transformer模型的实际应用与研究进展
Github模型transformers开源项目评估偏见Huggingface环境影响模型卡
该文档介绍了新型Transformers模型的功能、应用领域与局限性,包含使用指南、训练数据概述、程序步骤、评估方法及其环境影响评估,为读者提供全面的信息参考。
robust_llm_pythia-14m-pm-gen-ian-nd - 深入了解transformers模型的应用与限制
环境影响Github开源项目transformers训练细节Huggingface模型卡评估模型
模型基于transformers库开发,旨在揭示模型在操作中可能存在的偏见、风险及技术限制,帮助用户明确其应用场景及注意要点。
Llama-3-8B-Instruct-abliterated-v2 - 增强直接响应,通过优化模型拒绝处理
Llama-3-8B-Instruct-abliterated-v2模型训练拒绝方向transformers模型Cognitive ComputationsGithub开源项目Huggingface
Llama-3-8B-Instruct-abliterated-v2是在Llama-3-8B-Instruct基础上进行优化的模型,通过正交修正提升对请求的直接响应能力。增加的训练数据使其更精确地调整拒绝方向,增强直接回答能力并减少附带声明。尽管经过权重调整以减少拒绝可能性,该方法尚处于测试阶段,模型可能仍对特定请求不予回答。
face-parsing - Segformer语义分割模型实现精准人脸解析
模型语义分割CelebAMask-HQnvidia/mit-b5Githubtransformers开源项目Huggingface面部解析
face-parsing是一个基于Segformer的语义分割模型,专注于人脸解析任务。该模型由nvidia/mit-b5在CelebAMask-HQ数据集上微调,可精确识别和分割19个人脸关键区域。支持Python和浏览器环境,提供详细使用指南。适用于人脸分析和编辑应用,但使用时需考虑潜在的社会偏见问题。
BLOOM - 开发的多语言、大规模开放科学语言模型
AI开发模型训练AI工具BloomModeltransformers自然语言处理PyTorch模块模型配置热门
作为致力于通过开源和开放科学推进AI发展的平台,BLOOM提供包括BloomModel在内的多款AI模型,充实的文档与代码资源助力研究人员与开发者更好地探索与应用前沿AI技术。
相关文章
Nous-Yarn-Mistral-7b-128k:处理长篇文本的先进语言模型,支持128k令牌的语境窗口
2024年08月03日
LCM:苹果Mac终于可以跑SD了,几秒一张XL,喂饭级教学!
2024年08月03日
NLP-recipes: 微软的自然语言处理最佳实践与示例
2024年08月30日
spacy-transformers: 在spaCy中使用预训练Transformer模型
2024年08月30日
Attention Sinks: 让大语言模型无限流畅生成文本的新技术
2024年08月30日
LongLM: 无需微调即可自我扩展LLM上下文窗口
2024年08月30日
Transformers: 深入探索人工智能的革命性技术
2024年08月31日
Chat Templates: 为大型语言模型打造对话模板的开源项目
2024年09月05日
PhoBERT: 越南语预训练语言模型的突破性进展
2024年09月05日