#自然语言处理

FinTwitBERT-sentiment - 基于BERT的金融推文情感分析工具
FinTwitBERTGithub社交媒体分析自然语言处理金融推文情感分析HuggingfaceBERT模型开源项目模型
FinTwitBERT-sentiment基于1000万条金融推文预训练的FinTwitBERT模型开发,通过38,091条人工标注数据和142万条合成数据进行微调,专注于分析社交媒体金融文本的情感倾向。此模型支持通过Hugging Face transformers库集成,适用于金融推文和相关社交媒体内容的情感分析任务。
tiny-random-llava-1.5 - 基于LLaVA-1.5的轻量级多模态模型配置工具
计算机视觉开源项目TransformersLLaVA自然语言处理模型Huggingface深度学习Github
tiny-random-llava-1.5是一个基于LLaVA-1.5架构的轻量级多模态模型配置工具。通过自定义配置参数,如减少隐藏层数量、缩小中间层大小和降低注意力头数,该工具显著缩减了模型规模。它支持快速原型开发和测试,并可将模型和处理器轻松推送至Hugging Face Hub。这个工具主要用于多模态AI应用的快速验证和实验,适合开发者进行初步测试和概念验证。
llava-interleave-qwen-7b-hf - 领先的多模态AI模型 支持多图像视频和3D输入处理
图像识别自然语言处理开源项目模型GithubAI对话HuggingfaceLLaVA Interleave多模态模型
LLaVA Interleave是基于Qwen1.5-7B-Chat开发的多模态AI模型,支持多图像、视频和3D输入处理。模型采用transformer架构,具备4-bit量化和Flash Attention 2优化功能。目前主要面向计算机视觉、自然语言处理和人工智能领域的研究人员,仅供学术研究使用。
gemma-ko-7b-instruct-v0.62 - 简洁韩文文本生成模型,适用于多种自然语言处理任务
Github开源项目文本生成韩国语模型优化自然语言处理HuggingfaceGemma模型
Gemma Ko 7B Instruct v0.62 是一个专注于韩文文本生成的模型,能支持语言翻译、文本摘要、问答及对话生成等多种自然语言处理任务。该模型生成的文本高质量且具备上下文连贯性。由开发者 lemon-mint 基于 openchat 的模型进行微调。使用时请谨慎对待数据偏见及潜在错误信息。
Llama3-ChatQA-1.5-8B - 强化对话问答和检索增强生成的高性能AI模型
Llama3-ChatQA-1.5自然语言处理开源项目人工智能模型GithubHuggingface问答系统检索增强生成
基于Llama-3开发的大语言模型,专注于优化对话式问答和检索增强生成能力。模型提供8B和70B两个版本,采用改进的训练方案,增强了表格理解和算术计算能力。在ChatRAG Bench评测中,模型在多个数据集上表现优异,尤其擅长处理上下文对话和文档检索。支持完整文档输入和分块检索两种使用方式,适用于多种对话问答场景。
Flow-Judge-v0.1-AWQ - 高效的开源小型模型用于多领域AI评估
Flow-Judge-v0.1性能评估GithubHuggingface自然语言处理量化开源项目模型可定制评估
Flow-Judge-v0.1-AWQ是一个源自Phi-3.5-mini-instruct的开源模型,专为多领域LLM系统评估而设计。尽管体积小巧,这款3.8B模型在多种评分尺度下表现出色,支持定性反馈,并生成结构化评估结果,非常适合需要利用自定义评分标准进行高效低成本评估的开发者和企业。
xlm-roberta-large-finetuned-conll03-german - 基于XLM-RoBERTa的大型多语言模型优化德国文本的命名实体识别
模型训练命名实体识别自然语言处理HuggingfaceGithub开源项目模型XLM-RoBERTa多语言模型
该项目展示了一种基于大规模多语言数据训练的XLM-RoBERTa模型,专注于德语文本的命名实体识别和词性标注,能够高效解析德语文本,并通过内置管道进行自然语言理解任务的方便集成。
gemma-2-27b - Google开源的轻量级高性能语言模型Gemma
HuggingfaceGemma人工智能模型Github开源项目大语言模型自然语言处理机器学习
Gemma-2-27b是Google基于Gemini技术推出的开源语言模型,采用解码器架构设计。模型支持问答、摘要、推理等多种文本生成任务,能在笔记本电脑等资源受限环境运行。模型参数量为270亿,采用130亿token训练数据,在MMLU等多项基准测试中表现优异。该项目开源了预训练和指令微调两个版本,并提供完整的部署和使用文档。
bert-base-turkish-128k-uncased - 土耳其BERTurk无标记语言模型
机器学习Github模型开源项目BERTurkHuggingface数据库土耳其语自然语言处理
土耳其BERTurk模型由德国巴伐利亚州立图书馆的MDZ团队开发,并得到土耳其NLP社区的支持。此无标记BERT模型使用包含土耳其语OSCAR语料库、维基百科、OPUS语料库及Kemal Oflazer提供的语料进行训练,总语料量为35GB。模型在Google的TPU v3-8上通过TensorFlow Research Cloud训练了200万步,词汇量为128k,目前支持PyTorch-Transformers。
t5-base-finetuned-common_gen - 利用T5模型提升生成性常识推理能力
数据集自然语言处理开源项目模型GithubHuggingfaceT5常识生成模型微调
T5模型在CommonGen数据集上的微调提升了生成性常识推理,通过整合常识知识生成描述日常场景的连贯句子。CommonGen数据集包含30k概念集和50k句子,来自AMT众包和字幕语料。模型在基准测试中表现优异,ROUGE-2为17.10,ROUGE-L为39.47,展示出T5在概述、问答、文本分类等NLP任务中的有效性。
longchat-13b-16k - 开源模型longchat-13b-16k优化长文本对话能力
Huggingfacelongchat-13b-16k研究模型开源项目Github开源自然语言处理
Longchat-13b-16k使用凝缩旋转嵌入技术进行优化,能有效处理长文本对话,由Dacheng Li等人开发,适用于语言处理及机器学习研究领域。用户可通过FastChat与LongChat加载,凭18K对话训练数据,适合研究者探索其对长对话的扩展潜力。LongEval评估资源和GitHub资料提供更多技术支持和信息。
paraphrase-albert-base-v2 - 基于ALBERT的句子嵌入模型用于文本聚类和语义搜索
语义搜索开源项目文本嵌入自然语言处理模型向量计算Huggingfacesentence-transformersGithub
这是一个基于ALBERT架构的句子嵌入模型,可将文本映射至768维向量空间。该模型支持sentence-transformers和HuggingFace Transformers两种集成方式,适用于文本聚类、语义搜索等任务。通过平均池化处理,模型能高效生成文本向量表示,尤其适合需要计算句子相似度的应用场景。
gliner_small-v2.1 - 基于双向Transformer的轻量级通用实体识别模型
模型训练命名实体识别Huggingface模型GLiNERGithub开源项目自然语言处理机器学习
gliner_small-v2.1是一个基于双向Transformer架构的命名实体识别模型,具备识别任意类型实体的能力。这款模型采用166M参数规模,在保持较小资源占用的同时提供灵活的实体识别功能。模型支持英语处理,采用Apache-2.0许可证开源发布。相比传统NER模型的固定实体类型限制和大语言模型的高资源消耗,该模型提供了一个平衡的解决方案。
Meta-Llama-3-8B-GGUF - Meta Llama 3 8B模型的GGUF量化版本 支持8K上下文长度
大语言模型自然语言处理HuggingfaceGithubLlama 3开源项目人工智能模型Meta
Meta-Llama-3-8B-GGUF是Meta发布的Llama 3系列8B参数大语言模型的量化版本。模型针对对话场景优化,采用改进的Transformer架构,支持8K上下文长度,并使用GQA技术提升推理性能。通过监督微调和人类反馈强化学习,增强了安全性和实用性。该模型于2024年4月发布,基于公开数据训练,知识截止到2023年3月。
gpt2 - 预训练语言模型与自然语言生成技术
预训练模型机器学习Github模型开源项目GPT-2Huggingface文本生成自然语言处理
这是一个由OpenAI开发的大规模预训练语言模型,基于Transformer架构,通过自监督学习方式在英文语料上训练。模型核心功能是预测文本序列中的下一个词,可用于文本生成及其他自然语言处理任务。支持ONNX部署,便于开发者进行实际应用开发和模型微调。
chinese-macbert-base - 通过MLM误差校正任务优化中文BERT模型的性能
开源项目预训练模型掩码语言模型自然语言处理模型Huggingface句子排序预测GithubMacBERT
项目通过引入MLM误差校正预训练任务,减少预训练和微调过程中的差异,提升中文自然语言处理的模型表现。采用同义词工具进行相似词替换,改进传统BERT的[MASK]标记。此外,还结合全词掩码、N-gram掩码和句序预测技术,增强模型功能。MacBERT的架构与原始BERT兼容,为研究人员提供灵活的替换方案。
LLaMAntino-2-chat-13b-hf-UltraChat-ITA - 意大利语对话支持增强的大语言模型
LLaMAntino-2-chat-13b-UltraChat模型Github开源项目大语言模型意大利语自然语言处理AI研究Huggingface
这是一个经过指令微调的意大利语大语言模型。使用QLora技术训练,并基于UltraChat数据集的意大利语版本。项目开发由Leonardo超级计算机支持,并适用于多种意大利语对话场景的云端推理。
Llama3-OpenBioLLM-8B - 医疗领域的开源语言模型,助力创新与研究
临床问答OpenBioLLM-8B自然语言处理HuggingfaceGithub开源项目模型训练技术生物医学
OpenBioLLM-8B是一个由Saama AI Labs开发的开源生物医学语言模型。该模型通过先进技术和8亿参数的设计,实现了在生物医学任务中的高效表现,超过了同类模型的基准测试。其专注于满足医学和生命科学领域的语言需求,基于大量高质量的生物医学数据进行训练,能够高效生成和理解专业文本,为医疗创新提供支持。
calme-2.2-llama3-70b - 采用DPO精调提升文本生成基于Meta-Llama-3-70B-Instruct的高效量化模型
Huggingface文本生成模型Github开源项目Meta-Llama-3-70B-Instruct自然语言处理模型微调机器学习
模型通过DPO精调优化文本生成,基于Meta-Llama-3-70B-Instruct开发,性能在多个基准测试中表现杰出,如IFEval 82.08、HellaSwag 86.22及GSM8k 88.25分。其量化特性提升效能,适宜多种应用场景。
llava-v1.6-34b - 大规模多模态模型的开源项目介绍
自然语言处理计算机视觉HuggingfaceGithubLLaVA多模态人工智能开源项目模型
模型在大规模多模态模型和聊天机器人领域的研究中有重要应用,采用多样化的数据集提升不同任务表现,适合计算机视觉、自然语言处理及人工智能的研究者使用。
Qwen2.5-32B-Instruct-GPTQ-Int4 - 支持多语言和长文本生成的大语言模型
指令调优Github开源项目Qwen2.5多语言支持自然语言处理Huggingface长上下文支持模型
Qwen2.5是最新的大型语言模型,拥有32.5B参数和支持29种语言。其特点包括增强的代码和数学处理能力,改进的指令遵循和长文本生成能力,及对结构化数据的理解。该版本支持长上下文达128K tokens且可生成超过8K tokens的文本,采用GPTQ 4-bit量化,适用于多种文本生成应用。
LLaMAntino-3-ANITA-8B-Inst-DPO-ITA - LLaMAntino-3意大利语文本生成模型
意大利语Github开源项目LLaMAntino自然语言处理Huggingface模型评估多语言模型模型
基于Meta Llama 3技术的LLaMAntino-3模型特别为意大利NLP研究开发,通过AI2推理挑战、HellaSwag和TruthfulQA等任务的微调与评估,实现卓越的文本生成和准确性表现。支持多语言输入,尤其是在意大利语环境中高效处理文本生成任务。
bangla-bert-base - 预训练孟加拉语模型,增强自然语言处理效果
评估结果孟加拉语预训练语言模型模型Github开源项目Bangla-Bert自然语言处理Huggingface
Bangla BERT Base是一款为孟加拉语开发的预训练语言模型,现已在Hugging Face平台上可用。该模型通过BERT的Masked Language Modeling进行训练,使用来自Bengali Commoncrawl和Wikipedia的语料库,并借助BNLP包进行词汇表构建。採用了bert-base-uncased架构,共有12层、768个隐藏单元、12个注意力头和110M参数。经过100万步训练,它在情感分析、仇恨言论检测和新闻分类等下游任务中表现突出,与多语言BERT和Bengali Electra相比,提高了精度。尤其是在Bengali NER任务中,评估结果相对优秀。该模型已经被应用于多项研究,是处理孟加拉语NLP任务的可靠工具。
speechless-zephyr-code-functionary-7b - 灵活集成与动态推理的多LoRAs模型
模型整合Github开源项目多LoRAs代码增强自然语言处理Huggingfacespeechless-zephyr-code-functionary-7b模型
此项目通过结合多种LoRA模块,介绍了一种创建多功能模型的新方法。使用从Mistral-7B-v0.1衍生的LoRA模块,该项目能够静态或动态整合模块来支持多种功能,比如无审查内容和代码增强功能。利用无梯度路由器,可自动组装LoRA模块,仅需少量推理步骤即可解决未见过的任务,并在多个基准测试中表现出色。
Mistral-RAG - 意大利语问答强化模型 Mistral-RAG
生成模式抽取模式问题回答自然语言处理HuggingfaceGithub开源项目模型Mistral-RAG
Mistral-RAG是以Mistral-Ita-7b为基础优化的模型,专注于问答任务。其生成模式可以整合多源信息,适用于教育和创意场合;提取模式则提供快速、精确的答案,适合科研和法律领域。可通过Python便捷调用,提升数据处理效果。