#开源项目

deformable-detr - 使用ResNet-50骨干网络实现的Deformable DETR目标检测模型
Github开源项目卷积神经网络模型物体检测HuggingfaceDeformable DETRHungarian算法COCO 2017
Deformable DETR模型依托ResNet-50骨干网络,实现了高效的端到端目标检测。通过变形Transformer机制,它能够有效处理并识别图像中的复杂对象。此模型在COCO 2017数据集上经过充分训练,采用目标查询匹配和双重损失优化技术,显著提高了检测精度。适用于高效目标检测场景。
resnet10t.c3_in1k - 使用ResNet-T技术的先进图像分类模型
Github开源项目模型图像分类ImageNetHuggingfaceImage EmbeddingsResNet-T提取特征图
ResNet-T模型结合ReLU激活和分层结构的3x3卷积和池化,实现高效的图像分类。模型在ImageNet-1k数据集上训练,通过SGD优化和Cosine学习率调度,具备出色的分类和特征提取能力,适用于多种应用场景。
gpt2-chinese-cluecorpussmall - 中文GPT2预训练模型与多模态扩展简介
Github开源项目文本生成预训练模型HuggingfaceUER-pyGPT2TencentPretrain
项目涵盖了使用UER-py和TencentPretrain的中文GPT2模型的预训练过程,从GPT2-distil到GPT2-xlarge的多个版本。借助CLUECorpusSmall数据集,这些模型有效支持中文文本生成,并扩展至多模态预训练。模型可通过UER-py Modelzoo或HuggingFace下载,用于实际文本生成应用。
Qwen2.5-3B-Instruct-GGUF - Qwen2.5-3B-Instruct重启量化技术提升多设备文本生成表现
Github开源项目模型量化Huggingface模型下载文件大小嵌入输出权重Qwen2.5-3B-Instruct
本项目通过使用llama.cpp进行量化优化,使文本生成模型在各类设备上运行更为高效,其在ARM芯片上的性能尤为突出,同时提供多种量化类型以满足不同内存和计算需求。更新的tokenizer进一步提升了文本生成质量。项目提供多种K-quant和I-quant选项以满足特定环境需求,并深入对比不同量化格式的性能差异。为研究人员和开发者提供丰富下载资源和技术支持,助力大规模语言模型的高效实现。
Qwen2-1.5B-Instruct-GPTQ-Int4 - 多语言大模型Qwen2,增强理解与推理性能
Github开源项目语言模型模型性能量化HuggingfaceQwen2-1.5B-Instruct
Qwen2语言模型系列在开源与专有模型对比中展现出色表现。1.5B Instruct模型优化后,适合编程、数学及推理任务,支持多语言和代码处理,并具备改进的分词功能。可高效兼容Hugging Face Transformers平台,推理速度快,内存占用低。
gemma2-9B-daybreak-v0.5-i1-GGUF - 多规格IQ量化文件优化AI模型表现
Github开源项目Hugging Face模型使用方法量化Huggingface模型文件Gemma2-9B-Daybreak
本项目提供多种规格的量化文件,供满足不同AI性能和质量需求的应用选择。用户可通过TheBloke的指南熟悉GGUF文件的使用和多部分合并,并根据具体要求选择合适的文件版本。量化文件包括从i1-IQ1到i1-Q6的不同规格,其中部分文件在优化速度的同时,保持了优秀的质量。感谢nethype GmbH和@nicoboss的技术支持,确保了高质量imatrix量化文件的生产。
Llama-3.2-3B-Instruct-Q4_K_M-GGUF - Llama 3.2模型的安装与使用详解
Github开源项目模型模型转换许可协议HuggingfaceLlamaMeta使用政策
Llama-3.2-3B-Instruct Q4_K_M-GGUF模型经过llama.cpp转换为GGUF格式,支持多语言生成,适合用于AI研究与开发。用户可以通过简单的安装步骤在Mac和Linux系统上部署该模型,并通过命令行界面或服务器进行推断。此模型具备高效的文本生成能力,是进行AI开发和优化的有效工具。
sentence-camembert-base - 提供法语句子嵌入的先进方法,有效提升文本相似度
Github开源项目模型模型评估Huggingface句子嵌入句子相似性法语sentence-camembert-base
该模型利用预训练的Camembert-base和Siamese BERT-Networks微调,为法语句子嵌入提供了先进的方法,通过训练在stsb_multi_mt数据集上,有效提升文本相似度精确性。测试中Pearson相关系数达到82.36,适合从事法语内容分析的开发者,助力提高自然语言处理任务的准确性和效率。
bge-base-zh-v1.5 - 文本低维向量映射提升中文检索与分类效率
Github开源项目模型Huggingface对比学习嵌入模型FlagEmbedding向量检索句子相似性
FlagEmbedding是一个开源项目,可将文本转换为低维密集向量,用于多种任务,如检索、分类和语义搜索。bge-base-zh-v1.5版本优化了相似度分布,没有指令也能提升检索能力。支持中文和英文的处理,并与大型语言模型(LLM)无缝集成,bge-reranker交叉编码器模型为文档重新排名提供高精度结果。此外,最新的LLM-Embedder满足多样化检索增强需求,使用户在大数据环境中更高效地完成检索和分类。
twitter-roberta-base - 社交媒体推文特化的RoBERTa基础模型
Github开源项目机器学习模型Huggingface数据预处理特征提取推文分析Twitter-roBERTa-base
该模型在经过5800万推文数据训练后基于原始RoBERTa基础模型优化,旨在提高其对Twitter数据的自然语言处理性能。用户可通过TweetEval官方仓库评估该模型,示例功能包括文本预处理、掩码语言模型、推文嵌入及特征提取,适用于情感分析及文本相似度判定等用途。
opus-mt-af-en - 基于transformer-align模型的af到en翻译工具
Github开源项目翻译模型Huggingface语料库句子片段opus-mt-af-en
opus-mt-af-en项目通过transformer-align模型和SentencePiece预处理实现af到en语言对的高效翻译,展示了优异的BLEU和chr-F分数。提供原始权重和测试集文件,方便在不同场景下验证性能。
task-13-Qwen-Qwen1.5-0.5B - 探讨AI模型在直接使用和下游应用中的潜在性能提升
Github开源项目模型Huggingface碳排放模型卡Qwen1.5-0.5B培训数据技术规范
本文审视了AI模型的潜在使用场景,包括直接使用和下游集成的可能性,着重分析了模型在使用中可能出现的偏见和风险及其技术限制。我们为使用者提供了建议,讨论了使用相关工具进行环境影响估算的步骤。文章也涵盖了训练、评估和技术规格的各个方面,旨在为研究人员和开发者提供参考。
translation-en-pt-t5 - 针对英语到葡萄牙语翻译优化的T5模型
Github开源项目翻译模型Huggingface英语葡萄牙语T5
介绍英语到葡萄牙语翻译的改进T5模型,利用预训练模型提升翻译准确性和效率。
OPT-2.7B-Erebus - 专为绘制成人主题的高性能文本生成工具,涵盖多元数据集
Github开源项目AI模型模型数据集HuggingfaceKoboldAIOPT 2.7B成人主题
该高性能文本生成模型旨在生成成人主题内容,结合六个不同的数据源。易于集成至文本生成管道,但内容性质限制其不适合未成年人使用。
BioLinkBERT-base - 结合文献和引用关系的生物医学预训练模型
Github开源项目模型生物医学Huggingface文本分类特征提取跨文档任务BioLinkBERT
BioLinkBERT-base模型利用PubMed文献和引用信息进行预训练,在多项生物医学NLP基准测试中达到了出色表现。它在知识密集型及跨文档任务中尤为有效,并可用于问题回答、序列分类和特征提取的微调应用。
llava-next-interleave-qwen-7b - 研究大规模多模态与聊天机器人的开源自回归语言模型
人工智能Github开源项目开源模型多模态Huggingface研究LLaVA-Next Interleave
LLaVA-Next Interleave是一个开源的自回归语言模型,通过微调多模态指令数据进行训练。基于Qwen/Qwen1.5-7B-Chat框架,主要用于大规模多模态模型和聊天机器人的研究。目标用户包括计算机视觉、自然语言处理、机器学习和人工智能领域的研究人员和爱好者。项目禁止商业用途,使用者需遵守相关数据集及检查点的原始许可证条款,并确保符合所有适用法律法规。
bakLlava-v1-hf - 基于Mistral-7B的视觉到文本生成模型
Github开源项目开源AI绘图图像处理模型模型优化HuggingfaceBakLLaVA
该模型基于Mistral-7B,支持多图像与多提示操作,性能在多项基准测试中优于Llama 2 13B,适用于学术任务和视觉问答。项目更新中,以进一步优化使用体验。
TinyLlama-1.1B-Chat-v1.0-llamafile - 紧凑型1.1B Llama Chat模型,适用于多种计算需求
Github开源项目预训练GPU模型量化Huggingface对话模型TinyLlama
TinyLlama-1.1B-Chat经过3万亿个tokens的预训练,并在90天内优化完成。它提供API和CLI接口,采用与Llama 2相同的架构和分词器,适合内存和计算受限的环境,可以兼容多种开源项目。模型在合成数据集上的微调和与开源工具的对齐,增强了对话生成的多样性和准确性,适用于各种自然语言处理应用。
stable-fast-3d - 通过单图生成低多边形UV贴图3D模型的高速大规模重建技术
Github开源项目Stability AI模型Huggingface图像到3D安全措施Stable Fast 3D企业许可
Stable Fast 3D是由Stability AI开发的一种利用Transformer架构的图像到3D转换模型,能够通过512x512像素的单幅图像快速生成低多边形贴图的3D模型。这些模型适用于游戏引擎和渲染等应用环境,广泛应用于艺术创作、教育工具和设计流程。模型基于Objaverse数据集进行训练,为年收入低于100万美元的用户提供Community License下的免费商业使用权限,而超过此收入的商业用户需申请企业许可。
efficientnet_b5.sw_in12k_ft_in1k - EfficientNet-加强版:适用于图像分类与特征提取的高效模型
Github开源项目模型图像分类ImageNetHuggingfaceEfficientNet特征提取timm
EfficientNet模型结合了Swin Transformer的优化策略,经过ImageNet-12k预训练及ImageNet-1k微调,适用于图像识别、特征提取和嵌入生成。该模型使用AdamW优化器、梯度裁剪和余弦退火学习率等技术,提供高效的图像分类解决方案。
bcms-bertic - 多语言Transformer模型助力波斯尼亚及周边语言处理
Github开源项目模型Huggingface实体识别仇恨言论检测BERTić变压器语言模型语义标注
模型通过8亿词训练,优化波斯尼亚、克罗地亚、黑山及塞尔维亚语言处理。在词性标注、命名实体识别等方面表现优于mBERT、cseBERT,且已微调供识别仇恨言论及命名实体。
Hermes-3-Llama-3.1-8B-lorablated-GGUF - 无审查限制的Llama 3.1大语言模型 适配GGUF格式
Github开源项目模型LoRAHuggingface模型合并Llama-3.1Hermes-3任务算术
Hermes-3-Llama-3.1-8B-lorablated是一个移除了审查限制的开源语言模型。通过lorablation技术与task arithmetic合并方法,结合Llama-3.1-8B-Instruct-abliterated-LORA实现了更开放的对话能力。模型采用bfloat16数据类型,支持GGUF格式,可自由部署使用。相比原版模型,在保持合法性的基础上提供了更灵活的问答体验。
gemma-2-9b-it-function-calling-GGUF - 精确优化与功能调用的对话生成应用
Github开源项目文本生成模型微调模型Huggingface函数调用gemma-2-9b-it人机对话
该项目对google/gemma-2-9b-it模型进行细致调优以处理函数调用任务,专注于提高对话生成的灵活性和功能集成。数据集采用DiTy/function-calling且为人类注释,为确保高质量结果输出,支持safetensors和GGUF格式,适用于各种应用场景。模型版本提供多种量化类型,从F16基础格式到Q6_K,适合高效精确实现函数调用的需求。
prot_bert_bfd - 用于自监督蛋白质序列分析的ProtBert-BFD模型
Github开源项目语言模型模型Huggingface特征提取蛋白质序列掩码语言模型ProtBert-BFD
ProtBert-BFD模型是一种利用Bert架构进行蛋白质序列自监督学习的预训练工具。该模型使用BFD数据集进行训练,能够捕捉蛋白质的生物物理特性,适用于特征提取和下游任务。其遮蔽语言建模方法无需人工标记即可从大规模数据中进行学习,成为生物信息学中理解蛋白质编码的有效工具。
StickersRedmond - 通过LORA模型实现多样化的贴纸图像生成
Github开源项目AI绘图模型HuggingfaceLORARedmond.AI生成式图片Stickers.Redmond
StickersRedmond是一个基于SD XL 1.0模型的开源项目,专注于贴纸图像的生成和涂色书图像的设计。该项目适用于创意图像的生成需求,支持GPU的Redmond.AI为项目提供了有力技术保障。项目接受Patreon、Ko-fi和BuyMeACoffee平台上的支持,更多更新资讯可在Twitter上获得。
gpt2 - 预训练语言模型与自然语言生成技术
Github开源项目文本生成预训练模型自然语言处理机器学习模型GPT-2Huggingface
这是一个由OpenAI开发的大规模预训练语言模型,基于Transformer架构,通过自监督学习方式在英文语料上训练。模型核心功能是预测文本序列中的下一个词,可用于文本生成及其他自然语言处理任务。支持ONNX部署,便于开发者进行实际应用开发和模型微调。
Meta-Llama-3-8B-GGUF - Meta Llama 3 8B模型的GGUF量化版本 支持8K上下文长度
人工智能Github开源项目大语言模型自然语言处理模型Llama 3HuggingfaceMeta
Meta-Llama-3-8B-GGUF是Meta发布的Llama 3系列8B参数大语言模型的量化版本。模型针对对话场景优化,采用改进的Transformer架构,支持8K上下文长度,并使用GQA技术提升推理性能。通过监督微调和人类反馈强化学习,增强了安全性和实用性。该模型于2024年4月发布,基于公开数据训练,知识截止到2023年3月。
MythoMax-L2-13B-GGUF - 基于Llama2的高性能GGUF量化语言模型
Github开源项目LLMAI模型模型量化HuggingfaceGGUFMythoMax L2 13B
MythoMax-L2-13B是一个基于Llama2的GGUF量化语言模型,提供2-8比特共13种量化版本。模型支持llama.cpp等多种终端工具,具备更强的分词能力和特殊令牌支持。模型文件大小从5.43GB到13.83GB不等,可根据设备配置选择合适版本。该模型遵循Meta Llama 2许可协议。
falcon-11B-vlm - 11B参数增强型视觉语言模型,提升细节图像理解与文本生成
Github开源项目模型Huggingface大规模语言模型视觉语言模型图像文本数据PyTorch 2.0Falcon2-11B-vlm
Falcon2-11B-vlm是一款11B参数的模型,通过超过5000B RefinedWeb数据训练,结合预训练的CLIP ViT-L/14视觉编码器,专注于增强小物件细节感知及高分辨率图像处理。该模型适用于多种视觉语言研究,特别是在细节复杂的图像理解任务中表现出色。其使用TII Falcon License 2.0许可,提倡负责任的AI使用。
zephyr-7B-alpha-AWQ - Zephyr 7B模型AWQ量化版支持轻量级推理部署
Github开源项目文本生成深度学习模型量化模型HuggingfaceAWQZephyr-7B
Zephyr 7B Alpha是一个基于Mistral-7B训练的对话助手模型。本版本采用AWQ量化技术将模型压缩至4位精度,使用wikitext数据集和128g量化参数进行优化。相比GPTQ,AWQ量化能提供更快的推理速度,同时显著降低显存占用,使模型可以在配置较低的GPU上高效部署运行。
stella-large-zh-v2 - stella-large-zh-v2模型在多任务中的综合表现
Github开源项目模型模型评估Huggingface特征提取句子相似性亚马逊评论分类stella-large-zh-v2
本项目借助多个MTEB数据集,对模型在句子相似度、分类及检索任务中的表现进行了全面评估。通过cos_sim_pearson、cos_sim_spearman等多项指标,展示了该模型在中文文本相似度和分类任务中的高效能力,尤其体现在MTEB BQ和MTEB CovidRetrieval数据集上。测试结果表明,该模型可在多种任务和数据集上灵活应用,适用于高精度文本相似性测量和分类的应用场景。
lyrielv16 - 超写实赛博朋克人像生成AI模型 支持多种编程语言接入
Github开源项目图像生成API接口模型Huggingface人工智能绘画Stable Diffusion APIlyrielv16
lyrielv16是一款基于StableDiffusion的超写实人像生成AI模型。该模型专注于创建电影级品质的赛博朋克风格人像,允许调整面部特征、光效和场景氛围等细节。开发者可通过免费API密钥使用该服务,支持多种编程语言接入,并能自定义图像尺寸、采样步数等参数。lyrielv16适用于需要生成高质量人像的各类项目。
gliner_small-v2.1 - 基于双向Transformer的轻量级通用实体识别模型
Github开源项目自然语言处理模型训练机器学习模型命名实体识别HuggingfaceGLiNER
gliner_small-v2.1是一个基于双向Transformer架构的命名实体识别模型,具备识别任意类型实体的能力。这款模型采用166M参数规模,在保持较小资源占用的同时提供灵活的实体识别功能。模型支持英语处理,采用Apache-2.0许可证开源发布。相比传统NER模型的固定实体类型限制和大语言模型的高资源消耗,该模型提供了一个平衡的解决方案。
paraphrase-albert-base-v2 - 基于ALBERT的句子嵌入模型用于文本聚类和语义搜索
Github开源项目自然语言处理语义搜索模型Huggingface文本嵌入sentence-transformers向量计算
这是一个基于ALBERT架构的句子嵌入模型,可将文本映射至768维向量空间。该模型支持sentence-transformers和HuggingFace Transformers两种集成方式,适用于文本聚类、语义搜索等任务。通过平均池化处理,模型能高效生成文本向量表示,尤其适合需要计算句子相似度的应用场景。
hubert-base-ch-speech-emotion-recognition - 中文情感音频识别模型,使用CASIA数据集及HuBERT预训练
Github开源项目模型高准确率Huggingface情感识别音频分类CASIA数据集hubert-base-ch-speech-emotion-recognition
项目采用TencentGameMate/chinese-hubert-base模型,在CASIA数据集上进行训练,实现情感识别。CASIA数据集包括6种情感的1200个样本,优化了训练参数,如AdamW优化器和Step_LR学习率调度。模型在测试集上的准确率为97.2%,适用于多种情感分析应用场景。
DanTagGen-beta - AI图片标签生成器助力精准艺术创作
Github开源项目深度学习AI绘图模型数据集生成模型HuggingfaceDanTagGen
DanTagGen-beta是一款基于LLaMA架构的AI标签生成器,专为Danbooru风格的AI艺术创作设计。通过5.3M数据集训练,该工具能够根据基础标签智能推荐相关标签,有效提升生成图像的质量和细节。DanTagGen-beta支持多种部署方式,包括llama.cpp和量化模型,为AI艺术创作者提供了高效的标签辅助工具。