#Github
OpenOrca-Platypus2-13B - 人工智能模型OpenOrca-Platypus2-13B的合并与性能分析
Github开源项目文本生成神经网络模型模型评估Huggingface训练数据集OpenOrca-Platypus2-13B
OpenOrca-Platypus2-13B融合了Platypus2-13B和OpenOrcaxOpenChat-Preview2-13B,采用LoRA技术进行微调,在MMLU、ARC、HellaSwag等基准测试中表现突出,相较初版模型,尤其在LSAT逻辑推理中有显著提升。用户可通过Nomic Atlas查阅完整数据集,并使用特定框架重现基准测试结果。建议开发者在应用之前进行安全测试与调整,以优化部署效果。
Humanish-LLama3-8B-Instruct-GGUF - 介绍模型的量化技术实现文本生成性能突破
Github开源项目文本生成模型数据集基准测试量化HuggingfaceHumanish-LLama3-8B-Instruct
该项目通过llama.cpp进行量化,优化了模型的嵌入和输出权重,使得文本生成更加高效。模型在多个数据集上表现出色,如IFEval数据集测试中达到严格准确率64.98%。项目提供多种文件格式,支持多样化的计算资源和硬件环境,以满足不同的使用需求,包括低内存和ARM芯片的优化场景。
zero123-xl-diffusers - 探索模型在研究及艺术创作中的安全应用
Github开源项目模型生成模型HuggingfaceZero-1-to-3内容安全偏见限制
Zero123-XL-Diffusers模型用于研究,关注大规模生成模型的安全部署及艺术创作应用。建议避免用其生成可能引发争议的图像,如歧视性内容。该模型无法完全实现真实感,并可能生成有误导性的面部或人物图像,存在社会偏见。使用时可结合Safety Checker模块以过滤不当内容。训练集包含潜在不当内容,已采取安全措施。
bloomz-3b - 项目展现了多语言文本生成和自然语言理解的先进技术
Github开源项目模型数据集模型评估Huggingface语言生成核心技术bloomz-3b1
该项目参与多项自然语言处理任务,如指代消解、自然语言推理、程序合成和句子补全,并显示其在多语言环境中的优秀表现。核心数据集涵盖多种语言,尤其在XWinograd和SuperGLUE等数据集上展现出色准确性。此外,项目支持多种编程语言,提供开发者多样选择。通过任务指标的展示,用户可深入了解其在不同测试中的性能表现,尤其是在复杂的推理和上下文理解任务中的广泛应用前景。
Meta-Llama-3.1-70B-Instruct-FP8-KV - Meta-Llama-3.1的FP8量化方法实现高效部署
Github开源项目模型推理量化HuggingfaceFP8Meta-Llama-3.1-70B-InstructQuark
项目使用Quark对Meta-Llama-3.1模型进行FP8量化,优化了线性层(不含lm_head)的权重和激活过程。支持用户在单或多GPU平台上部署并在vLLM兼容平台上高效运行。尽管伪量化评估结果可能与实际推理精确度略有不同,但仍提供关键指标,助力模型开发与优化。通过FP8对称模式的应用,模型性能得到提升,并提供了准确性的参考标准,为后续模型开发提供支持。
gliner_large-v2.1 - 通用命名实体识别模型,适合资源有限的应用场景
Github开源项目开源多语言模型命名实体识别HuggingfaceGLiNER双向Transformer
GLiNER是使用双向Transformer编码器的通用命名实体识别模型,能够识别多种实体类型。相比于传统NER模型和体积庞大的语言模型,GLiNER在资源有限的情况下表现出卓越的灵活性和效率。最新的GLiNER v2.1版本支持单语和多语模型,性能表现依旧出色。用户可以通过安装GLiNER Python库,将其方便地集成到项目中,适用于多种语言的文本预测任务。
yolov5m-license-plate - 车牌检测的YOLOv5模型支持Pytorch适用于多种视觉任务
Github开源项目PyTorch深度学习目标检测模型车牌识别HuggingfaceYOLOv5
YOLOv5m-license-plate项目提供基于YOLOv5技术的车牌检测模型,利用Pytorch进行对象检测,适用于多种计算机视觉任务。开发者可运用简单的Python代码实现精准车牌识别,并支持通过自定义数据集进行微调以提升效果。在keremberke数据集上的精度高达0.988,适合快速、可靠的车牌检测应用。访问项目主页获取更多信息和下载。
CapybaraHermes-2.5-Mistral-7B-GGUF - 模型定量化文件与跨平台支持
Github开源项目模型量化模型GPU加速Huggingface兼容性CapyBaraHermes 2.5 Mistral 7B
项目提供了CapyBaraHermes 2.5 Mistral 7B的GGUF格式模型文件,这些文件使用Massed Compute硬件进行量化。GGUF作为GGML的替代格式,支持多种客户端和库,如llama.cpp、text-generation-webui和KoboldCpp。用户可以选择不同的定量化文件,以确保在不同平台上的最佳性能和兼容性。项目还附有详细的下载和使用指南,适合在Python等多种环境中实现模型应用。
sapbert-from-pubmedbert-squad2 - 针对问答系统的超参数微调提升模型性能
Github开源项目模型数据集训练Huggingfacesapbert-from-pubmedbert-squad2Question Answering
项目在squad_v2数据集上微调了SapBERT-from-PubMedBERT,以提升问答任务性能。采用学习率为2e-05的Adam优化器和线性LR调度器,并通过5个训练周期实现模型收敛,最终验证集损失为1.2582。
gliner_large-v2.5 - 利用双向变压器编码器的通用命名实体识别模型
Github开源项目多语言语言模型模型命名实体识别HuggingfaceGLiNER双向Transformer编码器
GLiNER是一款通用命名实体识别模型,基于BERT风格的双向变压器编码器,能够识别广泛的实体类型,如人名、奖项和日期等。与传统模型相比,它无需预定义实体,且在资源受限的环境中比大型语言模型更具实用性和经济性。通过安装GLiNER Python库,即可轻松加载并预测实体。最新版在基准测试中表现出色。
open-oasis - 世界首个开源AI游戏,交互式世界模型
Github开源项目扩散变换器Oasis 500MDecartEtched游戏生成
了解Oasis 500M,这一由Decart和Etched开发的基于扩散变压器的交互式世界模型,支持通过键盘输入生成游戏玩法。已发布的缩小版Oasis 500M附带推理代码,用于动作条件下的帧生成。可通过GitHub获取模型权重,轻松安装并体验,亦可访问在线演示以进一步了解模型功能。
playground-v2-1024px-aesthetic - 高分辨率图像生成模型提升美学质量
Github开源项目模型文本到图像扩散模型基准测试Playground v2Huggingface用户研究
该模型生成1024x1024像素的高美学图像,并在用户偏好研究中表现出色。通过MJHQ-30K评估基准,Playground v2在多个评价指标上表现优于其他模型,尤其在图像的美学质量上。
dolphin-2.2.1-mistral-7B-GGUF - 支持多平台GPU加速的量化格式,用于大语言模型的创新解决方案
Github开源项目模型Python库硬件加速量化Huggingface模型文件Dolphin 2.2.1 Mistral 7B
Dolphin 2.2.1 Mistral 7B采用GGUF量化格式,这一创新方案取代了已弃用的GGML。借助Massed Compute的硬件,该模型可实现高效的GPU加速和优质存储,并兼容多个web UI和专业工具,如llama.cpp和LM Studio,以满足多平台的深度学习需求。
glm-4-9b-chat-1m - 广泛语言支持与长文本处理能力的先进预训练模型
Github开源项目预训练模型多语言支持机器学习模型HuggingfaceGLM-4-9B长文本能力
GLM-4-9B-Chat-1M 是智谱 AI 开发的先进预训练模型,具备网页浏览、代码执行和长文本推理等功能,支持 26 种语言,适用于需要大规模上下文处理的应用场景。最新更新提升了处理能力,支持长达 1M 上下文长度。
celebs_face_image_detection - 明星面部图像识别的高效开源工具
Github开源项目模型Huggingface召回率名人脸部识别F1分数google/vit-base-patch16-224-in21k精确率
该项目通过处理面部图像来识别明星姓名,准确率约为93%。基于Google的ViT模型进行训练和优化,有效提高识别速度和准确性。Kaggle平台上提供了详细的项目描述,包括丰富的测试数据和分类报告。该工具适用于多种应用场景,如娱乐行业的明星识别、媒体内容管理以及提升用户体验的个性化服务。
pythia-1.4b-deduped - 用于解释性研究的大规模语言模型套件
Github开源项目大语言模型模型训练模型HuggingfaceEleutherAIPythia去重数据集
Pythia Scaling Suite由多个大规模语言模型组成,旨在支持对模型可解释性的研究。其提供不同规模的模型版本,包括专为科研实验设计的1.4B去重模型,伴有154个训练检查点。虽不以下游应用为导向,但其性能在诸多方面可比拟甚至超越同类模型。适用于关注语言模型行为研究的科学工作者。
voxlingua107-epaca-tdnn - 全新多语言识别模型,覆盖107种语言,实现精确分类
Github开源项目模型数据集HuggingfaceSpeechBrain语言识别VoxLingua107
该多语言识别模型基于SpeechBrain训练于VoxLingua107数据集,采用ECAPA-TDNN架构,可识别多达107种语言的语音。模型可用于独立的语言识别或作为嵌入特征提取器,助力开发自定义语言识别系统。训练数据源于自动采集的YouTube视频,总计6628小时的语音样本。模型在评测数据集上的误差率为7%,但在处理小众语言及带口音的语音时性能可能受限。
bert-base-dutch-cased - 荷兰语BERT预训练模型,适用于多任务自然语言处理
Github开源项目预训练模型模型Huggingface荷兰语模型BERTjeUniversity of GroningenGroNLP
BERTje是一个由格罗宁根大学开发的荷兰语BERT预训练模型,目前托管于GroNLP组织。该模型保持原有权重,支持文本分析和自然语言处理,满足不同任务需求。BERTje在荷兰语相关应用中表现出色,提供高效的语言处理能力。
NSFW-3B - 不可见的AI模型体验无道德束缚的文本生成
Github开源项目文本生成模型HuggingfaceAI伴侣NSFW-3B无约束不道德
这是一个前沿AI模型,专注于提供不受道德与安全限制的文本生成能力。其特色在于具备不受限制的输出和特有的黑暗特性,可协助用户探索个人欲望和潜在行动。无论是创作冒险内容还是发现新见解,这一AI都能在不设限的思维中成为理想的探索工具。
albert-large-v2 - 高效低内存占用的英语语言预训练模型
Github开源项目预训练模型语言模型模型自监督学习HuggingfaceALBERT掩码语言建模
ALBERT预训练模型采用英语,具有层权重共享特性,减少内存占用同时提升效率。其自监督语言学习通过掩码语言建模和句子顺序预测实现,适合用于序列和标记分类等任务。第二版模型采用更多训练数据和优化,性能优于初版。模型包含24层、128维嵌入、1024隐藏层及16个注意力头,适合掩码语言建模或句子预测,并需通过微调匹配特定任务需求。
OPT-13B-Erebus - OPT-13B-Erebus模型功能与应用概述
Github开源项目模型数据集Huggingface成人内容NSFW偏见KoboldAIOPT 13B
OPT-13B-Erebus是一个专注于成人主题的文本生成模型,汇集了来自六个来源的数据。该模型提供多样化的生成体验,并警示用户需注意适龄使用。需要注意的是,模型可能存在性别、职业、种族和宗教方面的偏见。
WizardVicuna2-13b-hf - 细化Llama 2模型以优化对话生成能力
Github开源项目文本生成模型Llama 2HuggingfaceMeta训练数据参数规模
基于ehartford的wizard_vicuna_70k_unfiltered数据集,对Llama-2-13b-hf模型进行精细化训练三次,专注于对话应用的优化。该项目在开源基准测试中表现优异,并在人类评估中显示出与某些流行闭源模型相当的帮助性和安全性。为确保最佳性能,需按照指定格式使用INST和<<SYS>>标签。此模型由Meta研发,访问需遵循相关商业许可证。
Llama-3.1-Swallow-70B-Instruct-v0.1 - 强化日语和英语能力的多语言大型模型
Github开源项目大语言模型模型数据集Huggingface指令微调Llama 3.1 Swallow日本语言能力
Llama 3.1 Swallow系列在增强日语和英语能力方面表现出色。基于Llama 3.1的模型结构,它不仅改进了对日语的处理能力,还保留了对英语的支持。利用包括日本网络、维基百科在内的语料,以2000亿个令牌进行训练,该模型在多个领域表现优异,包括文本生成、日英翻译和学术考试。不同的模型变体支持多种语言处理需求,提供灵活选择。
bert-medium-mnli - Pytorch平台上的MNLI任务BERT预训练模型
Github开源项目预训练模型论文BERT模型PytorchHuggingfaceMNLI
本项目提供基于Pytorch、从Tensorflow检查点转换而来的BERT预训练模型,专门用于MNLI任务。此BERT变体在Google官方库的基础上,经过四轮训练,在MNLI和MNLI-mm测试中表现分别为75.86%和77.03%。项目着重展示紧凑模型在预训练中的有效性,更多信息及原始实现可访问相关GitHub库,重点在于轻量化处理及自然语言推理的应用潜力。结合最新研究成果,此预训练模型为自然语言理解提供了高效解决方案,显著改善文本分类性能。
langdetect - 语言检测工具,支持现代和中世纪多种语言
Github开源项目模型Huggingface文本分类语言检测XLM-RoBERTa跨语言学习中世纪语言
langdetect是一个基于XLM-RoBERTa的语言检测模型,支持包括现代和中世纪在内的41种语言。该模型经过微调,专用于文本序列的分类任务,测试集准确率高达99.59%。利用Monasterium和Wikipedia数据集进行训练,确保其在多语言文本分类中的高效表现。该模型适合各种科研和应用场景,满足多语言识别的需求。
Mistral-7B-OpenOrca-AWQ - 高效4比特量化,实现多用户并发推理
Github开源项目模型量化HuggingfaceMistral 7BAWQ并行推理OpenOrca
项目提供OpenOrca的Mistral 7B模型的AWQ版本。AWQ是一种4比特的低比特量化方法,在Transformers推理中更快速,与GPTQ相比具有效率优势。AWQ支持在多用户环境中实现高效的并发推理,有助于使用更小的GPU进行部署,减少整体成本,尽管总体吞吐量仍略低于未量化模型。
detr-resnet-50-panoptic - DETR模型:结合ResNet-50的端到端目标检测与全景分割
Github开源项目目标检测计算机视觉Transformer模型DETR语义分割Huggingface
DETR-ResNet-50是一种创新的目标检测模型,融合了Transformer和卷积神经网络技术。该模型在COCO数据集上训练,支持端到端的目标检测和全景分割。通过100个对象查询机制,DETR实现了高效准确的目标识别。在COCO 2017验证集上,模型展现出优秀性能:框AP为38.8,分割AP为31.1,全景质量(PQ)达43.4。这一模型为计算机视觉任务提供了新的解决方案。
convnextv2_base.fcmae_ft_in22k_in1k_384 - 高效图像识别与特征开发的开源解决方案
Github开源项目卷积神经网络模型图像分类ImageNetHuggingface特征提取ConvNeXt-V2
ConvNeXt-V2是一款基于全卷积掩码自编码器(FCMAE)预训练的图像分类模型,能够高效处理ImageNet-22k和ImageNet-1k数据集。模型拥有88.7M的参数和45.21 GMACs,适合精准的图像识别和特征开发。兼容timm库,支持图像分类、特征图提取和图像嵌入生成等应用场景。通过简单的Python代码即可调用该模型,提升开发效率。
h2o-danube2-1.8b-chat - 1.8B参数的聊天模型,提升自然语言生成效果
Github开源项目文本生成大语言模型模型Huggingface变压器H2O.aih2o-danube2-1.8b-chat
H2O.ai推出1.8B参数的h2o-danube2-1.8b-chat模型,基于Llama 2架构,并经过H2O LLM Studio和Mistral分词器微调。该模型适用于多种文本生成应用,支持transformers库中的集成和量化、分片设置,提升计算效率。在基准测试中表现优异,并重视负责与道德使用,欢迎用户反馈以优化性能。
twins_svt_large.in1k - Twins-SVT模型适用于图像分类的创新Transformer架构
Github开源项目模型图像分类HuggingfaceVision TransformerstimmImageNet-1kTwins-SVT
Twins-SVT是一个利用空间注意力机制的图像分类模型,在ImageNet-1k上训练,具备99.3M参数及15.1 GMACs。通过timm库调用,能有效用于图像识别与特征嵌入工作。
CodeLlama-7b-hf - 大规模预训练模型助力代码生成与解析
Github开源项目Python模型Huggingface模型参数LLAMA 2使用政策代码合成
Code Llama是一套从7亿到340亿参数的生成文本模型,设计用于代码合成与理解。这些模型基于Hugging Face Transformers架构,提供7B基础版本,具备代码补全和填充功能。针对Python的特定变体也已开发,以便提供更佳的技术支持。探索Code Llama可以如何为项目提供技术支持,满足多样的商业与研究需求。
M7-7b - 第三方开源项目的模型合并和性能优化
Github开源项目神经网络模型HuggingfacemergekitLarge Language Model模型合并ASCII艺术
M7-7b项目通过mergekit工具和slerp方法实现多个语言模型的高效合并与优化。项目提供了丰富的技术细节,包括参数设置、数据类型和合并流程等,帮助开发者在模型性能提升和应用中获得实用指导。结合liminerity/merge等模型的实例解析,展示了开源项目在AI模型整合中的创新应用,适合对模型合并技术有兴趣的专业人士了解和研究。
LLaMAntino-3-ANITA-8B-Inst-DPO-ITA - LLaMAntino-3意大利语文本生成模型
Github开源项目自然语言处理模型模型评估Huggingface多语言模型意大利语LLaMAntino
基于Meta Llama 3技术的LLaMAntino-3模型特别为意大利NLP研究开发,通过AI2推理挑战、HellaSwag和TruthfulQA等任务的微调与评估,实现卓越的文本生成和准确性表现。支持多语言输入,尤其是在意大利语环境中高效处理文本生成任务。
realistic-vision-v12 - 基于文本生成逼真图像的新技术
Github开源项目AI绘图图像生成模型Huggingfacestable-diffusiondiffusersRealistic Vision
Realistic Vision 1.2结合稳定扩散技术和diffusers库,从文本生成高质量的逼真图像。采用CreativeML-OpenRAIL-M许可证,项目为数字创作提供了灵活性和创新性。通过简单的文本提示,用户可以生成多种符合视觉需求的图像,适用于多个创意领域。
Configurable-Hermes-2-Pro-Llama-3-8B - 多任务文本生成与可配置安全性的集成模型
Github开源项目文本生成模型Huggingface安全性huggingfaceConfigurable-Hermes-2-Pro-Llama-3-8B多任务配置
本项目展示了一种多任务文本生成模型,采用了可配置安全调优(CST)方法。模型以Vicgalle的数据集为基础,在IFEval、BBH和MATH等多个基准上测试并取得了有价值的结果。此模型支持多样化的系统提示,以适应不同场景需求,包括无害帮助与无审查内容的生成。其表现已在开放LLM排行榜中有所体现,尤其是在严格准确性方面。更多详情和源代码可在GitHub和相关文献中查阅。
mistral-7b-bnb-4bit - 更高效的模型微调与内存优化技术
Github开源项目快速微调量化模型模型Huggingface内存优化Mistral 7bUnsloth
Unsloth技术助力Mistral 7b在内存减少70%的同时实现5倍微调速度提升。项目提供多个适合初学者的Google Colab笔记,只需添加数据集并运行,便可生成更快的微调模型,支持导出到GGUF、vLLM或上传Hugging Face。此方案有效优化了Gemma 7b、Mistral 7b、Llama-2 7b等模型的性能和内存使用,提升模型微调效率。
相关文章
Visual-Chinese-LLaMA-Alpaca 学习资料汇总 - 多模态中文大语言模型
2 个月前
LLM-groundedDiffusion学习资料汇总 - 用大语言模型增强文本到图像扩散模型的提示理解
2 个月前
awesome-llm-agents学习资料汇总 - 大语言模型智能体精选列表
2 个月前
ChatLLM学习资料汇总 - 轻松玩转LLM兼容OpenAI与LangChain
2 个月前
ollama-grid-search学习资料汇总-自动化评估和比较LLM模型的桌面应用
2 个月前
awesome-llm-role-playing-with-persona学习资料汇总 - 大语言模型角色扮演与人格赋予技术综述
2 个月前
NeMo-Curator学习资料汇总 - GPU加速的大语言模型数据处理工具包
2 个月前
pykoi-rlhf-finetuned-transformers学习资料汇总 - 开源RLHF统一接口
2 个月前
ChainFury入门指南 - 开源生产级LLM链式引擎
2 个月前