#Github

Yi-Coder-9B-Chat-GGUF - Yi-Coder-9B-Chat模型量化文件选择及使用指南
Github开源项目文本生成模型transformers量化HuggingfaceYi-Coder-9B-Chat模型文件
Yi-Coder-9B-Chat经过Llamacpp的imatrix选项量化处理,增强了在不同硬件上的推理能力。用户能根据自身需求从Q8_0、Q6_K_L等多种量化模型中选择,以适应不同的RAM和VRAM配置。更新内容包括分词器修复,所有文件均可在LM Studio中运行。项目亦提供对ARM芯片优化的Q4_0_X_X文件,用户可通过huggingface-cli下载具体量化模型并查看硬件兼容性和使用建议。
bert-base-japanese-upos - 日语自然语言处理的BERT模型应用
Github开源项目BERT模型HuggingfaceUniversal Dependencies日语POS标注依存解析
此模型在日语维基百科文本上进行预训练,支持词性标注和依存解析等任务。它衍生自bert-base-japanese-char-extended,利用UPOS体系为短单位词标注。通过Python代码,用户能方便地进行文本处理和结构解析,适合希望高效处理日语文本的用户。该模型具有良好的兼容性,可通过Huggingface平台使用。
task-13-Qwen-Qwen1.5-1.8B - 深入解析深度学习模型的应用场景及相关风险
Github开源项目模型Huggingface环境影响模型卡技术规格Qwen/Qwen1.5-1.8B培训细节
项目提供对深度学习模型的直接和下游应用的分析,同时涵盖使用的潜在用户和影响群体。尽管一些技术规范和训练细节有待完善,但项目提供了关于环境影响的计算指南和设备信息,有助于从业者和研究人员初步了解和调整应用模型。使用时需注意模型的偏见、风险和局限。
Mistral-7B-Instruct-v0.3-GGUF - 支持功能调用的高质量指令跟随模型
Github开源项目模型LM StudioHuggingface功能调用指令跟随Mistral 7B Instruct
Mistral 7B Instruct v0.3是一款经过优化的指令跟随模型,新增功能调用支持进一步扩展应用范围,增强助理功能。此版本引入扩展词汇表和新的分词器,支持功能调用。模型由Mistral AI创建,GGUF量化由bartowski提供。提醒:本社区模型由第三方提供,用户需自行负责内容的准确和适用性。
text2vec-large-chinese - 中文大规模句子相似性与特征提取模型
Github开源项目模型transformersHuggingface特征提取text2vec句子相似度MacBERT
基于text2vec衍生的中文模型,采用LERT替代MacBERT,提高句子相似性和特征提取效率。支持onnxruntime,发布于2024年6月25日。
trocr-base-stage1 - 以Transformer为基础的图像文字识别预训练模型
Github开源项目Hugging Face模型TrOCRHuggingface光学字符识别文本Transformer图像Transformer
此预训练模型使用Transformer进行光学字符识别(OCR),为TrOCR模型的一部分。其图像编码器采用BEiT权重初始化,文本解码器则使用RoBERTa权重,处理图像为固定大小的16x16像素块并线性嵌入。适用于单行文本图像的OCR任务,并支持针对特定任务进行微调,兼容PyTorch实现。
subnet9_Aug17 - transformers模型的特点与优化指导
Github开源项目模型TransformersHuggingface训练数据碳排放偏见模型卡
文档介绍了transformers库中的模型,涵盖开发细节、使用场景及局限性。根据模型卡的建议,用户可以了解模型的偏见、风险和局限,及如何开始使用。简要说明了性能评估、环境影响和技术规格,并提供起步代码和细节。详细信息建议查看相关存储库和文献。
blinkshot - 精确生成的开源AI图像工具
Github开源项目开源AI图像生成Together AIBlinkShotFlux Schnell
BlinkShot是由Flux Schnell和Together AI技术支持的开源AI图像生成工具,使用Next.js和Tailwind框架构建,并集成Helicone的数据可视化及Plausible网站分析功能。项目的未来发展方向包括提供下载按钮、邮件认证、剩余积分提示及图像库功能。用户可通过克隆仓库并在本地运行体验该工具。
dolphin-2.5-mixtral-8x7b-GGUF - Dolphin 2.5 Mixtral 8X7B模型兼容多种推理环境,支持多种量化选项
Github开源项目Python模型HuggingfaceGPU推理兼容性量化方法Dolphin 2.5 Mixtral 8X7B
Dolphin 2.5 Mixtral 8X7B是Eric Hartford推出的一款采用GGUF格式的模型。它支持多种比特选项的量化推理,并兼容llama.cpp、KoboldCpp、LM Studio等环境。模型设计注重性能与资源平衡,适合多种应用场景。
clip4clip-webvid150k - 改进视频检索精度的解决方案
Github开源项目Hugging Face模型模型评估HuggingfaceWebVidCLIP4Clip视频检索
CLIP4Clip结合CLIP模型和WebVid数据集,成功在视频文本检索中提高精度,利用150,000个视频文本对的训练提升性能。此模型擅长处理大规模视频数据,具备视觉-时间概念学习能力,适合高效视频搜索应用。其架构支持文本到视频的快速检索,提升搜索效率。
POLAR-14B-v0.2 - 韩文大语言模型助力生态系统
Github开源项目开源语言模型模型HuggingfaceAI实验室偏见与风险POLAR
POLAR-14B-v0.2由Plateer AI实验室开发,受启于SOLAR,致力于韩文语言模型的持续发展与贡献。
scibert_scivocab_cased - 科学文献领域的预训练语言模型
Github开源项目预训练模型语言模型模型Huggingface语料库SciBERT科学文本
SciBERT是一款用于科学文本的预训练语言模型,基于Semantic Scholar的114万篇论文和31亿个标记进行训练。其专有的scivocab词汇表利于更好地匹配训练语料,支持cased和uncased模型版本,适合科学文献分析。
Qwen2-1.5B-Instruct-GGUF - Qwen2提供出色的多语言支持与兼容性
Github开源项目大语言模型模型Transformer架构Qwen2Huggingface指令调优多语言能力
Qwen2系列涵盖基础及指令微调语言模型,参数规模从0.5亿到72亿,具有优秀的多语言、编码及推理能力。1.5B版本展示了卓越的语言理解与生成能力,可媲美专有模型。本地可通过llama.cpp运行,并兼容OpenAI API以简便方式访问。多种模式与量化选项,适应不同需求与应用场景。
H-optimus-0 - 自监督视觉Transformer在病理学与组织学中的应用
Github开源项目模型自监督学习Huggingface病理学医疗影像视觉transformerH-optimus-0
H-optimus-0是一个开源的视觉Transformer模型,基于11亿参数,利用自监督学习在50万张H&E染色全幅切片病理图像上训练。该模型能从组织学图像中提取强大特征,支持突变预测、生存分析和组织分类等应用。模型期望输入图像尺寸为224x224,建议在CUDA设备上采用混合精度以加快推断。适用于医学图像处理,尤其在病理学与组织学研究中表现出色。
Lunatic - 结合艺术与现实的高仿真图像生成技术
Github开源项目AI绘图Stable Diffusion模型艺术风格Huggingface现实主义幻想主题
Lunatic项目通过整合InsaneRealistic和Lunar Diffusion两种模型,并使用SuperMerger技术,生成高仿真图像。该项目适合多种风格的图像创作,从VHS复古风到超现实幻想场景,在艺术性与真实性上表现卓越,为用户提供创新的图像生成体验。
llm-compiler-7b - 一种用于增强代码优化的先进语言模型
Github开源项目开源代码优化模型HuggingfaceLLVM编译器优化Meta Large Language Model Compiler
Meta的LLM Compiler是一款编译器优化语言模型,基于Code Llama构建,提升了对编译器中间表示与汇编语言的理解。LLM Compiler提供7B和13B两个版本,能够预测LLVM优化效果,在代码优化与反汇编任务中表现优异,实现了显著的代码优化和反汇编准确性。这一模型适用于研究与商业用途,助力开发者提高代码优化效率。
gemma-2-baku-2b-it-gguf - 跨语言量化模型,支持多平台兼容应用
Github开源项目模型使用方法LM StudioHuggingface模型卡量子化gemma-2-baku-2b-it
量子化后的gemma-2-baku-2b-it模型为日语和英语提供跨语言支持,增强处理效率。通过多种工具如llama.cpp、LM Studio(Windows和Mac支持)和LLMFarm(适用于iOS)进行应用。项目采用TFMC的数据集,专注于优化日语语言学习模型。访问有关npaka将LLM-jp-3转换为gguf的详细步骤,以提高应用效率和开发潜力。
L-MChat-7b - 合并技术提升文本生成能力
人工智能Github开源项目文本生成Hugging Face模型Huggingface模型合并L-MChat-7b
该项目通过结合Nexusflow/Starling-LM-7B-beta和FuseAI/FuseChat-7B-VaRM模型,并采用SLERP方法提升了文本生成性能。在AI2 Reasoning Challenge、HellaSwag等数据集上表现突出,最高达到84.59%的归一化准确率,适用于多种智能文本生成任务。项目配置灵活、易于集成,是用户寻找高性能生成模型的理想选择。
convnext_nano.in12k_ft_in1k - 基于ConvNeXt架构的轻量级图像分类模型
Github开源项目模型图像分类ImageNetHuggingface特征提取ConvNeXttimm
convnext_nano.in12k_ft_in1k是基于ConvNeXt架构开发的轻量级图像分类模型,模型参数量1560万,在ImageNet-12k数据集预训练后在ImageNet-1k微调。支持图像分类、特征提取和嵌入向量生成等功能,适用于计算资源受限环境下的视觉任务。
ddpm-ema-church-256 - DDPM模型在图像合成中的应用与性能分析
Github开源项目深度学习模型图像合成Huggingface无条件生成Denoising Diffusion Probabilistic Models噪声调度器
ddpm-ema-church-256项目采用DDPM模型进行图像合成,结合扩散概率模型与Langevin动态,取得CIFAR10数据集Inception分数9.46和FID分数3.17。支持DDPM、DDIM、PNDM调度器推理,实现质量与速度平衡,并提供预训练管道以生成高质量图像。项目为图像生成与压缩提供了创新思路。
vit-base-patch32-384 - Vision Transformer图像分类模型支持大规模数据训练
Github开源项目深度学习计算机视觉模型图像分类ImageNetHuggingfaceVision Transformer
Vision Transformer(ViT)是一款图像分类模型,采用Transformer编码器架构,通过将图像分割为固定大小patch进行处理。模型在包含1400万张图像的ImageNet-21k数据集完成预训练,并在ImageNet-1k数据集上进行384x384分辨率的微调。提供预训练权重,可直接应用于图像分类或迁移学习任务。
flan-t5-base-finetuned-QLoRA-v2 - 基于flan-t5-base的新闻摘要生成,专注内容理解与解析
Github开源项目模型Huggingfacefine-tuning训练超参数flan-t5-baseRougecnn_dailymail
flan-t5-base-finetuned-QLoRA-v2模型经过cnn_dailymail数据集微调,聚焦新闻摘要生成。基于google的flan-t5-base,模型在评价集的Rouge1、Rouge2、Rougel指标分别为0.244、0.111和0.2032。利用PEFT库、Transformers与Pytorch进行训练,确保了高效兼容性。适合需要自动化理解和处理新闻内容的场景。
Tess-v2.5-Phi-3-medium-128k-14B - 提高大型语言模型指令处理的效率与准确性
Github开源项目开源模型HuggingfaceAxolotl中等模型microsoft/Phi-3-medium-128k-instruct
Tess-v2.5-Phi-3-medium-128k-14B基于微软的Phi-3模型,利用Axolotl平台提升其指令理解和生成能力。通过优化模型结构,提高用户交互的精准性,从而提升文本生成质量。
tf_efficientnetv2_m.in21k_ft_in1k - EfficientNetV2的图片识别与特征提取
Github开源项目深度学习模型图像分类Huggingface图像嵌入特征提取EfficientNet-v2
EfficientNetV2模型在ImageNet-21k数据集上预训练,并在ImageNet-1k上微调,最初使用TensorFlow构建,由Ross Wightman移植至PyTorch。其参数量为54.1M,能够在不同分辨率下实现精确的图像识别,并支持通过timm库执行图像分类、特征提取和嵌入生成等多任务。
tf_efficientnet_b5.ns_jft_in1k - 精准描述EfficientNet的图像分类与特征提取能力
Github开源项目模型图像分类ImageNetHuggingfaceEfficientNettimmNoisy Student
模型tf_efficientnet_b5.ns_jft_in1k,根植于EfficientNet,经过Noisy Student半监督学习技术在Tensorflow上训练后移植至PyTorch,专用于ImageNet-1k和JFT-300m未标记数据集的图像分类,具有优越的准确性和效能。其结构简洁,具备卓越的特征提取和图像嵌入能力,在多种计算机视觉任务中广泛应用。
ether-blu-mix-6 - 免费的超真实文本到图像生成API,支持多种编程语言
Github开源项目API接口模型Huggingface文本转图像免费生成Ether Blu Mix 6超真实
Ether Blu Mix 6的文本到图像生成API可免费获取密钥,方便在PHP、Node、Java等多种编程语言中使用。该API支持超真实的图像渲染,详细的文档提供了代码示例,帮助快速上手。用户可以调整图像分辨率和步数等参数,以生成高质量图像。使用优惠码DMGG0RBN可享受25%的折扣,有助于完成不同数字创意项目。
OLMo-1B-hf - 结合开放性与多功能性提升语言模型科学
Github开源项目语言模型Transformer模型HuggingfaceOLMo开放语言模型Dolma数据集
OLMo是一个由Allen Institute for AI开发的开源语言模型,支持Hugging Face Transformers格式和Dolma数据集,具有自回归Transformer架构,适合多种语言处理任务,涵盖完整训练代码和检查点。
suzume-llama-3-8B-multilingual-orpo-borda-top75 - 多语言模型的ORPO方法微调及性能评估
Github开源项目模型数据集训练评估HuggingfaceSuzume ORPO
该项目采用ORPO方法对多语言模型进行微调,使用lightblue/mitsu数据集进行训练,取得了显著的性能提升。推荐的最佳模型版本在多种语言的评测得分均超过基础模型和其他对比模型。研究团队正在开发新的商用版本,旨在未来为商业应用提供支持。
deepseek-llm-7b-chat - 7B参数中英双语模型,开放源代码以支持研究
Github开源项目开源语言模型模型Huggingface中文DeepSeek LLM商业用途
DeepSeek LLM 是一种含有7B参数的语言模型,在中英文数据上进行广泛训练,并开源以支持研究。模型经过指令优化,适用于自然语言处理任务,并通过示例展示了互动方式,如聊天功能。该模型支持商业用途,其使用需符合许可协议。
opus-mt-nl-fr - 荷兰语到法语的开源机器翻译模型
Github开源项目翻译模型HuggingfaceSentencePiecetransformer-alignopus-mt-nl-fr
这个开源项目用于实现荷兰语到法语的机器翻译,使用基于transformer-align的模型,并结合数据标准化与SentencePiece预处理。依托OPUS数据集,该项目在Tatoeba.nl.fr测试集上获得了51.3的BLEU分数,展示了较好的翻译效果。提供原始模型权重及测试集翻译文件,以供进一步研究和应用。
bert-base-uncased-ag-news - 基于BERT的文本序列分类模型
Github开源项目模型HuggingfaceTextAttack精度序列分类bert-base-uncasedag_news数据集
bert-base-uncased模型通过TextAttack和ag_news数据集进行微调,专为文本序列分类任务优化。经过5轮训练并采用交叉熵损失函数,该模型在第3轮时达到了0.951的高准确率。该模型设置批量大小为16,学习率为3e-05,最大序列长度为128,适用于高效准确的文本分类任务。了解更多信息请访问TextAttack的Github页面。
llama-3-2-1b-sft - 超大规模对话数据集的精细调优AI模型
Github开源项目微调模型Huggingface训练数据集超参数超大规模语言模型llama-3-2-1b-sft
该项目将NousResearch的Llama-3.2-1B模型进行精细调优,使用HuggingFaceH4/ultrachat_200k数据集以提高对话处理性能。在多GPU分布式训练中,使用Adam优化器和余弦学习率调度策略,该模型在验证集上的损失率降低至1.2759。适用于广泛的自然语言处理应用,特别是在对话生成和交互式AI领域中。
Mistral-7B-v0.2 - 模型下载和转换步骤详解
Github开源项目Hugging Face模型HuggingfaceMistral-7Btokenizer权重转换模型检查点
本文介绍了Mistral-7B-v0.2模型的下载和转换过程,指导用户通过特定脚本和工具完成模型配置,以便在Huggingface平台上进行部署。同时,还提供了从相关库复制tokenizer模型的步骤,确保功能的完善性。
roberta-base-chinese-extractive-qa - 中文提取式问答模型简介与使用指南
Github开源项目模型RoBERTaHuggingface训练数据普希金腾讯云提问回答
该项目提供了一种中文提取式问答的完整方案,通过UER-py和TencentPretrain进行模型微调,支持大规模参数和多模态预训练拓展。模型可通过UER-py或HuggingFace获取,便于快速部署问答管道。训练数据包括cmrc2018、webqa和laisi,旨在提高模型的语义理解能力,并在腾讯云上进行三轮训练以优化性能。项目还提供了详细指导,便于导入和转换模型格式,从而提高问答系统的精准性。
ToxicityModel - 基于RoBERTa的毒性检测与评分优化工具
Github开源项目AI辅助模型transformersHuggingface词汇评级毒性识别ToxicityModel
这是一款基于RoBERTa的微调模型,用于有效检测和评分文本毒性。模型通过有毒及无毒语言示例训练,特别在wiki_toxic和toxic_conversations_50k数据集上表现出色。作为RLHF训练的辅助工具,该模型的输出值可用于判断文本的毒性与否,适合多种需检测有毒语言的应用场景。
roberta-base-bne - 基于西班牙国家图书馆数据的RoBERTa语言模型
Github开源项目语言模型模型Huggingface西班牙语国家图书馆roberta-base-bne填空任务
roberta-base-bne是一种基于西班牙国家图书馆560GB文本进行大规模预训练的西班牙语掩码语言模型,适用于问答、文本分类和命名实体识别等。该模型可能存在偏见,建议为具体任务进行微调。如有问题,可联系巴塞罗那超级计算中心的文本挖掘团队。