#Github

Qwen1.5-MoE-A2.7B - 提高模型生成速度与资源效率的Transformer架构MoE语言模型
Github开源项目语言模型模型transformersHuggingfaceQwen1.5-MoE-A2.7BMixture of Experts文字生成
Qwen1.5-MoE-A2.7B是一种基于Transformer架构和专家混合(MoE)的大规模预训练语言模型,通过重构密集模型来增强性能。它推理速度提高1.74倍,训练资源仅为类似模型的25%。建议在使用中结合SFT或RLHF等后训练技术,以进一步改进文本生成能力。详细信息及源码可在博客和GitHub仓库中查看。
opus-mt-gl-pt - 加利西亚语与葡萄牙语翻译模型
Github开源项目翻译模型HuggingfaceBLEU葡萄牙语glg-por加利西亚语
Opus-MT-GL-PT项目是一个开源翻译模型,专注于加利西亚语和葡萄牙语的翻译。该模型使用transformer-align架构,并结合SentencePiece预处理技术,在Tatoeba测试集上获得了57.9的BLEU分数,表现出良好的翻译性能。用户可以下载原始模型权重和测试集进行进一步的评估和使用。
nq-distilbert-base-v1 - 句子向量化提升语义搜索与聚类效率
Github开源项目Transformer模型模型评估Huggingfacesentence-transformers句子嵌入句子相似度
nq-distilbert-base-v1模型以sentence-transformers为基础,将句子和段落转换为768维向量,以支持聚类和语义搜索任务。通过安装sentence-transformers库可轻松使用,具备丰富的使用选项,包括通过HuggingFace Transformers实现上下文嵌入和均值池化等应用,广泛适用于文本相似性评估、内容聚类和语义检索等自然语言处理任务,提供可靠性能与灵活应用场景。
Canopus-LoRA-Flux-UltraRealism-2.0 - 超高真实感图像生成的创新提升
Github开源项目图像生成模型LoRAHuggingface超现实主义面部真实感Canopus-LoRA-Flux-UltraRealism-2.0
这个项目在图像生成领域通过使用LoRA技术在超高真实感方面展现了进步。其特别专注于人脸的真实感生成,并能够与多种模型如Flux和Stable Diffusion兼容使用。使用关键字'Ultra realistic',可以实现更逼真的图像生成体验。虽然模型仍在训练阶段,但已经展示了很好的细节处理能力,特别适合对高分辨率图像处理有要求的用户,可免费下载模型权重。
ner-spanish-large - 大规模西班牙语实体识别 精确识别四类标签
人工智能Github开源项目模型命名实体识别HuggingfaceFlair西班牙语XLM-R
Flair西班牙语实体识别模型,采用XLM-R嵌入和FLERT技术,训练于CoNLL-03西班牙数据集,F1得分90.54。支持识别人名、地名、组织名及其他标签,适合需要文本上下文精确理解的应用。
zephyr-7b-beta-marlin - 适用于高效4比特推理的LLM模型优化技术
Github开源项目模型量化模型Huggingface推理优化nm-vllmMarlin格式zephyr-7b-beta
项目提供的zephyr-7b-beta模型在GPTQ量化后以Marlin格式保存,专为nm-vllm引擎高效推理优化。该模型支持在本地Python环境中部署,代码示例以及详细指导文档可供参考,确保对量化模型优势的完整展现。
eva02_base_patch14_448.mim_in22k_ft_in22k_in1k - EVA02视觉Transformer的图像分类与特征提取模型
Github开源项目模型微调模型图像分类ImageNetHuggingface视觉变换器EVA02
EVA02是一款基于视觉Transformer架构的图像分类和特征提取模型。它结合了平均池化、SwiGLU和旋转位置嵌入技术,在ImageNet-22k数据集上进行预训练并在ImageNet-1k上微调。兼容timm库,以确保在不同设备上的一致性和高效性,广泛适用于多种图像分类和特征提取任务。
Sentence-ALDi - 通过BERT模型评估阿拉伯语文本方言程度
Github开源项目模型HuggingfaceBERT模型阿拉伯方言水平Sentence-ALDi口音识别方言识别
Sentence-ALDi模型基于BERT架构,经过微调以评估阿拉伯语文本的方言程度。该模型使用的是ALDi连续变量来超越传统的二分类方言识别系统,更加精准地估算方言水平。使用者可在GitHub和Huggingface平台访问和测试此模型,揭示不同情境下的阿拉伯语文体选择,是社会语言学分析的重要工具。
DanTagGen-delta - 改进标签生成与艺术图像多样性的开源项目
Github开源项目文本生成模型LLaMAHuggingfaceDanTagGen龙女HakuPhi
DanTagGen-delta项目在HakuBooru数据库的支持下,利用NanoLLaMA架构和7.2M数据集进行训练,适用于LLaMA推理接口。引入质量标签的新版本增强了图像多样性,尽管存在轻微欠拟合。项目提供FP16与低比特量化模型,建议使用llama.cpp提升运行效率。
flaubert_small_cased - 用于法语自然语言处理的无监督语言模型
Github开源项目语言模型模型Huggingface法语FlauBERTCNRS无监督预训练
FlauBERT是基于大型法语语料库进行预训练的无监督语言模型,提供多种尺寸选择。结合FLUE评估平台,增强法语自然语言处理的评估能力。该项目利用CNRS Jean Zay超算机,支持未来的可重复实验,并已集成于Hugging Face的Transformers库中,便于开发者应用。
finbert-finnsentiment - 芬兰语情感分析的高精度FinBERT模型
Github开源项目模型情感分析许可协议Huggingface评估结果FinBERTFinnSentiment
FinBERT模型通过FinnSentiment数据集进行精调,专为芬兰语情感分析设计。该模型使用90%的数据进行训练,10%用于评估,在准确率、F1评分、精确性和召回率方面表现出色。适用于需要高精度情感分析的场景,并支持研究与商业应用,遵循CC BY 4.0协议。
Yi-1.5-34B-Chat-GGUF - 多种量化选项助力Yi-1.5-34B-Chat模型优化
Github开源项目下载模型量化Huggingface系统要求文件选择Yi-1.5-34B-Chat
本文介绍了Yi-1.5-34B-Chat模型的多种量化方法,通过llama.cpp的imatrix选项,为不同需求提供多种文件版本和质量等级。用户可依据硬件条件选择合适的量化文件,满足RAM与VRAM的需求。文中附有使用指导和性能比较图表链接,帮助用户在性能和文件大小间权衡。此外,还说明了I-quant和K-quant的区别及应用场景,便于用户在不同硬件环境中高效应用该文本生成模型。
Llama-3.2-1B-Instruct-GGUF - 多语言模型优化,提升对话和信息处理效率
Github开源项目优化模型生成模型Huggingface多语言对话Llama 3.2行业基准
这个项目提供了经过优化的多语言大语言模型,提升了对话应用的效果和效率。Llama 3.2系列在1B和3B规格中进行了预训练及指令优化,能够处理信息提取和文本总结等多种任务。该模型在常用的行业基准测试中表现优于许多其他开源和闭源模型。SanctumAI通过量化增加了模型的操作效率,并提供多种量化选项以适应不同的硬件需求。在多语言对话的使用案例中,这些优化后的模型确保了良好的性能表现。
ALMA-13B-R - 通过对比优化提升ALMA-13B-R翻译准确性
Github开源项目模型数据集Huggingface机器翻译LoRA微调ALMA-R对比偏好优化
ALMA-13B-R采用对比偏好优化技术在机器翻译方面表现优异。该模型使用三联偏好数据实现微调,能够在特定条件下达到甚至超越GPT-4和WMT冠军的水平。这一优化方法提升了翻译的准确性,适用于多种应用场景,为开发者提供了可靠的翻译支持。
halong_embedding - 优化的信息检索与越南文本嵌入模型
Github开源项目模型Huggingface信息检索越南语余弦相似度句子转换器Halong Embedding
这个模型专注于越南语文本嵌入,利用RAG以提高生产效率,并采用Matryoshka损失来实现嵌入截断,从而加快比较速度。微调于intfloat/multilingual-e5-base模型,该模型适用于语义文本相似性、搜索和文本分类等任务,映射到784维密集向量空间,支持多语种处理。在多个余弦相似度指标中具有卓越表现,如cosine accuracy@10达到0.9687,提供高效的信息检索和分类解决方案。
MobileVLM-1.7B - 移动设备优化的高效多模态视觉语言模型
Github开源项目模型推理模型多模态性能评估移动设备HuggingfaceMobileVLM
MobileVLM-1.7B是一种专为移动设备设计的多模态视觉语言模型,通过多种优化技术实现高效推理,支持跨模态交互。该模型在标准基准测试中表现出色,并经过CLIP方式的预训练。在Qualcomm Snapdragon 888和NVIDIA Jeston Orin设备上的处理速度分别为每秒21.5个和65.3个令牌。
365 - 基于ReVAnimated和Liberte Redmond模型的高级文图生成技术
人工智能Github开源项目图像生成模型动画Huggingfacediffusers稳态扩散
项目结合ReVAnimated和Liberte Redmond模型,拓展文图生成技术。支持多种风格如写实、动漫和卡通,适合多样创意应用。采用diffusers库及Incredible World VAE,保障高质量输出,为创意表达提供新动力。
llama-2-ko-7b - 韩语文本生成模型与优化的词汇扩展
Github开源项目文本生成机器学习模型Huggingfacehuggingface韩语模型Llama-2-Ko
Llama-2-Ko是基于Llama-2的语言模型,使用韩语语料库进行预训练,增强了文本生成功能。该模型提供从7B到70B参数的版本,尤其7B版本适配Hugging Face Transformers。Llama-2-Ko优化了变压器结构,增加了韩语词汇,有效生成高质量文本。项目由Junbum Lee领导,支持多参数与微调版本,应用广泛。
waifu-diffusion - 动漫图像生成工具,兼容Gradio和Colab平台
Github开源项目AI绘画模型生成艺术Huggingface动漫生成waifu-diffusion开放许可
waifu-diffusion是一个专注于高质量动漫图像生成的文本到图像扩散模型,通过精细化训练来提升图像效果。支持通过Gradio和Colab平台操作,用户可以方便地生成和编辑图像。该模型开源并符合CreativeML OpenRAIL-M许可证,允许自由使用包括商业用途。感谢Stability AI和Novel AI的大力支持,该项目对外开放Discord社区促进用户交流。在应用方面,该模型可根据文本生成动漫风格图像,为娱乐和艺术创作提供新选择。
Florence-2-large-PromptGen-v1.5 - 高效的AI图像标注工具提升了处理速度和精度
Github开源项目模型图像标注Huggingface准确性轻量模型Florence-2-large-PromptGenMiaoshouAI
Florence-2-large-PromptGen v1.5 是经过升级的图像标注工具,基于Microsoft Florence-2模型。此版本增加了新指令,提升标注精度,并优化了词汇解释。支持详细和混合风格的标签生成,尤其在T5XXL和CLIP_L的Flux模型中表现出色。其内存高效性和处理速度在图像标注领域具有明显优势。
bloom - 提升多语言文本生成的大规模语言模型
Github开源项目文本生成多语言语言模型模型HuggingfaceBLOOMBigScience
BLOOM是一个自回归大规模语言模型,使用工业级计算资源训练,能够以46种语言和13种编程语言生成逼真的文本。该模型不仅胜任特定的任务,同时也能转换文本生成其他未明确训练的任务。BLOOM的设计强调多语言文本生成,对于公共研究提供了重要支持,其在法国的超级计算机上训练,以减少环境影响。
AlphaMonarch-7B - 多功能7B模型,优化智能文本生成
Github开源项目文本生成模型模型评估Huggingface推理能力多任务基准AlphaMonarch-7B
AlphaMonarch-7B是经过DPO优化的模型,增强推理与对话能力,通过AI2 Reasoning Challenge、HellaSwag和TruthfulQA等测试表现优异。利用LazyMergekit合并多款模型,适合对话、角色扮演和故事创作。支持GGUF、GPTQ和AWQ等量化模式,搭配Mistral Instruct聊天模板,在多项国际评估中表现出色,成为高级7B模型中的一员。
ichigo - 本地实时语音AI
Github开源项目多模态模型Homebrew语音理解Ichigo实时语音AI
Ichigo是一个开放的研究项目,旨在为文本语言模型增加本地化的语音交互能力。使用早期融合技术与公开数据和权重,它可以在设备端运行,类似本地化的Siri。项目的近期进展包括提升模型在复杂交互中的语音指令跟随能力,并训练模型在背景噪音中拒绝非语音输入。项目还提供开放的合作机会,计划未来通过众包进行语音数据集扩展。更多技术细节及成果已在最新发布的研究论文中详述。
Mistral-RAG - 意大利语问答强化模型 Mistral-RAG
Github开源项目自然语言处理模型Huggingface问题回答生成模式抽取模式Mistral-RAG
Mistral-RAG是以Mistral-Ita-7b为基础优化的模型,专注于问答任务。其生成模式可以整合多源信息,适用于教育和创意场合;提取模式则提供快速、精确的答案,适合科研和法律领域。可通过Python便捷调用,提升数据处理效果。
koOpenChat-sft - 多语言AI对话模型,基于OpenChat3.5构建
Github开源项目模型AlpacaHuggingfaceChatML韩国人工智能OpenChat3.5koOpenChat-sft
koOpenChat-sft项目是一个基于OpenChat3.5的多语言AI对话模型,训练于A100 80GB设备,遵循ChatML和Alpaca(No-Input)指令格式。尽管没有详细的基准测试数据,模型的评估结果已在Open LLM Leaderboard中公布。其在HellaSwag和Winogrande等指标上的得分表明了其高效的对话能力,广泛适用于多种AI场景。欲知更多信息,可通过Telegram联系开发者。
gpt2-alpaca - 介绍GPT2在Alpaca数据集上的指令微调实例
Github开源项目机器学习模型微调模型AlpacaHuggingfaceGPT2语言生成
gpt2-alpaca 是在 Alpaca 数据集上进行指令微调的 GPT2 模型,展示了如健康饮食建议、诗歌创作及外星人视角评论等不同生成示例。在 TruthfulQA 和 Winogrande 等多项评测中取得优异成绩,并提供在 Hugging Face 开放 LLM 排行榜上的详细分析,适合研究生成模型表现的人员参考。
Mythomax-L2-13b-Q4_K_M-GGUF - MythoMax L2 13b模型的Q4_K_M量化版本
Github开源项目模型transformers量化HuggingfaceGryphe/MythoMax-L2-13b个人使用
项目中包含MythoMax L2 13b模型的Q4_K_M量化版本,基于mradermacher的GGUF方案。这一版本能通过Text Gen Webui与llamacpp_hf结合实现个性化应用,适合希望优化资源利用和提升模型性能的开发者与研究人员。
visobert - 专注于越南社交媒体文本的语言模型
Github开源项目模型情感分析Huggingface仇恨言论检测Spam检测ViSoBERT越南社交媒体
ViSoBERT 是一款针对越南社交媒体文本的语言模型,采用了 XLM-R 架构进行单语预训练,在情感识别、仇恨言论检测等领域表现优异。通过高质量、多样性文本训练,实现了对现有模型的超越,并仅限于研究用途。
STRANGER-ANIME - 利用Huggingface API的数字艺术创作工具
人工智能Github开源项目深度学习AI绘图图像生成模型Huggingface
项目使用Huggingface API生成逼真的数字艺术图像,通过关键词组合生成细致且富有情感的视觉效果。用户可以根据需要调整诸如头发颜色、眼睛颜色和雨天等图像细节,实现个性化艺术创作,适用于艺术设计和视觉表达等领域,展示出现代AI在视觉艺术中的应用能力。
opus-mt-yo-en - 约鲁巴语和英语之间的开源翻译模型及其评估
Github开源项目翻译模型数据集Huggingface预处理opus-mt-yo-en
该项目介绍了一个将约鲁巴语翻译为英语的开源模型。使用transformer-align架构并进行SentencePiece预处理。模型已在OPUS数据集上训练,并通过BLEU和chr-F评分评估其翻译能力,提供详细的权重下载和实施指南。
VideoLLaMA2-7B - 多模态大语言模型在视频时空建模和音频理解上的应用
Github开源项目模型推理模型Huggingface多模态大语言模型视频问答空间-时间建模VideoLLaMA 2
VideoLLaMA2-7B 项目聚焦于视频时空的建模与音频理解,利用先进的视觉和语音编码技术提升视频内容分析能力。项目支持视频聊天和多选视频问答,提供训练与推理代码,适用于多种场景需求,并开放模型权重及技术报告以支持研究与开发。
docling - 高效的多格式文档解析和转换工具
Github开源项目CLI工具文档解析PDF解析DoclingOCR支持
Docling是一个多功能的文档解析工具,支持解析PDF、DOCX、PPTX等常见格式,并可输出为Markdown和JSON格式。其PDF高级功能涵盖页面布局分析、阅读顺序和表格结构识别。工具提供统一的DoclingDocument表示格式,支持与LlamaIndex和LangChain的集成,适合信息检索和问答应用。此外,它支持扫描PDF的OCR,并提供便捷的命令行工具。即将支持方程、代码和元数据的提取。安装简单,兼容多平台和多架构。详情请参阅在线文档。
Roleplay - 数字艺术创作与AI绘画生成的创新组合工具
Github开源项目AI绘图模型数字艺术Huggingfacestable-diffusion数字绘画Roleplay
此项目集成了a-ZovyaRPGArtistToolsV3与Playground,专注于通过文本生成图像的能力,推动数字艺术创作前沿。用户可以在从像素艺术到数字绘画的各类风格中进行探索,通过描述生动的艺术场景打造引人注目的视觉体验。应用超级合并算法优化输出效果,从而加强创意表现。该平台为数字艺术家和爱好者提供了探索新艺术领域和丰富创作的资源。
Aura_L3_8B-GGUF-IQ-Imatrix - 体验Llama-3的进化之旅,适配最新模型
Github开源项目模型反馈模型配置Huggingface技术演进实验性Aura L3
Aura L3是基于Llama-3架构的新一代模型,提供GGUF-IQ-Imatrix量化和预设。该模型经过六个不同数据集的训练,建议使用最新的KoboldCpp进行操作,并采用提供的预设。该项目仍处于实验阶段,用户的反馈对于后续改进至关重要。页面中附有详细的模型信息和历史配置备份,便于用户深入理解和应用。
yolov10n - YOLOv10n:实时对象检测的创新技术
Github开源项目计算机视觉模型实时物体检测HuggingfaceCOCO数据集YOLOv10PyTorch模型
YOLOv10n项目展示了对象检测的实时进展,结合计算机视觉与对象识别算法。其基于PyTorch的实现并支持COCO数据集用于训练与推理,保证了性能和应用的广泛性。简单的安装和模块调用,提供了快速的目标物体检测及识别功能,支持优化模型上传至相关平台,提升模型精度与效率。
WhiteRabbitNeo-2.5-Qwen-2.5-Coder-7B-GGUF - 量化模型解析与应用指南
Github开源项目文本生成模型量化Huggingface模型下载WhiteRabbitNeoTransformer库
WhiteRabbitNeo-2.5-Qwen-2.5-Coder-7B项目提供多样化的量化模型,适用于不同RAM与VRAM配置,支持高效文本生成。指南介绍各量化文件适用场景及下载与使用方式,覆盖多种硬件设置,包括ARM和Nvidia GPU,提供灵活且高效的解决方案。