#开源项目

Memento - 结合现实生活V2和高保真模型的特点,生成个性化纪念图像
人工智能Github开源项目图像生成模型稳定扩散HuggingfaceMemento
Memento结合Real Life v2和高保真模型,通过MementoVAE模块实现逼真的个性化图像生成。其text-to-image功能允许创作各类虚拟纪念品,从肖像到艺术作品。支持多种风格与场景,满足不同的创作需求。
Qwen2.5-32B-Instruct-GPTQ-Int4 - 支持多语言和长文本生成的大语言模型
Github开源项目多语言支持自然语言处理模型Huggingface指令调优Qwen2.5长上下文支持
Qwen2.5是最新的大型语言模型,拥有32.5B参数和支持29种语言。其特点包括增强的代码和数学处理能力,改进的指令遵循和长文本生成能力,及对结构化数据的理解。该版本支持长上下文达128K tokens且可生成超过8K tokens的文本,采用GPTQ 4-bit量化,适用于多种文本生成应用。
moshika-pytorch-bf16 - 实时全双工语音对话的AI模型革新
Github开源项目文本到语音模型Huggingface对话模型语音生成实时交互Moshi
Moshi是基于bf16的Pytorch实现的实时全双工语音对话模型,支持流式语音识别与文本到语音转换,拥有低延迟,适合自然语音交互场景。
Yi-1.5-34B-Chat - 提升语言理解与推理性能的创新
Github开源项目预训练开源模型模型Huggingface语言理解模型性能Yi-1.5
Yi-1.5通过高质量语料与多样化样本增强模型能力,在编程、数学以及推理任务中取得显著进步。同时,该项目保持出色的语言理解、常识推理和阅读理解能力。该模型在多项基准测试中表现优异,与大型模型相比,具备竞争力。用户可通过多种途径下载该模型,并快速上手操作。如需详细使用指南,请查阅README。
internlm2-chat-7b - 70亿参数大模型实现20万字超长文本理解及多场景智能对话
人工智能Github开源项目大语言模型模型Huggingface代码解释器超长上下文InternLM2
InternLM2-chat-7b作为书生·浦语第二代大模型的70亿参数版本,搭载20万字超长上下文理解技术,在复杂推理、数学运算、代码编程等核心任务上性能卓越。模型集成代码解释器和数据分析工具,通过增强型工具调用机制高效完成多步骤任务。在MMLU、AGIEval等主流评测基准上展现出同级别最优性能。该开源项目面向学术研究完全开放,同时提供免费商业授权渠道。
llama-3-8b-gpt-4o-ru1.0-gguf - 俄罗斯语言优化GPT模型,性能接近GPT-4并超越GPT-3.5-turbo
Github开源项目模型GPT-4o模型评估HuggingfaceLlama-3多语言能力Russian
模型在俄语数据集上表现优异,通过GPT-4o进行多语言能力训练提升了数据质量。在MT-Bench测试中,经过1个epoch的训练后,该模型在俄语评估中超越了GPT-3.5-turbo,接近Suzume。用户可通过llama.cpp或gptchain框架在本地使用该模型。
c4ai-command-r-08-2024 - C4AI Command R 08-2024的多语言生成与推理能力
Github开源项目模型Huggingface大规模语言模型检索增强生成工具调用多语言生成C4AI
C4AI Command R 08-2024是一个研究发布的32亿参数语言模型,优化于多种用例如推理、总结与问答,支持多语言生成,在23种语言中训练,并在10种语言中评估。该模型具备检索增强生成能力,可基于文档片段生成带引文的响应。相关能力通过监督和偏好微调实现,提升用户体验与安全性。详情请访问Cohere For AI平台。
Qwen1.5-4B - 一款具备多语言功能的增强型Transformer模型
Github开源项目多语言支持语言模型模型Huggingface参数规模Qwen1.5转换器架构
Qwen1.5-4B是一款多语言Transformer模型,具有8种模型规模,支持32K上下文长度且无需信任远程代码。其设计基于SwiGLU激活和多重注意力机制,并通过改进型分词器实现高效多样的文本生成。
controlnet-scribble-sdxl-1.0 - 支持多种线条样式的高分辨率图像生成模型
Github开源项目图像生成模型高分辨率Huggingface线稿视觉美感ControlNet_SDXL
该模型能够生成与Midjourney效果相近的高分辨率图像。其通过超过千万张高质量图像数据的训练,采用多重分辨率和数据增强技术,支持各种类型和宽度的线条。用户可利用简单的草图和提示词生成视觉效果突出的图像。在美学表现上,该模型优于Controlnet-Canny-Sdxl-1.0。但需注意,线条的厚薄会影响控制能力,适合从粗略到精细的逐步创作。
opus-mt-gmq-en - 北日耳曼语到英语的翻译模型
Github开源项目翻译模型Huggingface英语Tatoeba-ChallengeNorth Germanic languages
这是一个基于transformer模型的项目,专注于将北日耳曼语言翻译为英语。使用了SentencePiece进行预处理,支持多种语言,比如丹麦语、挪威语和瑞典语。在Tatoeba测试集上,获得了58.1的BLEU评分。用户可以通过提供的链接下载原始模型权重和测试集,适合对多语言翻译有研究兴趣的开发者和研究人员。
llava-v1.6-34b - 大规模多模态模型的开源项目介绍
人工智能Github开源项目自然语言处理计算机视觉模型多模态HuggingfaceLLaVA
模型在大规模多模态模型和聊天机器人领域的研究中有重要应用,采用多样化的数据集提升不同任务表现,适合计算机视觉、自然语言处理及人工智能的研究者使用。
mistral-7b-instruct-v0.2-bnb-4bit - 使用Unsloth技术优化模型微调,显著提升性能并减少内存占用
Github开源项目机器学习性能优化模型数据集MistralHuggingfaceUnsloth
该项目介绍了一种运用Unsloth技术的模型微调方法,使Mistral、Gemma、Llama等模型实现2-5倍的速度提升,并减少70%的内存使用。用户可通过在Google Colab或Kaggle运行免费笔记本,轻松获得经过优化的模型。工具初学者友好,支持多种微调和导出格式,如GGUF、vLLM,及上传至Hugging Face,满足不同用户的需求。
squeezebert-uncased - SqueezeBERT:提高NLP任务效率的高效开源模型
Github开源项目语言模型微调预训练模型Huggingface组卷积SqueezeBERT
SqueezeBERT是一个专注于提高自然语言处理任务效率的无大小写敏感的预训练模型。其架构通过分组卷积替换点对点全连接层,使其在Google Pixel 3设备上运行速度比bert-base-uncased快4.3倍。利用Mask Language Model和Sentence Order Prediction对模型进行了预训练,所使用的数据集包括BookCorpus和English Wikipedia。尽管模型尚未微调,但SqueezeBERT为文本分类任务奠定了坚实基础,建议使用squeezebert-mnli-headless作为起点。
Timeless - 突破性AI图像生成,无需依赖负面提示
Github开源项目Stable Diffusion图像生成模型Huggingface模型合并FabulousAlphaTimeless Diffusion
Timeless项目结合了Timeless Diffusion和FabulousAlpha模型,通过fennPhoto和Incredible World 2等模块,打造出不依赖负面提示的图像生成工具。即使提示中不含“timeless style”,也能生成多样风格的图像。它综合利用IncredibleWorld2、FennPhoto与Stable Diffusion 1.5,实现从经典肖像到未来派风格的图像创作,拓展了创作可能性。
Meta-Llama-3-70B-Instruct-GGUF - Meta Llama 3模型的量化选项及其更新动态
Github开源项目模型Huggingface知识产权license协议法律责任Meta Llama 3使用政策
Meta Llama 3项目提供多种语言模型量化选项,结合llama.cpp发布版b3259,优化模型性能及存储。项目文件涵盖多规格量化选择,适合不同应用需求,如高质量的Q8_0与Q6_K。创新如f32到f16转换提升了数据处理效果。许可协议和使用政策严格遵循法律规定,确保模型安全合规使用。
docling-models - 将PDF文档中的版式与表格结构自动识别的开源模型
Github开源项目模型Huggingface布局分析TableFormerPDF文档转换Docling表结构识别
docling模型支持PDF文档的布局与表格结构分析。布局模型使用RT-DETR技术识别版式元素,如标题、脚注与图片,性能接近人类标准。TableFormer模型则在表格结构识别上表现优异,准确识别复杂表格。该项目可应用于多种需要文档处理的场景。
mobilenetv4_conv_medium.e500_r256_in1k - MobileNet-V4中档卷积模型:在保持较低参数量的同时提高图像分类效率
Github开源项目模型图像分类Huggingface特征提取timmImageNet-1kMobileNet-V4
介绍了在ImageNet-1k数据集上训练的MobileNet-V4图像分类模型,其在维持高效分类精度的同时,降低了参数和计算量。模型支持特征提取和图像嵌入等应用场景,并与同类模型进行了广泛比较,适用于移动设备上的高效图像处理。
luxia-21.4b-alignment-v1.0 - 指令微调与对齐模型luxia-21.4b-alignment-v1.0
Github开源项目监督微调模型Huggingface指令微调使用说明luxia-21.4b-alignment-v1.0直接偏好优化
luxia-21.4b-alignment-v1.0是基于luxia-21.4b的指令微调和对齐模型,使用监督微调和直接偏好优化技术,提升模型的准确性和使用体验。
roberta-base-finetuned-dianping-chinese - 中文RoBERTa模型用于多领域文本情感和主题分类
Github开源项目模型微调模型RoBERTaHuggingface文本分类UER-pyTencentPretrain
该项目包含利用UER-py和TencentPretrain微调的中文RoBERTa-Base模型,用于用户评论和新闻数据的情感及主题分类。模型可通过HuggingFace获取,适用于多种文本分类任务,具备高度的分类精准度。
dinov2-base-xray-224 - dinov2-base-xray-224放射学模型的发布与应用
Github开源项目Hugging Face模型Huggingface模型发布Foundation Models放射学AIMI FMs
dinov2-base-xray-224是一个放射学领域的基础模型,支持自动化影像分析,新版本现已在Hugging Face推出。
calme-2.2-llama3-70b - 采用DPO精调提升文本生成基于Meta-Llama-3-70B-Instruct的高效量化模型
Github开源项目文本生成自然语言处理机器学习模型微调模型HuggingfaceMeta-Llama-3-70B-Instruct
模型通过DPO精调优化文本生成,基于Meta-Llama-3-70B-Instruct开发,性能在多个基准测试中表现杰出,如IFEval 82.08、HellaSwag 86.22及GSM8k 88.25分。其量化特性提升效能,适宜多种应用场景。
text2cypher-demo-6bit-gguf - 采用Unsloth加速的llama文本生成模型
Github开源项目模型transformersHuggingfaceUnslothTomasonjotext-generation-inferencellama
通过Unsloth与Huggingface的TRL库优化,模型训练速度提升两倍,支持快速文本生成和推理,基于Apache-2.0许可,灵活性与持续开发兼备。
AM-mix1 - 理解Stable Diffusion技术在图像生成中的应用
Github开源项目APIHugging Face模型文本到图像Huggingfacestable-diffusionStable Diffusion Diffusers
AM-mix1项目利用Stable Diffusion技术实现文本到图像转换。通过Hugging Face API生成示例,呈现模型性能。探索该项目如何为艺术作品和设计项目提供创新解决方案。
Llama3-OpenBioLLM-8B - 医疗领域的开源语言模型,助力创新与研究
Github开源项目自然语言处理模型生物医学Huggingface临床问答OpenBioLLM-8B训练技术
OpenBioLLM-8B是一个由Saama AI Labs开发的开源生物医学语言模型。该模型通过先进技术和8亿参数的设计,实现了在生物医学任务中的高效表现,超过了同类模型的基准测试。其专注于满足医学和生命科学领域的语言需求,基于大量高质量的生物医学数据进行训练,能够高效生成和理解专业文本,为医疗创新提供支持。
Bielik-7B-Instruct-v0.1 - 波兰语语言模型的优化与训练方法
Github开源项目机器学习语言模型模型Huggingface波兰语Bielik-7B-Instruct-v0.1大型计算
Bielik-7B-Instruct-v0.1 是一种微调的波兰语语言模型,利用高性能计算提升语言理解能力。该模型通过权重损失和自适应学习率等技术进行优化,显著提高了性能,并提供多种精简版本。
resnet50.ram_in1k - ResNet50模型在ImageNet-1k上的应用与特征提取
Github开源项目模型图像分类HuggingfacetimmImageNet-1kResNet-BAugMix
ResNet50模型通过ReLU激活函数和7x7单层卷积实现图像分类,下采样优化采用1x1卷积。在训练过程中结合了AugMix、RandAugment与SGD优化策略,并通过余弦学习率和暖启动机制来提升在ImageNet-1k数据集上的表现。该模型由timm库实现,支持多种用途,如图像分类、特征提取和图像嵌入。
opus-mt-tc-big-fr-en - 法语到英语神经机器翻译模型概述
Github开源项目模型HuggingfaceBLEUSentencePiece神经机器翻译法语到英语opus-mt-tc-big-fr-en
OPUS-MT项目中的法英翻译模型,基于Marian NMT框架训练,通过Huggingface的transformers库转换为pyTorch模型,具有优秀的BLEU评分。模型支持多种数据集,使用SentencePiece进行分词,适用于多种翻译任务,适合学术研究及实际应用。
bert-base-arabic-finetuned-emotion - bert-base-arabic 模型在情感识别中的应用与优化
Github开源项目模型TransformersHuggingface文本分类情感检测阿拉伯文本bert-base-arabic-finetuned-emotion
本项目展示了一种基于bert-base-arabic的微调情感检测模型,在emotone_ar数据集上实现了74%的准确率和F1分数。该模型通过Transformer技术增强了情感分析能力,适用于阿拉伯语文本处理。用户可以在Hugging Face平台找到此预训练模型,并应用于其自然语言处理任务。
LLaMAntino-2-chat-13b-hf-UltraChat-ITA - 意大利语对话支持增强的大语言模型
Github开源项目大语言模型自然语言处理模型AI研究Huggingface意大利语LLaMAntino-2-chat-13b-UltraChat
这是一个经过指令微调的意大利语大语言模型。使用QLora技术训练,并基于UltraChat数据集的意大利语版本。项目开发由Leonardo超级计算机支持,并适用于多种意大利语对话场景的云端推理。
realistic-stock-photo - 超逼真的图像生成,免费获取API
Github开源项目模型API密钥文本生成图像Huggingface超现实主义Stable Diffusion API无版权需求
使用Stable Diffusion API,您可以获取免费的API密钥来生成超逼真的图片。该服务支持多种编程语言(如PHP、Node、Java),无需支付费用即可体验高效的文本到图像转换过程。该模型适合于创造细节丰富的图像,非常适合各种创意需求。通过访问文档了解更多示例,并尝试免费创建图像。
InternVL2-2B-AWQ - 跨多语言多图像任务的高效视觉语言模型
Github开源项目模型量化API接口模型多模态Huggingface图像文本InternVL2-2B
InternVL2-2B-AWQ以AWQ算法实现4bit权重量化,模型推理速度较FP16提升至2.4倍。lmdeploy兼容众多NVIDIA GPU进行W4A16推理,提升离线批量推理效率。同时,该项目提供RESTful API服务并兼容OpenAI接口,快速部署和应用于视觉-语言任务。此多语言兼容的模型不仅提高推理效率,还具备灵活的服务特性。
H2-keywordextractor - 精准高效的文本摘要生成工具
Github开源项目模型训练模型AutoTrainHuggingface总结二氧化碳排放验证指标
该项目通过AutoTrain进行文本摘要自动化,专注于金融数据集,具有较低的CO2排放。验证指标如Loss 1.406及Rouge指标等提供了可参考的模型性能数据。使用者可以借助cURL接口轻松调用此模型进行文本处理。
chinese-macbert-base - 通过MLM误差校正任务优化中文BERT模型的性能
Github开源项目预训练模型自然语言处理模型Huggingface掩码语言模型句子排序预测MacBERT
项目通过引入MLM误差校正预训练任务,减少预训练和微调过程中的差异,提升中文自然语言处理的模型表现。采用同义词工具进行相似词替换,改进传统BERT的[MASK]标记。此外,还结合全词掩码、N-gram掩码和句序预测技术,增强模型功能。MacBERT的架构与原始BERT兼容,为研究人员提供灵活的替换方案。
CLIP-ViT-B-16-DataComp.XL-s13B-b90K - 多模态模型CLIP ViT-B/16的零样本图像分类解析
Github开源项目图像生成模型数据集CLIPHuggingface零样本图像分类训练数据
CLIP ViT-B/16模采用DataComp-1B数据集训练,并结合OpenCLIP工具,旨在促进研究者对零样本图像分类的理解。该模型在ImageNet-1k数据集上实现了73.5%的零样本准确率,展示了其在多领域研究中的潜力和挑战。由于数据集仍未完全筛选,建议仅限于学术研究使用。
t5-base-summarization-claim-extractor - 从摘要中提取基本论断,提高信息准确性评估
Github开源项目模型机器学习模型Huggingface自然语言推理T5-base-summarization-claim-extractor主张提取摘要真实性评估
T5-base-summarization-claim-extractor基于T5架构,专注于从摘要中提取基本论断。该模型属于FENICE项目的一部分,通过自然语言推理和论断提取来评估摘要的真实性。它能有效提高总结中的信息准确性,但仅支持英文文本。结合其他工具使用,这一模型有助于增强文本摘要的可靠性,同时为机器学习和自然语言处理领域提供了重要支持。
opensearch-neural-sparse-encoding-v1 - 跨平台高效搜索的稀疏检索模型
Github开源项目模型HuggingfaceOpenSearch稀疏检索MS MARCO数据集Lucene倒排索引查询扩展
此开源项目展示了一个学习型稀疏检索模型,通过将查询和文档编码为稀疏向量,提供高效的搜索解决方案。模型在MS MARCO数据集上进行训练,并在BEIR基准测试中展示了优良的搜索相关性与推理速度。支持OpenSearch神经稀疏功能,能与Lucene倒排索引结合,进行高效的索引与搜索。该项目提供多个模型版本,适应不同的数据集与应用需求。使用者能在OpenSearch集群内或通过HuggingFace模型API进行模型的外部运行。