#模型
convnext_nano.in12k_ft_in1k - 基于ConvNeXt架构的轻量级图像分类模型
ConvNeXtGithub模型ImageNet开源项目图像分类timmHuggingface特征提取
convnext_nano.in12k_ft_in1k是基于ConvNeXt架构开发的轻量级图像分类模型,模型参数量1560万,在ImageNet-12k数据集预训练后在ImageNet-1k微调。支持图像分类、特征提取和嵌入向量生成等功能,适用于计算资源受限环境下的视觉任务。
L-MChat-7b - 合并技术提升文本生成能力
Github模型开源项目L-MChat-7b模型合并Hugging FaceHuggingface文本生成人工智能
该项目通过结合Nexusflow/Starling-LM-7B-beta和FuseAI/FuseChat-7B-VaRM模型,并采用SLERP方法提升了文本生成性能。在AI2 Reasoning Challenge、HellaSwag等数据集上表现突出,最高达到84.59%的归一化准确率,适用于多种智能文本生成任务。项目配置灵活、易于集成,是用户寻找高性能生成模型的理想选择。
gemma-2-baku-2b-it-gguf - 跨语言量化模型,支持多平台兼容应用
使用方法Github模型量子化开源项目LM StudioHuggingface模型卡gemma-2-baku-2b-it
量子化后的gemma-2-baku-2b-it模型为日语和英语提供跨语言支持,增强处理效率。通过多种工具如llama.cpp、LM Studio(Windows和Mac支持)和LLMFarm(适用于iOS)进行应用。项目采用TFMC的数据集,专注于优化日语语言学习模型。访问有关npaka将LLM-jp-3转换为gguf的详细步骤,以提高应用效率和开发潜力。
distilbert-base-uncased-go-emotions-student - 面向GoEmotions数据集的高效情感分类模型
开源项目文本分类Github模型Huggingface零样本分类模型蒸馏GoEmotions语言模型
该模型运用未标注GoEmotions数据集,利用零样本学习技术进行精炼。尽管其性能可能略逊于完全监督下的模型,但它展示了如何将复杂的自然语言推理模型简化为高效的模型,以便在未标注数据上进行分类器训练。
llm-compiler-7b - 一种用于增强代码优化的先进语言模型
Meta Large Language Model Compiler开源项目模型Github开源Huggingface代码优化编译器优化LLVM
Meta的LLM Compiler是一款编译器优化语言模型,基于Code Llama构建,提升了对编译器中间表示与汇编语言的理解。LLM Compiler提供7B和13B两个版本,能够预测LLVM优化效果,在代码优化与反汇编任务中表现优异,实现了显著的代码优化和反汇编准确性。这一模型适用于研究与商业用途,助力开发者提高代码优化效率。
Lunatic - 结合艺术与现实的高仿真图像生成技术
开源项目模型GithubAI绘图Huggingface现实主义艺术风格Stable Diffusion幻想主题
Lunatic项目通过整合InsaneRealistic和Lunar Diffusion两种模型,并使用SuperMerger技术,生成高仿真图像。该项目适合多种风格的图像创作,从VHS复古风到超现实幻想场景,在艺术性与真实性上表现卓越,为用户提供创新的图像生成体验。
H-optimus-0 - 自监督视觉Transformer在病理学与组织学中的应用
开源项目模型GithubH-optimus-0Huggingface病理学视觉transformer医疗影像自监督学习
H-optimus-0是一个开源的视觉Transformer模型,基于11亿参数,利用自监督学习在50万张H&E染色全幅切片病理图像上训练。该模型能从组织学图像中提取强大特征,支持突变预测、生存分析和组织分类等应用。模型期望输入图像尺寸为224x224,建议在CUDA设备上采用混合精度以加快推断。适用于医学图像处理,尤其在病理学与组织学研究中表现出色。
Qwen2-1.5B-Instruct-GGUF - Qwen2提供出色的多语言支持与兼容性
Transformer架构多语言能力指令调优模型Qwen2Github开源项目大语言模型Huggingface
Qwen2系列涵盖基础及指令微调语言模型,参数规模从0.5亿到72亿,具有优秀的多语言、编码及推理能力。1.5B版本展示了卓越的语言理解与生成能力,可媲美专有模型。本地可通过llama.cpp运行,并兼容OpenAI API以简便方式访问。多种模式与量化选项,适应不同需求与应用场景。
scibert_scivocab_cased - 科学文献领域的预训练语言模型
语言模型科学文本语料库SciBERTGithub模型开源项目预训练模型Huggingface
SciBERT是一款用于科学文本的预训练语言模型,基于Semantic Scholar的114万篇论文和31亿个标记进行训练。其专有的scivocab词汇表利于更好地匹配训练语料,支持cased和uncased模型版本,适合科学文献分析。
POLAR-14B-v0.2 - 韩文大语言模型助力生态系统
Github开源项目模型偏见与风险语言模型Huggingface开源POLARAI实验室
POLAR-14B-v0.2由Plateer AI实验室开发,受启于SOLAR,致力于韩文语言模型的持续发展与贡献。
clip4clip-webvid150k - 改进视频检索精度的解决方案
模型评估Hugging FaceWebVidCLIP4Clip模型Github开源项目视频检索Huggingface
CLIP4Clip结合CLIP模型和WebVid数据集,成功在视频文本检索中提高精度,利用150,000个视频文本对的训练提升性能。此模型擅长处理大规模视频数据,具备视觉-时间概念学习能力,适合高效视频搜索应用。其架构支持文本到视频的快速检索,提升搜索效率。
dolphin-2.5-mixtral-8x7b-GGUF - Dolphin 2.5 Mixtral 8X7B模型兼容多种推理环境,支持多种量化选项
量化方法GPU推理开源项目Dolphin 2.5 Mixtral 8X7B模型Huggingface兼容性PythonGithub
Dolphin 2.5 Mixtral 8X7B是Eric Hartford推出的一款采用GGUF格式的模型。它支持多种比特选项的量化推理,并兼容llama.cpp、KoboldCpp、LM Studio等环境。模型设计注重性能与资源平衡,适合多种应用场景。
subnet9_Aug17 - transformers模型的特点与优化指导
Github模型开源项目碳排放偏见Huggingface训练数据模型卡Transformers
文档介绍了transformers库中的模型,涵盖开发细节、使用场景及局限性。根据模型卡的建议,用户可以了解模型的偏见、风险和局限,及如何开始使用。简要说明了性能评估、环境影响和技术规格,并提供起步代码和细节。详细信息建议查看相关存储库和文献。
Chronos-Gold-12B-1.0-GGUF - Chronos-Gold-12B-1.0模型的高效量化技术
高搜索量Github开源项目嵌入权重量化Chronos-Gold-12B-1.0下载Huggingface模型
Chronos-Gold-12B-1.0的量化版本是通过llama.cpp工具实现的,为文本生成提供了多种解决方案。这些格式涵盖从f16到IQ2_M,用户可根据系统RAM和GPU VRAM选择合适的版本。部分文件采用Q8_0嵌入和输出权重,以优化模型质量和性能。该项目适合角色扮演和故事创作等多应用场合,提供了灵活高效的文本生成支持。
trocr-base-stage1 - 以Transformer为基础的图像文字识别预训练模型
Hugging Face文本Transformer开源项目光学字符识别TrOCR模型Huggingface图像TransformerGithub
此预训练模型使用Transformer进行光学字符识别(OCR),为TrOCR模型的一部分。其图像编码器采用BEiT权重初始化,文本解码器则使用RoBERTa权重,处理图像为固定大小的16x16像素块并线性嵌入。适用于单行文本图像的OCR任务,并支持针对特定任务进行微调,兼容PyTorch实现。
text2vec-large-chinese - 中文大规模句子相似性与特征提取模型
MacBERTHuggingfacetext2vecGithub开源项目模型特征提取transformers句子相似度
基于text2vec衍生的中文模型,采用LERT替代MacBERT,提高句子相似性和特征提取效率。支持onnxruntime,发布于2024年6月25日。
Mistral-7B-Instruct-v0.3-GGUF - 支持功能调用的高质量指令跟随模型
Mistral 7B Instruct指令跟随Huggingface模型Github开源项目LM Studio功能调用
Mistral 7B Instruct v0.3是一款经过优化的指令跟随模型,新增功能调用支持进一步扩展应用范围,增强助理功能。此版本引入扩展词汇表和新的分词器,支持功能调用。模型由Mistral AI创建,GGUF量化由bartowski提供。提醒:本社区模型由第三方提供,用户需自行负责内容的准确和适用性。
bert-base-japanese-upos - 日语自然语言处理的BERT模型应用
POS标注开源项目模型日语GithubHuggingface依存解析Universal DependenciesBERT
此模型在日语维基百科文本上进行预训练,支持词性标注和依存解析等任务。它衍生自bert-base-japanese-char-extended,利用UPOS体系为短单位词标注。通过Python代码,用户能方便地进行文本处理和结构解析,适合希望高效处理日语文本的用户。该模型具有良好的兼容性,可通过Huggingface平台使用。
Yi-Coder-9B-Chat-GGUF - Yi-Coder-9B-Chat模型量化文件选择及使用指南
Huggingface模型文件文本生成量化开源项目模型transformersGithubYi-Coder-9B-Chat
Yi-Coder-9B-Chat经过Llamacpp的imatrix选项量化处理,增强了在不同硬件上的推理能力。用户能根据自身需求从Q8_0、Q6_K_L等多种量化模型中选择,以适应不同的RAM和VRAM配置。更新内容包括分词器修复,所有文件均可在LM Studio中运行。项目亦提供对ARM芯片优化的Q4_0_X_X文件,用户可通过huggingface-cli下载具体量化模型并查看硬件兼容性和使用建议。
相关文章
大型语言模型(LLM):人工智能的新前沿
2024年08月30日
大型语言模型(LLM):人工智能的革命性突破
2024年08月30日
DenseNet: 深度学习中的密集连接卷积网络
2024年08月30日
Index-1.9B: 哔哩哔哩自主研发的轻量级多语言大模型
2024年08月30日
2022年人工智能领域重大突破回顾
2024年08月30日
PostgresML:在数据库中实现机器学习的革命性方案
2024年08月30日
Qlib: 微软开源的AI量化投资平台
2024年08月30日
LMFlow: 一个用于大型基础模型微调和推理的可扩展工具包
2024年08月30日
大型语言模型(LLM):人工智能的革命性突破
2024年08月30日