#Huggingface
scibert_scivocab_cased - 科学文献领域的预训练语言模型
语言模型科学文本语料库SciBERTGithub模型开源项目预训练模型Huggingface
SciBERT是一款用于科学文本的预训练语言模型,基于Semantic Scholar的114万篇论文和31亿个标记进行训练。其专有的scivocab词汇表利于更好地匹配训练语料,支持cased和uncased模型版本,适合科学文献分析。
wide_resnet101_2.tv_in1k - 宽残差网络101_2图像分类与特征提取功能
wide_resnet101_2.tv_in1k特征提取ImageNet-1k模型Github开源项目图像分类ReLU激活Huggingface
Wide-ResNet101_2.tv_in1k是一种经ImageNet-1k数据训练的图像分类模型,采用ReLU激活、7x7卷积以及1x1卷积捷径降采样。该模型在图像分类和特征图提取方面表现优秀,可通过timm库轻松集成,是图像处理和计算机视觉领域的实用工具。
POLAR-14B-v0.2 - 韩文大语言模型助力生态系统
Github开源项目模型偏见与风险语言模型Huggingface开源POLARAI实验室
POLAR-14B-v0.2由Plateer AI实验室开发,受启于SOLAR,致力于韩文语言模型的持续发展与贡献。
clip4clip-webvid150k - 改进视频检索精度的解决方案
模型评估Hugging FaceWebVidCLIP4Clip模型Github开源项目视频检索Huggingface
CLIP4Clip结合CLIP模型和WebVid数据集,成功在视频文本检索中提高精度,利用150,000个视频文本对的训练提升性能。此模型擅长处理大规模视频数据,具备视觉-时间概念学习能力,适合高效视频搜索应用。其架构支持文本到视频的快速检索,提升搜索效率。
dolphin-2.5-mixtral-8x7b-GGUF - Dolphin 2.5 Mixtral 8X7B模型兼容多种推理环境,支持多种量化选项
量化方法GPU推理开源项目Dolphin 2.5 Mixtral 8X7B模型Huggingface兼容性PythonGithub
Dolphin 2.5 Mixtral 8X7B是Eric Hartford推出的一款采用GGUF格式的模型。它支持多种比特选项的量化推理,并兼容llama.cpp、KoboldCpp、LM Studio等环境。模型设计注重性能与资源平衡,适合多种应用场景。
subnet9_Aug17 - transformers模型的特点与优化指导
Github模型开源项目碳排放偏见Huggingface训练数据模型卡Transformers
文档介绍了transformers库中的模型,涵盖开发细节、使用场景及局限性。根据模型卡的建议,用户可以了解模型的偏见、风险和局限,及如何开始使用。简要说明了性能评估、环境影响和技术规格,并提供起步代码和细节。详细信息建议查看相关存储库和文献。
Chronos-Gold-12B-1.0-GGUF - Chronos-Gold-12B-1.0模型的高效量化技术
高搜索量Github开源项目嵌入权重量化Chronos-Gold-12B-1.0下载Huggingface模型
Chronos-Gold-12B-1.0的量化版本是通过llama.cpp工具实现的,为文本生成提供了多种解决方案。这些格式涵盖从f16到IQ2_M,用户可根据系统RAM和GPU VRAM选择合适的版本。部分文件采用Q8_0嵌入和输出权重,以优化模型质量和性能。该项目适合角色扮演和故事创作等多应用场合,提供了灵活高效的文本生成支持。
trocr-base-stage1 - 以Transformer为基础的图像文字识别预训练模型
Hugging Face文本Transformer开源项目光学字符识别TrOCR模型Huggingface图像TransformerGithub
此预训练模型使用Transformer进行光学字符识别(OCR),为TrOCR模型的一部分。其图像编码器采用BEiT权重初始化,文本解码器则使用RoBERTa权重,处理图像为固定大小的16x16像素块并线性嵌入。适用于单行文本图像的OCR任务,并支持针对特定任务进行微调,兼容PyTorch实现。
text2vec-large-chinese - 中文大规模句子相似性与特征提取模型
MacBERTHuggingfacetext2vecGithub开源项目模型特征提取transformers句子相似度
基于text2vec衍生的中文模型,采用LERT替代MacBERT,提高句子相似性和特征提取效率。支持onnxruntime,发布于2024年6月25日。
Mistral-7B-Instruct-v0.3-GGUF - 支持功能调用的高质量指令跟随模型
Mistral 7B Instruct指令跟随Huggingface模型Github开源项目LM Studio功能调用
Mistral 7B Instruct v0.3是一款经过优化的指令跟随模型,新增功能调用支持进一步扩展应用范围,增强助理功能。此版本引入扩展词汇表和新的分词器,支持功能调用。模型由Mistral AI创建,GGUF量化由bartowski提供。提醒:本社区模型由第三方提供,用户需自行负责内容的准确和适用性。
bert-base-japanese-upos - 日语自然语言处理的BERT模型应用
POS标注开源项目模型日语GithubHuggingface依存解析Universal DependenciesBERT
此模型在日语维基百科文本上进行预训练,支持词性标注和依存解析等任务。它衍生自bert-base-japanese-char-extended,利用UPOS体系为短单位词标注。通过Python代码,用户能方便地进行文本处理和结构解析,适合希望高效处理日语文本的用户。该模型具有良好的兼容性,可通过Huggingface平台使用。
相关文章
LiteLLM: 统一调用多种LLM API的强大工具
2024年08月30日
大型语言模型微调技术全解析:从理论到实践
2024年08月30日
Firefly-LLaMA2-Chinese: 低资源高效的开源中文大语言模型
2024年08月31日
Online-RLHF: 从奖励建模到在线人类反馈强化学习的工作流程
2024年08月31日
Magpie: 一种创新的大语言模型对齐数据生成方法
2024年08月31日
Gazelle:突破性的联合语音-语言模型
2024年08月31日
GIGAX: 革命性的本地AI驱动NPC系统
2024年08月31日
BitNet-Transformers: 1比特量化技术在大型语言模型中的应用与实现
2024年08月31日
LoRA: 大型语言模型的低秩适应方法
2024年09月02日