#机器学习模型

stsb-distilbert-base - 语义搜索与聚类任务的句子嵌入模型
语义搜索句子嵌入开源项目机器学习模型自然语言处理模型Huggingfacesentence-transformersGithub
此模型将句子和段落转换为768维的稠密向量,适用于语义搜索和聚类任务。然而,由于其性能已不再是最优,建议选择更优质的句子嵌入模型。如需使用,可通过安装sentence-transformers库轻松实现,或使用HuggingFace Transformers进行更高级的处理,如加入注意力掩码的平均池化。尽管模型效能下降,其架构仍有参考价值。
robertuito-ner - 基于RoBERTuito的双语命名实体识别模型
RoBERTuitoGithub命名实体识别自然语言处理机器学习模型HuggingfaceLinCE开源项目模型
robertuito-ner是一个基于RoBERTuito的命名实体识别模型,用于处理西班牙语和英语混合文本。该模型在LinCE NER语料库训练,支持识别人名、地名等实体,在NER任务上达到68.5%的性能指标。通过pysentimiento库集成,可用于社交媒体文本分析和代码切换研究。
financial-roberta-large-sentiment - RoBERTa架构优化的金融文本情感分析模型
开源项目模型情感分析ESGRoBERTa机器学习模型Github金融文本Huggingface
Financial-RoBERTa是一个基于RoBERTa-Large架构优化的金融文本情感分析模型。它能分析财务报表、盈利公告、业绩电话会议记录等多种金融文本,输出积极、消极或中性的情感判断。模型经过大规模金融语料训练,并提供Hugging Face接口,便于企业和研究人员使用。该模型支持多种金融文档类型,包括10-K、10-Q、8-K报告、CSR报告和ESG新闻等。
Juggernaut-X-v10 - 基于SDXL的双版本AI图像生成模型
Juggernaut XGithubHuggingface开源项目RunDiffusion图像生成人工智能绘画机器学习模型模型
Juggernaut X v10是基于Stable Diffusion XL开发的文本到图像生成模型,分为安全(SFW)和非安全(NSFW)两个版本。模型通过GPT-4 Vision训练,改进了提示词响应准确度,优化了数据集质量和文本生成功能。支持自然语言和标签式两种提示方式,可生成艺术、人物、风景等多类型图像。
twitter-roberta-base-dec2021-tweet-topic-multi-all - 基于RoBERTa的多标签推文主题分类模型
多标签分类文本分类开源项目机器学习模型Github模型自然语言处理HuggingfaceTwitter RoBERTa
这是一个基于twitter-roberta-base-dec2021的微调模型,专注于多标签推文主题分类。模型在tweet_topic_multi数据集上训练,在test_2021测试集上实现76.48%的微平均F1分数。它能有效识别社交媒体文本中的多个主题,为内容分析提供了可靠的自然语言处理工具。
moirai-1.0-R-base - 基于Transformer的通用时间序列预测模型
时间序列预测开源项目数据分析Moirai模型预训练模型机器学习模型GithubHuggingface
Moirai-1.0-R-base是一个基于掩码编码器的通用时间序列预测Transformer模型,在LOTSA数据集上预训练。该模型包含9100万参数,使用补丁嵌入和变量ID编码方法,可处理多变量时间序列数据进行预测。模型支持自定义预测长度和上下文窗口设置,通过uni2ts库实现部署。作为Moirai系列的中型版本,该模型在性能和计算效率方面达到平衡。
Refact-1_6B-fim - 小巧精悍的多语言代码补全模型
Refact-1.6BGithub人工智能编程助手Huggingface机器学习模型开源项目模型代码补全
Refact-1.6B-fim是一个高性能的代码补全模型,仅以1.6B参数规模在多项基准测试中超越了部分更大的模型。它支持多种编程语言,采用填充中间和聊天格式,并针对IDE使用场景进行了优化。该模型在HumanEval等测试中表现出色,为开发者提供了准确、快速的代码补全功能。
CrystalChat - 适用于编程任务的透明高效语言模型
性能指标CrystalChat开源项目机器学习模型模型Huggingface开源文本生成Github
CrystalChat是一个基于Llama 2进行指令微调的模型,运用各类公开数据集及自有的WebAlpaca输入,擅长处理语言和编程任务。该模型在多任务处理方面展现出色的表现,尤其在MMLU和HumanEval评测中取得高分。在未经RLHF安全调整的前提下,该开源模型依然保证高度透明和用户可理解性。
molmo-7B-D-bnb-4bit - 量化技术优化,模型尺寸有效缩减
深度学习基准测试Huggingface机器学习模型量化开源项目模型transformersGithub
采用4bit量化技术的Molmo-7B-D模型,从30GB压缩至7GB,运行需求缩减至约12GB VRAM。项目致力于在保持低资源消耗的基础上提升模型性能。进一步的信息及示例代码可在GitHub和Hugging Face上获取,性能指标及基准测试结果预定于下周发布。
starcoder2-7b-AWQ - AWQ量化的StarCoder2代码生成模型
机器学习模型程序开发StarCoder2深度学习代码生成Github模型开源项目Huggingface
StarCoder2-7B-AWQ是经AWQ量化的大规模代码生成模型。它支持17种编程语言,采用分组查询注意力机制,具有16,384个token的上下文窗口。该模型在多项基准测试中表现优异,能生成高质量代码。量化后显著降低内存占用,便于部署应用。
efficientnetv2_rw_s.ra2_in1k - EfficientNetV2架构的轻量级图像分类模型
ImageNetGithub开源项目图像分类机器学习模型EfficientNetV2Huggingface深度学习模型
基于EfficientNetV2架构的图像分类模型,通过timm框架实现,使用RandAugment数据增强和RMSProp优化器在ImageNet-1k数据集训练。模型参数量23.9M,计算量4.9 GMACs,训练分辨率288x288,测试分辨率384x384。支持图像分类、特征图提取和图像嵌入等功能。
wav2vec2-large-xlsr-53-th-cv8-newmm - 基于wav2vec2的泰语语音识别模型整合CommonVoice V8数据集实现性能突破
Wav2Vec2语音转文本机器学习模型泰语语音识别模型Github开源项目Huggingface
这是一个针对泰语的开源语音识别模型,通过微调wav2vec2-large-xlsr-53并整合CommonVoice V8数据集实现。模型采用pythainlp进行预分词,结合语言模型显著提升性能。在CommonVoice V8测试集上,模型实现12.58%的词错率和3.28%的字符错率,较基准模型大幅提升。该项目代表了当前泰语语音识别领域的先进水平。
Llama-3.2-3B-Instruct-uncensored-i1-GGUF - 多种量化选项助力模型性能与效率优化
量化开源项目使用指南模型GithubHuggingfaceHugging Face机器学习模型Llama-3.2-3B-Instruct-uncensored
项目提供多种量化选项,包括i1-IQ1_S到i1-Q6_K不同规格的GGUF文件,满足研究和开发中的多样化需求。用户可参考TheBloke的指南了解使用方法,实现实际应用中的性能和效率优化,同时保持模型输出质量与资源利用的平衡。
Meta-Llama-3.1-8B-Instruct-4bit - Meta的Llama 3.1大语言模型助力多语言文本生成
许可证开源项目模型GithubHuggingfaceLlama 3.1机器学习模型Meta政策
Meta发布的Llama 3.1大语言模型,提供广泛的非独占全球许可,方便在多种语言环境中实现高效文本生成和自然语言处理。该项目允许复制、修改和重新分发模型,支持AI模型的实施与扩展。Llama 3.1提供多种开发工具与文档,提升多语言指令转化的广泛应用和适应性。
t5-base-summarization-claim-extractor - 从摘要中提取基本论断,提高信息准确性评估
T5-base-summarization-claim-extractor主张提取开源项目机器学习模型摘要真实性评估模型HuggingfaceGithub自然语言推理
T5-base-summarization-claim-extractor基于T5架构,专注于从摘要中提取基本论断。该模型属于FENICE项目的一部分,通过自然语言推理和论断提取来评估摘要的真实性。它能有效提高总结中的信息准确性,但仅支持英文文本。结合其他工具使用,这一模型有助于增强文本摘要的可靠性,同时为机器学习和自然语言处理领域提供了重要支持。