#机器学习
gemma-2-2b-jpn-it - Gemma 2系列日语大模型实现多任务自然语言处理
机器学习Github日语模型HuggingfaceGemma 2 JPN开源项目模型大语言模型人工智能模型
Gemma 2系列2B参数日语大语言模型从Gemini技术中汲取灵感,通过8万亿tokens数据训练而成。模型支持日语文本生成、问答和摘要等功能,采用TPUv5p硬件与JAX框架开发。在日语任务评测中准确率达98.24%,提供多种部署方案及精度配置选项。
Yi-1.5-9B-Chat - 开源语言模型在编码、数学和推理能力方面表现卓越
机器学习人工智能GithubYi-1.5自然语言处理Huggingface开源项目模型大规模语言模型
Yi-1.5是Yi系列的升级版本,经过5000亿tokens的高质量语料库训练和300万多样化样本微调。该模型在编码、数学、推理和指令遵循方面表现出色,同时保持了优秀的语言理解、常识推理和阅读理解能力。Yi-1.5提供多种规模的基础模型和对话模型,在多项基准测试中表现优异,为用户提供了一个功能强大的开源语言模型选择。
Phi-CAT - 在连续对抗训练中优化Phi-3-mini-4k模型
Huggingface机器学习对抗性训练开源项目模型Continuous Adversarial TrainingPhi-3-mini-4k-instructGithub大语言模型
该项目通过Continuous Adversarial Training(CAT)算法,对Phi-3-mini-4k-instruct模型进行优化,增强其对抗性攻击的抵御能力,提升鲁棒性。项目详细信息可在Github查阅,有关研究发表在arXiv。
Nous-Hermes-2-Mistral-7B-DPO-GGUF - 多轮对话和角色扮演的高性能开源语言模型
开源项目DPOMistral-7B模型人工智能模型训练机器学习GithubHuggingface
Nous-Hermes-2-Mistral-7B-DPO是一款基于Mistral 7B架构的开源语言模型。经过DPO训练后,该模型在AGIEval、BigBench Reasoning等多项基准测试中表现优异。它支持多轮对话和角色扮演等多样化任务,采用ChatML格式,与OpenAI API兼容。这一高性能模型为开发者和研究人员提供了强大而灵活的自然语言处理工具。
bert-base-polish-cased-v1 - 专门针对波兰语的BERT预训练基础模型
语言模型BERT波兰语开源项目模型机器学习Github自然语言处理Huggingface
bert-base-polish-cased-v1作为专门针对波兰语开发的BERT预训练语言模型,通过HuggingFace transformers库提供,采用了全词掩码技术,支持大小写敏感。模型训练语料包含经过去重的OpenSubtitles数据集、ParaCrawl语料库、波兰议会语料库和波兰维基百科等资源。在KLEJ基准测试中展现出良好的波兰语理解效果,特别适合序列分类和标记分类等自然语言处理任务。
xcit_tiny_12_p8_224.fb_in1k - 跨协方差图像转换器实现图像分类与特征提取
神经网络开源项目模型ImageNet-1kXCiT图像分类机器学习GithubHuggingface
基于XCiT(Cross-Covariance Image Transformer)架构开发的图像分类模型,在ImageNet-1k数据集上完成预训练。模型包含670万参数量,GMACs为4.8,支持224x224图像输入分辨率。通过跨协方差注意力机制实现图像特征表示,可用于图像分类和特征提取。模型已集成到timm库中,支持top-k分类预测和特征向量提取功能。
kobart-summarization - 基于BART架构的韩语新闻自动摘要模型
韩语Huggingface开源项目模型BARTNLP机器学习Github文本摘要
kobart-summarization是一个专门用于韩语新闻文本自动摘要的开源模型。该模型基于BART架构,通过Hugging Face transformers库实现,提供简洁的Python接口。它支持快速文本编码和摘要生成,适用于新闻处理、内容分析等场景。开发者可以轻松使用预训练的tokenizer和模型进行文本摘要任务。项目已在GitHub开源,并提供在线demo供用户体验。
sd-vae-ft-ema - 稳定扩散变分自编码器的增强版模型
扩散模型开源项目Stable Diffusion模型图像重建机器学习Github自动编码器Huggingface
sd-vae-ft-ema是一个基于LAION-Aesthetics和LAION-Humans数据集训练的稳定扩散变分自编码器。该模型在图像重建质量尤其是人脸细节方面优于原始VAE,具有更好的rFID、PSNR和SSIM指标表现,可作为扩散器工作流中的即插即用组件。
roberta-base-japanese-with-auto-jumanpp - 日语RoBERTa预训练语言模型
开源项目日语模型模型文本预训练RoBERTa机器学习Github自然语言处理Huggingface
RoBERTa日语基础模型通过日本维基百科和CC-100语料库训练而成,采用Juman++分词系统和32000规模词表,支持掩码语言建模与下游任务微调。模型经过A100 GPU集群训练,在JGLUE基准测试中展现出稳定性能,可作为日语自然语言处理的基础模型使用。
MoLFormer-XL-both-10pct - 大规模分子语言模型实现化学结构与性质预测
MoLFormer化学模型开源项目模型SMILES机器学习Github分子结构Huggingface
MoLFormer是一个在ZINC和PubChem数据集上训练的化学语言模型,通过处理11亿分子的SMILES表示实现分子特征学习。模型采用线性注意力机制与旋转位置编码,在MoleculeNet的11个基准任务中展现优异性能。该模型可应用于分子相似度分析、特征提取及分子性质预测,适用于200原子以下的小分子研究。
Aria - 轻量级多模态原生混合专家模型实现高性能AI推理
开源项目模型多模态模型Aria人工智能模型训练机器学习GithubHuggingface
Aria是一个多模态原生MoE模型,集成了视觉、文本和视频处理能力。模型采用3.9B参数进行推理,支持64K长度的多模态输入,具备高效的视频处理性能。在文档理解、图表分析、视频理解等领域展现出稳定表现,能够满足多样化的AI应用需求。
bert-base-uncased-mrpc - BERT文本语义对比模型在MRPC数据集实现86%准确率
BERT开源项目模型文本分类机器学习Github语义分析自然语言处理Huggingface
BERT-base-uncased经MRPC数据集微调后的文本语义分析模型,通过双向掩码语言建模实现句子对的语义等价性判断。模型在验证集达到86.03%准确率和90.42% F1分数,具备大小写不敏感特性,可广泛应用于文本语义理解任务。
Mistral-Nemo-Base-2407 - Mistral和NVIDIA联合开发的多语言大模型支持128k超长上下文
开源项目深度学习模型GithubMistral-Nemo-Base-2407机器学习大语言模型Huggingface多语言支持
Mistral-Nemo-Base-2407是Mistral AI与NVIDIA合作推出的开源语言模型,采用12B参数规模和128k上下文窗口设计。模型支持英语、法语等8种语言,并在MMLU等多项基准测试中表现出色。基于40层transformer架构,可作为Mistral 7B的升级替代方案。该项目以Apache 2许可证发布,支持多语言及代码生成场景。
Mistral-Nemo-Instruct-2407-GGUF - Mistral Nemo多语言指令模型的量化版本
GGUF开源项目Mistral-Nemo-Instruct-2407模型Github量化模型机器学习大语言模型Huggingface
Mistral-Nemo-Instruct-2407模型的GGUF量化实现,包含从Q2到Q8多个量化等级,文件大小范围为4.9GB至13.1GB。模型原生支持英语、法语、德语等8种语言,基于Apache 2.0协议开源。项目提供了各量化版本的性能对比数据及使用文档,便于在性能和资源消耗间做出合适选择。
grammar-synthesis-small - 基于T5架构的自动语法纠正工具
T5-small-lm-adapt文本校对Github模型自然语言处理语法纠正机器学习开源项目Huggingface
这是一个基于T5-small-lm-adapt架构的语法纠正模型,通过JFLEG数据集训练,能在保持原文语义的同时自动修正文本中的语法错误。模型适用于处理ASR转写文本、OCR识别内容和AI生成文本的语法优化,可应用于聊天机器人输出改进和文本校对等场景。
gemma-2-9b-it-GGUF - AI语言模型量化版本满足多种硬件需求
gemma-2-9b-it模型量化开源项目模型GithubGPU内存优化机器学习文件格式转换Huggingface
本项目提供Google Gemma 2 9B模型的多种量化版本,涵盖从高质量Q8_0到轻量级IQ2_M。详细介绍了各版本特点、文件大小和推荐用途,并附有下载使用指南。这些优化版本在保持性能的同时大幅减小体积,适配不同硬件和内存需求,使模型能在更多设备上运行。
stable-audio-open-1.0 - 开源文本转音频模型支持44.1kHz立体声和最长47秒音频生成
音乐创作机器学习人工智能Stable Audio Open 1.0GithubHuggingface音频生成开源项目模型
Stable Audio Open 1.0是Stability AI推出的开源音频生成模型,通过自编码器、T5文本嵌入和DiT扩散模型架构,将文本转换为最长47秒的44.1kHz立体声音频。模型基于48万条音频数据训练,在音效和环境音生成方面表现突出,支持stable-audio-tools和diffusers两种调用方式。现阶段仅支持英文提示词输入,不具备人声生成能力。
IgBert - 专注抗体序列分析的预训练语言模型
抗体序列IgBert模型特征提取Github蛋白质语言模型机器学习开源项目Huggingface
IgBert是一个基于大规模抗体序列数据训练的语言模型,通过Observed Antibody Space数据集优化,主要用于分析抗体序列结构。该模型可同时处理抗体的重链和轻链序列,支持批量分析,并能生成序列特征表示。模型集成了序列处理工具,可用于多种抗体序列分析应用场景。
roberta-base-CoLA - RoBERTa模型在CoLA任务上的微调和性能分析
分类任务TextAttackGithub模型自然语言处理机器学习开源项目Huggingface模型训练
本项目展示了roberta-base模型在GLUE数据集的CoLA任务上的微调过程。模型经过5轮训练,使用32批量大小、2e-05学习率和128最大序列长度。采用交叉熵损失函数,模型在首轮训练后即达到85%的评估集准确率。这一结果凸显了RoBERTa模型在语言可接受性判断任务中的出色表现。
bertweet-base-emotion-analysis - BerTweet英文情感分析模型集成EmoEvent语料库
机器学习Github自然语言处理Huggingface数据集开源项目模型BERTweet情感分析
bertweet-base-emotion-analysis是一个基于BerTweet架构的英文情感分析开源模型,通过EmoEvent语料库训练而成。作为pysentimiento库的组成部分,该模型支持英文文本的情感识别与分析,主要应用于学术研究领域。该模型结合预训练语言模型技术,为自然语言处理研究提供了实用的情感分析工具。
pvnet_uk_region - 结合卫星和气象数据实现电网光伏发电预测
数值天气预报卫星数据机器学习GithubHuggingface光伏发电预测PVNet2开源项目模型
PVNet2通过整合卫星观测、天气预报和历史发电数据,对电网服务点的光伏发电量进行短期预测。该模型采用2019-2022年数据训练,2022-2023年数据验证,基于MIT许可证开源。模型应用多源数据融合方法,可为电网运营提供未来8小时的发电量预测参考。
bert-toxic-comment-classification - BERT模型在毒性评论分类中的应用与实现
文本分类机器学习GithubBERT毒性评论分类Huggingface模型训练开源项目模型
该项目基于BERT模型,通过fine-tuning实现毒性评论的智能分类。模型在1500行测试数据上达到0.95 AUC,采用Kaggle竞赛数据集训练。项目提供简洁的Python接口,便于开发者快速集成文本毒性检测功能。适用于构建在线社区、内容平台的评论审核系统。
moirai-1.0-R-large - 基于Transformer的通用多变量时序预测模型
机器学习GithubMoiraiHuggingface深度学习开源项目模型时间序列预测大规模预训练
Moirai-1.0-R-large是一个基于Masked Encoder的时序预测Transformer模型,通过LOTSA数据集预训练而成。模型采用补丁嵌入和Transformer架构设计,支持多变量时序数据处理和动态协变量预测。用户可通过uni2ts库实现模型部署,拥有3.11亿参数的模型规模使其成为Moirai系列中参数量最大的版本。
codebert-cpp - 训练于GitHub代码库的C++代码分析模型
模型预训练机器学习Github代码生成CodeBERTHuggingfaceC++开源项目模型
CodeBERT-CPP是基于Microsoft CodeBERT架构的C++代码分析模型,经100万步训练优化。该模型利用GitHub代码库数据进行掩码语言建模,主要用于CodeBERTScore评分系统,也适用于其他C++代码分析任务。作为开源项目,CodeBERT-CPP为开发者提供了一个专业的C++代码评估工具。
Barcenas-Llama3-8b-ORPO - ORPO方法优化的Llama 3对话模型
机器学习Github语言模型ORPOHuggingfaceLlama 3开源项目模型人工智能模型
Barcenas-Llama3-8b-ORPO是一款经ORPO方法优化的语言模型,基于Llama-3-SauerkrautLM-8b-Instruct开发。通过整合dolphin-sft数据集和GPT-4增强的对话数据,该模型在对话交互方面实现了显著提升。这一开源项目源自墨西哥新莱昂州,为AI开发者提供了新的模型选择。
tiny-random-BertModel - 轻量级随机初始化BERT模型
机器学习人工智能Github模型卡片自然语言处理Huggingface开源项目transformers模型
tiny-random-BertModel是一个轻量级BERT模型实现,采用随机初始化的小型架构。该模型适用于资源受限环境,保留BERT核心功能,可处理多种NLP任务。它提供快速部署和微调能力,为开发者提供灵活起点,便于根据特定需求优化和定制。
distilbert-base-german-cased - 轻量级德语BERT预训练模型
机器学习Github自然语言处理HuggingfaceDistilBERT开源项目模型德语预训练模型
distilbert-base-german-cased是一个基于知识蒸馏技术的德语BERT压缩模型。该模型在维持BERT基础功能的同时减少了模型体积和运算资源消耗,可用于资源受限环境下的德语自然语言处理任务。模型支持大小写敏感的文本处理功能。
tiny_GPT2ForTokenClassification-lora - 使用PEFT框架实现GPT2模型的LoRA微调
机器学习PEFTGithub框架Huggingface开源项目模型训练AI模型
该项目基于PEFT框架,通过LoRA适配器对tiny_GPT2ForTokenClassification模型进行微调,实现低资源消耗的模型定制化训练。项目展示了PEFT框架在轻量级模型调优中的应用方法
mixtral-7b-8expert - 高性能开源混合专家语言模型,支持多语言并具有出色的基准分数
机器学习GithubMixtral自然语言处理Huggingface混合专家模型开源项目模型人工智能模型
Mixtral-7b-8expert是MistralAI开发的混合专家(MoE)模型在Hugging Face平台的实现。这个开源项目在MMLU、hella swag等多项基准测试中表现出色,支持英、法、意、西、德五种语言。模型提供简便的推理设置,基于Apache-2.0许可发布,适合自然语言处理研究和应用开发。
dpn98.mx_in1k - 基于DPN架构的ImageNet图像分类深度学习模型
ImageNet图像分类模型深度学习GithubDPN机器学习开源项目Huggingface
DPN98是一个在ImageNet-1k数据集上训练的图像分类模型,采用双路径网络架构,具有6160万参数规模。该模型支持224x224像素输入,可用于图像分类、特征提取和图像嵌入。模型已从MXNet迁移至PyTorch框架,并提供预训练权重,适合进行计算机视觉研究和应用开发。
sentence-camembert-large - 基于CamemBERT的法语句子语义嵌入模型
文本相似度CamemBERTGithub模型自然语言处理语义嵌入机器学习开源项目Huggingface
一个专门面向法语文本的语义嵌入模型,基于'facebook/camembert-large'和'Siamese BERT-Networks'技术开发。模型通过数学向量表示法语句子语义,在STS基准测试中达到85.9%的皮尔逊相关系数。适用于语义搜索和文本相似度计算等应用场景,是当前性能领先的法语句子嵌入模型。
URM-LLaMa-3.1-8B - 基于LLaMa的不确定性奖励模型提升AI对未知问题的判断能力
URM-LLaMa奖励模型模型Github不确定性识别机器学习开源项目Huggingface模型训练
URM-LLaMa-3.1-8B是一款开源的不确定性感知奖励模型,通过属性回归和门控层学习两阶段训练,实现对AI回答的多维度质量评估。模型集成了不确定性感知价值头设计,可从有用性、正确性、连贯性等维度评估输出质量,特别适合处理具有不确定性的问题场景。项目提供完整代码实现,支持LLM响应质量研究。
Qwen2.5-Math-1.5B-Instruct - 阿里巴巴数学大语言模型支持中英双语计算推理
Qwen2.5-Math语言模型数学模型人工智能模型Github机器学习开源项目Huggingface
Qwen2.5-Math-1.5B-Instruct是一个专注于数学问题求解的大语言模型,能同时处理中文和英文数学题目。模型集成了思维链推理和工具辅助计算功能,在MATH基准测试中取得79.7分的成绩。基于Hugging Face框架开发,方便开发者快速部署和应用到教育等实际场景中。
Llama-3.2-3B-Instruct-GGUF - Llama 3.2多语言模型的高效量化部署方案
Llama 3.2语言模型多语言模型Github量化模型机器学习开源项目Huggingface
Llama 3.2系列多语言模型的GGUF量化版本,针对对话、检索和摘要任务进行优化。通过多种量化方案实现4.66GB至9.38GB的灵活内存占用,适合在资源受限环境部署。该模型在主流行业基准测试中展现了良好性能。
stable-cascade - 基于高压缩率架构的新一代AI图像生成模型
图像生成人工智能模型深度学习Stable CascadeGithub机器学习开源项目Huggingface
Stable Cascade采用三阶段级联架构设计,实现了42倍的图像压缩率,可将1024x1024图像压缩至24x24尺寸。模型在保持图像重建质量的同时,显著提升了处理效率,支持LoRA、ControlNet等主流扩展功能。当前发布了两个Stage C版本,分别为10亿和36亿参数规模。
falcon-11B - 11种语言支持的大规模语言模型,基于5000亿数据训练打造
Falcon2-11B语言模型人工智能Github模型自然语言处理机器学习开源项目Huggingface
Falcon2-11B是一个110亿参数的因果解码器模型,由TII开发并在5000亿个RefinedWeb tokens上训练。该模型支持11种语言,采用Flash-Attention 2技术,具有8192tokens的上下文长度。模型在多个基准测试中表现优异,适用于语言模型研究、文本生成、摘要和对话等任务的微调。
相关文章
Ray: 统一框架助力AI和Python应用扩展
3 个月前
SQLFlow: 融合SQL与AI的创新技术
3 个月前
Efficient-AI-Backbones: 华为诺亚方舟实验室开发的高效AI骨干网络
3 个月前
Netron: 强大的神经网络和机器学习模型可视化工具
3 个月前
DVC: 开源数据版本控制系统助力数据科学和机器学习项目
3 个月前
SynapseML:简单而强大的分布式机器学习库
3 个月前
TensorWatch: 微软开源的机器学习调试与可视化工具
3 个月前
AI专家路线图2024:成为人工智能专家的学习指南
3 个月前
Ray :用于扩展 AI 和 Python 应用程序的统一框架
2024年08月03日