#模型训练
LLMSys-PaperList - 大语言模型系统论文精选 前沿研究与技术进展
LLM深度学习系统优化模型训练模型推理Github开源项目
该项目汇集大语言模型系统相关的学术论文、文章、教程和项目,涵盖预训练、推理服务、微调系统等多个方面。包括Megatron-LM、FlashAttention、vLLM等重要工作,还涉及LLM用于系统优化的研究。这一精选列表有助于研究者和开发者及时了解大语言模型系统领域的最新进展。
super-gradients - 开源工具库简化SOTA计算机视觉模型的训练与部署
SuperGradients深度学习计算机视觉预训练模型模型训练Github开源项目
Super-Gradients是一个专注于计算机视觉的开源深度学习库。它提供预训练SOTA模型和易用训练工具,支持分类、分割、检测等任务。该项目集成多种训练技巧,兼容主流部署框架,可快速将模型应用于生产。Super-Gradients适用于学术研究和工业应用,是一个高效的计算机视觉开发工具。
kaggle_pipeline_tps_aug_22 - 开源Python框架简化Kaggle表格数据竞赛流程
Kaggle机器学习数据处理特征工程模型训练Github开源项目
这是一个面向Kaggle表格数据竞赛的开源Python框架。它集成了数据处理、可视化、特征工程、模型训练等功能的API。虽然最初为Kaggle TPS August 2022设计,但经简单调整可适用于其他表格数据竞赛。该框架涵盖了从数据预处理到提交预测结果的完整机器学习流程,为Kaggle参赛者提供了实用的工具支持。
tdmpc2 - 跨领域连续控制的可扩展世界模型
TD-MPC2强化学习连续控制模型训练多任务学习Github开源项目
TD-MPC2是一种可扩展的基于模型的强化学习算法,在104个连续控制任务中展现出色性能。该算法使用317M参数的单一模型可执行80个跨领域任务。项目提供300多个模型检查点和多任务数据集,支持状态和像素输入,为模型强化学习研究提供重要资源。
ema-pytorch - PyTorch模型指数移动平均跟踪工具
EMAPyTorch神经网络模型训练指数移动平均Github开源项目
ema-pytorch是一个用于在PyTorch中实现指数移动平均(EMA)的库。它提供了跟踪模型参数EMA版本的方法,支持自定义衰减因子和更新频率。该库实现了后验EMA合成技术,可在训练后生成不同衰减率的EMA模型。ema-pytorch适用于多种深度学习任务,可用于模型性能和稳定性的研究。
streamlit_prophet - 交互式时间序列预测工具助力数据分析
StreamlitProphet时间序列预测可视化模型训练Github开源项目
streamlit_prophet是一款开源的时间序列预测工具,集成了Streamlit的交互功能和Prophet的预测算法。它提供了简洁的用户界面,支持数据上传、预处理、模型调参、评估和预测等功能。兼容Python 3.7-3.9版本,streamlit_prophet通过可视化界面简化了时间序列预测过程。这个工具适用于数据分析师和业务人员,可快速部署并用于各类预测分析任务。
tesstrain - Tesseract 5训练流程自动化工具
TesseractOCR模型训练机器学习图像处理Github开源项目
tesstrain是一个基于Makefile的Tesseract 5训练工作流工具。它提供完整的OCR模型训练流程,包括数据准备、训练、评估和可视化。支持自定义模型、微调和从头训练,具有灵活的配置选项。tesstrain能生成traineddata文件和错误率图表,适用于高效开发和优化Tesseract模型。
huggingsound - 基于HuggingFace的语音处理开源工具库
HuggingSound语音识别模型训练自然语言处理HuggingFaceGithub开源项目
HuggingSound是基于HuggingFace工具开发的语音处理工具库。该项目为语音识别、模型微调和评估提供了简洁的接口。适用于Python 3.8+环境,支持pip安装。HuggingSound能够利用预训练CTC模型进行推理,并通过语言模型增强识别准确度。此外,它还包含模型评估和微调功能,便于研究人员根据特定数据集优化模型表现。
scicloj.ml - Clojure机器学习生态系统 强大灵活的数据科学工具
Clojure机器学习数据处理模型训练pipelinesGithub开源项目
Scicloj.ml是一个为Clojure语言打造的全面机器学习生态系统。它整合了多个成熟的数据科学库,提供标准化的分类、回归和无监督学习模型接口。该库支持数据驱动的机器学习流水线构建,内置复杂的交叉验证功能,并具备灵活的开放架构,可轻松集成各类ML模型。Scicloj.ml还提供丰富的数据预处理工具,并允许通过回调机制实现实验跟踪,为Clojure开发者提供了强大而灵活的机器学习解决方案。
mlr3 - 现代化的R语言机器学习框架
mlr3机器学习R语言数据分析模型训练Github开源项目
mlr3是一个现代化的R语言机器学习框架,专注于高效和面向对象的设计。它提供构建机器学习模型的基本组件,支持分类、回归等任务,并具有良好的可扩展性。该框架利用R6类和data.table实现清晰的面向对象设计和快速数据处理。mlr3提供交叉验证等重采样方法和丰富的性能评估指标。作为mlr的继任者,mlr3克服了前身的局限性,为研究人员和数据科学家提供更灵活、更易维护的机器学习工具。
vaporetto - 基于点预测的高效日语分词工具
Vaporetto分词器Rust模型训练标签预测Github开源项目
Vaporetto是一款基于点预测的日语分词工具,具有高速和轻量级的特点。它提供Rust API和命令行界面,支持使用预训练模型、转换KyTea模型或自定义训练。Vaporetto的分词速度比KyTea快8.7倍,性能卓越。此外,它还具备词性和发音标注功能,并允许通过词典编辑优化分词结果。作为一个高效可靠的解决方案,Vaporetto适用于各种日语自然语言处理任务。
OfflineRL-Kit - 高效易用的PyTorch离线强化学习库
离线强化学习PyTorch算法库实验管理模型训练Github开源项目
OfflineRL-Kit是基于PyTorch的离线强化学习库,提供清晰的代码结构和最新算法实现。支持CQL、TD3+BC等多种算法,具备高扩展性和强大的日志系统。该库还支持并行调优,便于研究人员进行实验。相比其他离线强化学习库,OfflineRL-Kit在性能和易用性方面都有显著优势,是离线强化学习研究的有力工具。
MT-UNet - 融合Transformer和UNet的医学图像分割新模型
MT-UNet医学图像分割数据集准备模型训练权重文件Github开源项目
MT-UNet是一种结合Transformer和UNet优势的医学图像分割模型。该模型在Synapse和ACDC数据集上分别达到79.20%和91.61%的DSC评分。MT-UNet通过混合transformer结构实现多尺度特征融合,为医学图像分析提供新思路。项目开源代码和预训练权重,便于研究者复现结果和深入研究。
dmarman.github.io - TailwindCSS驱动的AI智能调色板生成工具
Tailwind InkAI调色板生成器神经网络颜色预测模型训练Github开源项目
TailwindInk是一个基于TailwindCSS颜色体系训练的AI调色板生成工具。该项目利用两个神经网络模型预测完整调色板,一个负责垂直预测50-900的色调,另一个水平预测给定色调的颜色。TailwindInk提供简洁的API,方便开发者集成使用。此外,项目开源了模型训练和调优功能,支持用户根据需求自定义调色过程。
GermanWordEmbeddings - 开源德语词向量训练与评估工具包
词嵌入德语语料库模型训练评估Github开源项目
GermanWordEmbeddings是一个开源的德语词向量模型训练与评估工具包。该工具包基于gensim的word2vec实现,提供了从语料库获取、预处理到模型训练和评估的完整流程。工具包支持语法和语义特征评估,可用于德语自然语言处理研究。项目还提供了一个基于德语维基百科和新闻文章训练的预训练模型。
transformerlab-app - 多功能大语言模型实验平台 支持本地操作和微调
Transformer Lab语言模型人工智能模型训练开源软件Github开源项目
Transformer Lab是一个功能丰富的大语言模型实验平台。该应用支持一键下载多种流行模型、跨硬件微调、RLHF优化等功能。平台提供模型聊天、评估和RAG等交互方式,并具备REST API、云端运行和插件系统。Transformer Lab适用于多种操作系统,为AI研究和开发提供了便捷的工具。
training_extensions - OpenVINO框架助力快速训练和部署计算机视觉模型
OpenVINO计算机视觉迁移学习深度学习模型训练Github开源项目
OpenVINO Training Extensions是一个专注计算机视觉的低代码迁移学习框架。它基于PyTorch和OpenVINO工具包开发,提供简洁API和CLI命令,支持分类、检测、分割等多种任务的模型训练、推理和部署。该框架具备自动配置、分布式训练、混合精度等功能,可快速构建高效准确的视觉AI模型。
BitNetMCU - 低比特量化神经网络在微控制器上的高精度实现
BitNetMCU量化神经网络微控制器MNIST数据集模型训练Github开源项目
BitNetMCU项目致力于在低端微控制器上实现高精度的低比特量化神经网络。通过优化训练和推理过程,该项目在仅2KB RAM和16KB Flash的CH32V003等微控制器上,实现了16x16 MNIST数据集超过99%的测试准确率,无需使用乘法指令。项目提供基于PyTorch的训练流程和ANSI-C实现的推理引擎,便于在不同微控制器上应用。
Vehicle-Detection - 深度学习与YOLO算法实现的车辆检测系统
车辆检测YOLO算法深度学习数据集模型训练Github开源项目
Vehicle-Detection项目结合深度学习和YOLO算法实现车辆检测。项目提供完整工作流程,涵盖数据集准备、模型训练和测试。采用YOLOv5预训练模型微调,集成wandb工具监控性能。项目包含自定义车辆数据集,并提供详细的安装、训练和测试指南。
BertBasedCorrectionModels - 基于BERT的中文文本纠错模型集合
BERT文本纠错PyTorch中文拼写检查模型训练Github开源项目
BertBasedCorrectionModels是一个使用PyTorch实现的中文文本纠错项目。该项目集成了多个基于BERT的模型,包括SoftMaskedBert、BERT4CSC和MACBERT4CSC,用于检测和纠正中文文本错误。项目提供了训练和推理流程,并包含详细的使用说明和实验数据。这个开源工具主要面向需要中文文本纠错功能的研究人员和开发者。
upos-multi - 多语言支持的高效词性标注模型
多语言Github模型模型训练开源项目词性标注PythonFlairHuggingface
Flair提供的默认多语言词性标注模型支持12种语言,F1评分达到96.87%。基于Flair embeddings和LSTM-CRF构建,可以通过pip安装整合至应用中,并使用Flair脚本进行自定义训练,提升文本分析能力。适用于广泛的自然语言处理任务,为多语言内容的词性识别提供准确支持。
vietnamese-bi-encoder - 越南语句子相似度模型PhoBERT的应用与语义搜索支持
模型训练开源项目sentence-transformersGithub模型HuggingfacePhoBERT语义搜索句子相似度
项目依托sentence-transformers框架及PhoBERT-base-v2模型,旨在优化越南语句子相似度与聚类任务。通过结合MS Macro、SQuAD v2及Zalo 2021数据集进行训练,其在语义搜索和法律文本检索表现上有所提升。支持用户通过安装sentence-transformers库及HuggingFace的API和Widget多种方式轻松上手。
llama_3.1_q4 - 高效文本生成模型,结合优化技术提升性能
模型训练HuggingfaceGithub开源项目模型Unslothtransformers文本生成
llama_3.1_q4模型结合Unsloth与Huggingface TRL库,实现快速训练,保持8B参数模型的强大性能,优化文本生成能力。项目在Apache-2.0许可下开放使用,适用于多语言生成,由keetrap负责开发。
Synatra-RP-Orca-2-7b-v0.1 - 个人资源开发的测试版RP细调成果
Github微调模型训练模型开源项目Alpaca个人项目Synatra-RP-Orca-2-7b-v0.1Huggingface
Synatra-RP-Orca-2-7b-v0.1是一个个人资源开发的测试RP SFT模型,基于microsoft/Orca-2-7b构建。项目通过SFT方法进行细调优化,使用A100 80GB显卡训练,并采用Alpaca和ChatML指令格式。推动自然语言处理领域研究,其开放合作和资助渠道请联系Telegram用户AlzarTakkarsen。
Sheared-LLaMA-1.3B-ShareGPT - 优化Sheared-LLaMA模型训练,提高语言模型响应能力
模型训练ShareGPT开源项目模型Sheared-LLaMAGithub结构剪枝自然语言处理Huggingface
该项目通过10,000个指令响应对优化Sheared-LLaMA-1.3B模型,提升语言模型效率和性能。该模型可通过transformers.LlamaModelForCausalLM加载,适用于多种应用场景。
roberta-base - 适用于HPU的模型优化与推理配置指南
模型训练Habana处理器Hugging Face Transformers模型Github开源项目问答系统Optimum HabanaHuggingface
基于Habana Gaudi处理器的优化指南,旨在简化和加速Transformer与Diffusers模型的HPU加载、训练和推理过程。适合寻求利用HPU提升模型性能的研究人员和开发者。
t5-base-qg-hl - 基于T5架构的问答生成模型
模型训练问题生成开源项目模型Github高亮标记HuggingfaceT5Python
该模型采用T5-base架构,专注于生成基于答案的问句。通过在文本中使用<hl>标记来突出答案范围,并以</s>结束文本,即可生成相关问题。这一工具提供了直观的使用体验,适合需要自动生成理解型问题的场景,有助于提高文本处理效率。
火山方舟 - 全方位AI平台,涵盖模型训练、推理和应用
AI工具火山引擎模型训练大模型AI应用智能座舱
火山方舟是提供从模型训练、推理到评测和精调的一站式AI平台,助力大模型生态构建。其丰富的插件和工具链帮助企业高效实现AI应用,覆盖智能座舱交互、售后知识库和智能营销等多个场景。平台具备强大算力和资深算法支持,确保全周期的安全与信任,是企业推进人工智能战略的可靠伙伴。
deepseek-math-7b-instruct - 深度数学推理的开源解决方案
模型训练数学求解自然语言处理HuggingfaceGithub开源项目模型人工智能DeepSeekMath
DeepSeekMath作为开源项目,利用最先进的transformers技术支持在数学问题中实现链式思维推理。其模型通过商用许可提供,帮助在积分和微分等领域提高计算效率和准确性,并提供详细的使用指南和技术支持。
Llama-2-13b-chat-hf - Meta开发的130亿参数大语言模型支持多种自然语言处理任务
Huggingface模型大语言模型人工智能Github开源项目Llama 2对话系统模型训练
Llama-2-13b-chat-hf是Meta开发的大规模语言模型,拥有130亿参数。该模型经过对话任务微调,在多项基准测试中表现优异,支持文本生成、问答等自然语言处理任务。Llama-2采用公开数据集训练,不含Meta用户数据,提供商业许可。此Hugging Face版本便于研究和开发使用。
llama-68m - LLaMA类轻量级语言模型助力高效推理
文本生成Huggingface模型Github开源项目自然语言处理推理加速LLaMA模型训练
llama-68m是一个参数仅为6800万的LLaMA类模型,通过Wikipedia和部分C4数据集训练而成。作为SpecInfer论文中的小型推测模型基础,它旨在通过推测性推理和标记树验证技术加速大语言模型服务。尽管参数量小,但设计目标是提高推理效率。由于尚未进行全面评估,建议谨慎使用。
dummy-GPT2-correct-vocab - 轻量级GPT2模型实现TRL测试框架
模型模型训练GithubGPT2开源项目Huggingface机器学习transformers自然语言处理
本项目提供一个简化版GPT2模型,专为TRL(Transformer强化学习)测试设计。基于transformers库构建,模型配置精简,并定制了tokenizer的聊天模板。项目已上传至Hugging Face Hub,方便开发者进行强化学习实验。这一轻量级实现为TRL技术的研究和验证提供了便捷工具。
AST-VoxCelebSpoof-Synthetic-Voice-Detection - AST模型实现超高精度合成语音识别
ASTHuggingface合成语音检测模型语音识别VoxCelebSpoofGithub开源项目模型训练
AST-VoxCelebSpoof-Synthetic-Voice-Detection是基于MIT/ast-finetuned-audioset-10-10-0.4593模型微调而来,专注于合成语音识别。该模型在VoxCelebSpoof数据集上训练,评估结果显示准确率和F1值均高达99.99%。采用Adam优化器和线性学习率调度,经3轮训练达到最佳效果。此模型为语音真实性验证和相关安全应用提供了高精度解决方案。该模型适用于音频安全、声纹验证等领域,但可能需要在不同语言环境下进行进一步测试和优化。
resnet34.a1_in1k - ResNet34 A1变体:轻量级高效图像分类模型
模型模型训练开源项目ResNetHuggingface图像分类深度学习Githubtimm
resnet34.a1_in1k是一种轻量级ResNet变体,在ImageNet-1k上训练。该模型采用ResNet-B架构,结合ReLU激活、7x7卷积和1x1短路下采样。训练过程使用LAMB优化器、BCE损失和余弦学习率。作为通用骨干网络,它适用于图像分类、特征提取和嵌入生成,在维持性能的同时显著降低了计算复杂度。
bart-large-cnn-samsum - BART模型在SageMaker上优化的对话摘要解决方案
模型模型训练GithubBART对话摘要开源项目HuggingfaceAmazon SageMaker自然语言处理
bart-large-cnn-samsum是一个基于BART架构的对话摘要模型,通过Amazon SageMaker和Hugging Face深度学习容器训练而成。该模型在SAMSum数据集上进行微调,专注于生成高质量的对话摘要。在ROUGE评分方面表现优异,为开发者提供了强大的对话摘要工具。模型可通过简洁的Python代码轻松集成,适用于需要快速、准确提取对话要点的应用场景。
RealVisXL_V4.0 - 专注真实感的开源AI图像生成模型
模型模型训练Github照片写实开源项目Huggingface图像生成AI绘图RealVisXL
RealVisXL_V4.0是一个开源的AI图像生成模型,致力于创造高度逼真的视觉效果。目前仍处于训练阶段,但已能生成多种类型的图像,包括常规和成人内容。模型支持参数调整,如采样步骤和上采样方法,以优化输出结果。尽管存在潜在的瑕疵,RealVisXL_V4.0仍为创作者提供了一个强大的工具,可用于探索多样化的视觉创作。
相关文章
EasyPhoto: 您的智能AI肖像生成器
2024年08月30日
Superduper: 将AI引入您的数据库的革命性框架
2024年08月30日
零到NLP:开箱即用的中文NLP训练框架
2024年08月30日
ONNX Runtime: 跨平台高性能机器学习加速器
2024年08月30日
PyTorch Metric Learning:深度度量学习的强大工具
2024年08月30日
GPT-Neo:开源大规模语言模型的突破性进展
2024年08月30日
Tensor2Tensor: 加速深度学习研究的强大工具库
2024年08月30日
Weights & Biases:AI开发者的得力助手
2024年08月30日
GPT-SoVITS: 革命性的少样本语音克隆与文本转语音技术
2024年08月29日