#数据预处理
Bert-VITS2-ext
Bert-VITS2-ext 专注于TTS及声音识别的创新应用,实现声音到脸部表情的同步生成。该技术结合VITS,支持多语言,适用于复杂交互场景,为动画与虚拟互动领域开辟新可能。
DALI
NVIDIA DALI是一个GPU加速的数据加载和预处理库,专为提高深度学习应用效率而设计。它提供了一套优化的工具,改善图像、视频和音频的处理,同时解决CPU瓶颈,支持跨多平台框架使用。此外,DALI利用GPUDirect Storage技术,从而实现从存储到GPU内存的直接数据传输,显著提升处理速度。
lite-transformer
Lite Transformer是一种结合长短期注意力机制的高效Transformer模型。它基于PyTorch开发,支持多种数据集的下载和预处理,能够在NVIDIA GPU上高效运行。模型在多个大型数据集上表现优异,并支持分布式训练和预训练模型下载。
kss
Kss提供多种韩语字符串处理功能,适用于自然语言处理、数据预处理和数据分析等领域。工具设计简洁易用,支持分词、关键词提取、拼音转换等模块,用户可通过简单代码调用实现复杂字符串操作。Python、Java等多种编程语言兼容性强,并支持良好的向后兼容。
LLamaTuner
LLamaTuner是一款高效、灵活且功能全面的大语言模型微调工具。支持在几乎所有GPU上进行大语言模型的预训练和微调,包括单个8GB GPU上微调7B LLM和超过70B模型的多节点微调。自动调度高性能算子如FlashAttention和Triton内核,兼容DeepSpeed以提升训练吞吐量。支持多种LLM和VLM,以及QLoRA和LoRA等多种训练算法,提供连续预训练、指令微调和代理微调等功能,还能与大型模型进行对话。
tslearn
tslearn是一个开源的Python库,专注于时间序列分析和机器学习。它提供数据预处理、分类、聚类、回归和多种距离度量方法。支持可变长度时间序列,兼容scikit-learn,包含UCR数据集和数据生成器。tslearn适用于需要进行时间序列分析的数据科学工作,支持超参数调优和管道等功能,为研究和实践提供全面工具支持。
GPT-2
本项目是基于Andrej Karpathy代码的GPT-2开源实现。通过详细注释解释模型架构和训练过程,包含核心文件如模型结构、训练循环和数据预处理。计划添加KV-Cache、RoPE等功能。虽然Hellaswag测试性能略低,但为学习大型语言模型提供了重要资源。项目展示了模型训练过程中的各种考虑因素,如权重初始化、学习率调整等技术细节。
NVTabular
NVTabular是NVIDIA Merlin框架的组件,用于处理TB级数据集和训练深度学习推荐系统。该库利用GPU加速计算,提供高级抽象以简化代码。它可处理超出内存限制的大规模数据集,使数据科学家专注于数据操作,快速准备实验数据,并加速生产模型的数据转换过程。
100-Days-Of-ML-Code
探索100天机器学习代码项目,该项目包括数据预处理和各种机器学习模型的练习,如线性回归、逻辑回归、决策树等。项目还涵盖了无监督学习方法和深入的Python, TensorFlow, Keras在深度学习中的应用。