#pytorch

BitNet-Transformers 入门学习指南 - 1比特Transformer缩放大型语言模型

2 个月前
Cover of BitNet-Transformers 入门学习指南 - 1比特Transformer缩放大型语言模型

makeMoE入门指南 - 从零实现稀疏混合专家语言模型

2 个月前
Cover of makeMoE入门指南 - 从零实现稀疏混合专家语言模型

Tacotron-pytorch学习资料汇总 - 基于PyTorch实现的端到端语音合成模型

2 个月前
Cover of Tacotron-pytorch学习资料汇总 - 基于PyTorch实现的端到端语音合成模型

Deep-reinforcement-learning-with-pytorch学习资料汇总 - PyTorch实现的深度强化学习算法集合

2 个月前
Cover of Deep-reinforcement-learning-with-pytorch学习资料汇总 - PyTorch实现的深度强化学习算法集合

einops入门学习资料汇总 - 简洁可读的张量操作库

2 个月前
Cover of einops入门学习资料汇总 - 简洁可读的张量操作库

Ensemble-Pytorch:一个强大的PyTorch集成学习框架

3 个月前
Cover of Ensemble-Pytorch:一个强大的PyTorch集成学习框架

SC-Depth: 自监督式单目深度估计的突破性进展

3 个月前
Cover of SC-Depth: 自监督式单目深度估计的突破性进展

Carefree Creator: AI 魔法与无限画板的完美融合

3 个月前
Cover of Carefree Creator: AI 魔法与无限画板的完美融合

PyTorch情感神经元:一种创新的情感分析方法

3 个月前
Cover of PyTorch情感神经元:一种创新的情感分析方法

BitNet-Transformers: 1比特量化技术在大型语言模型中的应用与实现

3 个月前
Cover of BitNet-Transformers: 1比特量化技术在大型语言模型中的应用与实现
相关项目
Project Cover

einops

Einops 提供简洁高效的张量操作,适用于 numpy、pytorch、tensorflow、jax 等多个框架。通过易于理解的 Einstein 风格操作符,提高代码的可读性和可靠性。主要功能包括张量的重新排列、简化、复制、打包与解包。Einops 适用于深度学习和复杂数据处理任务,是开发者优化代码的理想工具。

Project Cover

Deep-reinforcement-learning-with-pytorch

本项目提供经典和前沿的深度强化学习算法PyTorch实现,包括DQN、DDPG、PPO等。项目持续更新并维护,适用于Anaconda虚拟环境管理。详细的安装步骤和测试方法确保用户能顺利运行代码,文档中还提供了相关论文和代码链接,便于深入学习研究。

Project Cover

Tacotron-pytorch

Tacotron-pytorch是基于Pytorch框架开发的端到端文本至语音合成模型。该项目支持通过清晰的指南轻松部署和训练,使用LJSpeech数据集,并附带完整的预处理代码和网络训练文件。用户可以根据需要自定义超参数,非常适合进行科研和技术开发。项目提供了将成熟度逐渐提升的语音示例,欢迎进行下载和反馈。

Project Cover

zero_nlp

zero_nlp是基于pytorch和transformers的中文NLP框架,支持从数据处理到模型部署的整个工作流程。它特别适用于处理大数据集、训练和部署多卡串联大模型,支持包括gpt2、clip在内的丰富模型类型,适用于文本分类、生成及多模态处理等多种任务。

Project Cover

makeMoE

makeMoE是一个基于Andrej Karpathy的makemore项目, 从零构建的稀疏混合专家语言模型。它借鉴了makemore的部分组件,例如数据预处理和生成莎士比亚风格文本。在架构上,makeMoE引入了稀疏专家混合、Top-k门控和噪声Top-k门控等改进。项目在Databricks上使用单一A100 GPU开发,支持大规模GPU集群扩展,并通过MLFlow进行指标跟踪。项目强调代码的可读性和修改性,适合深入学习和改进。

Project Cover

BitNet-Transformers

BitNet-Transformers项目使用Llama (2)架构,并通过1-bit权重缩放技术,实现对大型语言模型的高效训练和推理。该项目基于Huggingface Transformers,显著降低了GPU内存占用,从原始LLAMA的250MB减少到BitNet模型的最低要求。用户可通过wandb实时追踪训练进度,并在Wikitext-103上进行训练。项目提供了详细的开发环境配置和训练步骤指南,为研究者和开发者提供有力支持。

Project Cover

pytorch-sentiment-neuron

项目pytorch-sentiment-neuron基于Pytorch,实现了利用情感神经元进行情感分析和文本生成。用户可以通过预设模型文件和简单的命令行操作生成文本并进行情感分析,lm.py文件还允许在新数据上重新训练模型。该项目依赖Pytorch、Cuda和Python 3.5,适用于自然语言处理和情感分析领域的研究人员和开发者。

Project Cover

flops-counter.pytorch

该工具用于计算神经网络中的理论乘法加法运算量,以及参数数量和逐层计算成本。工具支持两个后端:pytorch和aten。aten后端覆盖更多模型架构,而pytorch后端更适合CNN分析。通过设置verbose参数,可以获取未纳入复杂度计算的操作信息,通过ignore_modules选项则可以忽略特定模块,适用于研究用途。适用于Pytorch版本2.0及以上。

Project Cover

carefree-creator

`carefree-creator`是一个开源的AI创作工具,集成了多种生成模型,基于`carefree-learn`构建,支持Python>=3.8和pytorch>=1.12.0。项目提供多种节省GPU RAM的加载方式,并支持CLI和Docker安装。详细的硬件要求与使用指南请见Wiki页面。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号