Logo

#TPU

MaxText入门指南 - 高性能可扩展的JAX LLM框架

1 个月前
Cover of MaxText入门指南 - 高性能可扩展的JAX LLM框架

Uncertainty Baselines: Google推出深度学习不确定性和鲁棒性基准

2 个月前
Cover of Uncertainty Baselines: Google推出深度学习不确定性和鲁棒性基准

MaxText: Google的高性能可扩展大语言模型框架

2 个月前
Cover of MaxText: Google的高性能可扩展大语言模型框架

Ring Attention: 突破Transformer模型的上下文长度限制

2 个月前
Cover of Ring Attention: 突破Transformer模型的上下文长度限制

XLA: 加速机器学习的强大编译器

2 个月前
Cover of XLA: 加速机器学习的强大编译器

相关项目

Project Cover
maxtext
MaxText是一个高性能、可扩展的开源大模型,采用纯Python和Jax编写,专为Google Cloud的TPUs和GPUs设计。支持训练和推理,能够从单个主机扩展到大型集群,且无需复杂优化。MaxText适用于研究和生产中的大型语言模型项目,支持Llama2、Mistral和Gemma模型,并提供详细的入门指南和性能测试结果。
Project Cover
EasyLM
EasyLM提供了一站式解决方案,用于在JAX/Flax中预训练、微调、评估和部署大规模语言模型。通过JAX的pjit功能,可以扩展到数百个TPU/GPU加速器。基于Hugginface的transformers和datasets,EasyLM代码库易于使用和定制。支持Google Cloud TPU Pods上的多TPU/GPU和多主机训练,兼容LLaMA系列模型。推荐加入非官方的Discord社区,了解更多关于Koala聊天机器人和OpenLLaMA的详细信息及安装指南。
Project Cover
uncertainty-baselines
Uncertainty Baselines提供高质量的不确定性和鲁棒性标准模板,作为研究人员新想法和应用的起点,促进技术交流。项目高效实施关键任务,减少对代码库其他文件的依赖,便于独立使用。建议不确定性和鲁棒性评估的最佳实践,帮助研究人员快速原型化和基准比较。支持TensorFlow开发,可在TPUs和GPUs上运行,提升实验灵活性和重复性。
Project Cover
xla
PyTorch/XLA 是一个将 PyTorch 深度学习框架与 XLA 编译器及 Cloud TPUs 连接的 Python 包,提供高效的训练和推理解决方案。用户可以通过 Kaggle 免费试用,并安装支持 TPU 和 GPU 的插件包。项目提供详细的文档和教程,包括使用指南、性能调优方法和 Docker 镜像使用说明。鼓励用户通过 issue 提交反馈和建议,欢迎开源贡献。
Project Cover
ringattention
ringattention项目实现Ring Attention和Blockwise Transformers技术,显著提升Transformer模型上下文处理能力。通过跨设备分布式计算和通信重叠,模型可处理长达数千万个token的序列,无需增加开销。该技术支持causal block和cache index,为大规模语言模型训练提供高效解决方案,特别适用于超长上下文处理场景。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号