#Flax

Vision Transformer: 图像识别的变革性架构

3 个月前
Cover of Vision Transformer: 图像识别的变革性架构

Flax:JAX生态系统中灵活强大的神经网络库

3 个月前
Cover of Flax:JAX生态系统中灵活强大的神经网络库

CommonLoopUtils: 简化JAX机器学习训练循环的强大工具

3 个月前
Cover of CommonLoopUtils: 简化JAX机器学习训练循环的强大工具
相关项目
Project Cover

EasyDeL

EasyDeL是一个开源框架,用于通过Jax/Flax优化机器学习模型的训练,特别适合在TPU/GPU上进行大规模部署。它支持多种模型架构和量化方法,包括Transformers、Mamba等,并提供高级训练器和API引擎。EasyDeL的架构完全可定制和透明,允许用户修改每个组件,并促进实验和社区驱动的开发。不论是前沿研究还是生产系统构建,EasyDeL都提供灵活强大的工具以满足不同需求。最新更新包括性能优化、KV缓存改进和新模型支持。

Project Cover

prompt-tuning

本指南客观介绍了基于T5X、Flaxformer和JAX的提示微调技术,涵盖完整流程,包括安装、训练和推理,并详细说明在TPU和TPU Pod上执行大规模模型微调的方法。提供了配置文件管理和提示参数初始化的详细步骤,适用于研究人员和开发者优化模型性能。

Project Cover

CommonLoopUtils

CommonLoopUtils (CLU) 提供实用的功能来简化机器学习训练循环,使代码更短、更可读,并保持研究的灵活性。通过Colab示例可以快速入门,Flax Github中的应用示例也提供了更多参考。目前项目不接受直接贡献,用户可自行fork库以进行扩展。

Project Cover

vision_transformer

项目包含多种视觉Transformer(ViT)和MLP-Mixer模型实现,提供ImageNet和ImageNet-21k预训练模型及JAX/Flax微调代码。通过交互式Colab笔记本可探索5万多个模型检查点。这些高性能图像分类模型代表了计算机视觉的前沿进展。

Project Cover

flax

Flax是一个基于JAX的高性能神经网络库,以灵活性为核心设计理念。它提供神经网络API、实用工具、教育示例和优化的大规模端到端示例。Flax支持MLP、CNN和自编码器等多种网络结构,并与Hugging Face集成,涵盖自然语言处理、计算机视觉和语音识别等领域。作为Google Research与开源社区合作开发的项目,Flax致力于促进JAX神经网络研究生态系统的发展。

Project Cover

all_datasets_v4_MiniLM-L6

all_datasets_v4_MiniLM-L6是一个基于MiniLM-L6预训练模型的句向量模型,通过10亿句对数据集微调而成。该模型采用对比学习方法,可生成捕捉句子语义信息的向量表示。适用于信息检索、聚类和句子相似度等任务,可通过SentenceTransformers库使用。模型在TPU上训练540k步,批量大小为1024,性能优异,应用范围广泛。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号