Project Icon

flash-attention

高效注意力机制加速深度学习模型训练

FlashAttention是一种高效的注意力机制实现,通过IO感知算法和内存优化提升计算速度并降低内存消耗。它支持NVIDIA和AMD GPU,适用于多种深度学习框架。最新的FlashAttention-3版本针对H100 GPU进行了优化。该项目提供Python接口,可集成到现有模型中,有助于加速大规模深度学习模型的训练过程。

External-Attention-pytorch - 注意力机制和主干网络的PyTorch实现合集
AttentionFightingCVGithub代码库开源项目深度学习计算机视觉
该项目提供了多种注意力机制和主干网络的PyTorch实现代码。涵盖External Attention、Self Attention、Squeeze-and-Excitation等注意力机制,以及ResNet、MobileViT等主干网络。代码结构清晰,注释详细,既可帮助初学者理解核心原理,也可作为科研和工业应用的可复用组件。项目适合深度学习爱好者学习和实际使用。
attention-ocr - 基于注意力机制的视觉OCR模型,实现与导出工具
Attention-OCRGithubOCRTensorflow人工智能图像识别开源项目
该项目提供了基于注意力机制的OCR模型,结合了CNN与LSTM,用于图像识别,并能够导出为SavedModel或frozen graph格式。用户可以通过生成TFRecords数据集、训练、测试及可视化等步骤完整运行该OCR系统。项目还支持通过Tensorflow Serving提供REST API服务,并可以在Google Cloud ML Engine上进行模型训练。目前该项目依赖Tensorflow 1.x,未来计划升级到Tensorflow 2。
AttentionDeepMIL - 深度多实例学习的注意力机制算法实现
GithubMNISTPyTorch多实例学习开源项目注意力机制深度学习
AttentionDeepMIL是一个开源的深度多实例学习算法项目,基于PyTorch框架实现。它在LeNet-5模型基础上创新性地添加了注意力机制的MIL池化层,适用于图像分类等多实例学习任务。该项目提供完整的实验环境,包括MNIST-BAGS数据集处理、模型架构和训练脚本,支持CPU和GPU运行。此外,AttentionDeepMIL还展示了在医学图像分析领域的应用潜力,包括对乳腺癌和结肠癌组织病理学数据集的实验支持。
cutlass-kernels - 针对大语言模型优化的高效CUDA库
CUDACUTLASSFlashAttention-3GPU加速Github开源项目深度学习
CUTLASS Kernels是一个针对大语言模型(LLM)优化的CUDA库,提供了FlashAttention-3的高效实现。该项目支持TF32模式,显著提升性能,主要用于加速LLM的训练和推理过程。开发者可以轻松集成这些核心,为构建高性能AI应用提供强大的基础支持。CUTLASS Kernels需要配合NVIDIA的CUTLASS项目使用,为LLM开发提供了关键的性能优化工具。
ringattention - 创新注意力机制大幅提升Transformer上下文处理能力
Blockwise TransformersGPUGithubJaxRing AttentionTPU开源项目
ringattention项目实现Ring Attention和Blockwise Transformers技术,显著提升Transformer模型上下文处理能力。通过跨设备分布式计算和通信重叠,模型可处理长达数千万个token的序列,无需增加开销。该技术支持causal block和cache index,为大规模语言模型训练提供高效解决方案,特别适用于超长上下文处理场景。
attention-viz - 帮助理解Transformer模型在语言和视觉任务中的自注意力机制
GithubTransformerattention-viz可视化开源项目深度学习自然语言处理
此项目通过可视化技术帮助研究人员理解Transformer模型在语言和视觉任务中的自注意力机制,展示查询与关键向量的关系和整体模式。AttentionViz提供了交互式工具,支持多输入序列分析,提升了模型理解,并在多个应用场景中展现其实用性。
LookaheadDecoding - 创新并行算法加速大型语言模型推理
GithubJacobi迭代LLMLookahead Decoding并行解码开源项目推理加速
LookaheadDecoding项目开发了一种创新的并行解码算法,旨在加速大型语言模型(LLM)的推理过程。该方法不依赖草稿模型或数据存储,而是结合Jacobi迭代和n-gram缓存技术,有效减少解码步骤。实验结果显示,在多个数据集上可将延迟降低1.5到2.3倍。项目提供便捷的安装和使用方式,并支持FlashAttention技术,可广泛应用于各类LLM场景。
zeta - 通过模块化组件提升AI模型开发速度
GithubZeta人工智能模型开源项目模块化神经网络高性能
Zeta项目提供模块化、高性能和可扩展的构建块,使AI模型开发速度提高80%。该项目的功能模块包括Flash Attention、SwiGLU激活函数和RelativePositionBias,这些组件大幅提升了模型的效率和性能。Zeta专注于可用性、模块化和性能,已被广泛应用于数百个模型中。用户可以通过简单的安装步骤,快速开始模型的原型设计、训练和优化。
flash-diffusion - 用于加速条件扩散模型的高效蒸馏技术
Flash DiffusionGithubLoRA加速技术图像生成开源项目扩散模型
Flash Diffusion是一种用于加速预训练扩散模型图像生成的蒸馏方法。该技术高效、快速、通用且兼容LoRA,在COCO数据集上实现了少步骤图像生成的先进性能。Flash Diffusion只需几小时GPU训练时间和较少可训练参数,适用于文本生成图像、图像修复、换脸和超分辨率等多种任务。它支持UNet和DiT等不同骨干网络,能够显著减少采样步骤,同时保持高质量的图像生成效果。
flashlight - 用C++编写的机器学习库
C++FlashlightGithub开源项目机器学习神经网络高性能
Flashlight是完全用C++编写的灵活高效的机器学习库,源自Facebook AI Research及其他知名项目。它包括内部接口可修改、核心小于10 MB以及高性能默认设置等特点,支持自动语音识别、图像分类、物体检测和语言建模等应用。提供简单的安装方式和全面的文档,适合研究者和开发者使用。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号