Project Icon

flash-attention-minimal

简化Flash Attention的CUDA和PyTorch最小化实现

flash-attention-minimal是一个开源项目,使用CUDA和PyTorch对Flash Attention进行最小化实现。项目仅用约100行代码完成前向传播,遵循原始论文符号表示,为CUDA初学者提供简明教程。通过与手动注意力机制的性能对比,展示了显著的速度提升。尽管目前存在一些限制,如缺少反向传播和固定块大小,但该项目为理解Flash Attention核心概念提供了有价值的参考资料。

attention-is-all-you-need-pytorch - PyTorch版Transformer模型,采用自注意力机制
BPEGithubPyTorchTransformer modelWMT 2014 英德翻译开源项目自注意力机制
本项目基于《Attention is All You Need》论文实现了PyTorch版Transformer模型,利用自注意力机制替代传统的卷积和循环结构,在WMT 2014英德翻译任务中表现出色。项目支持模型训练和翻译,部分字节对编码相关部分尚未完全测试,仍在开发中。提供详细的教程,包括数据预处理、模型训练和测试步骤,为用户提供全面指导。
Transformer-from-scratch - 简洁实现Transformer模型的入门教程
GithubLLMPyTorchTransformer开源项目模型训练自然语言处理
该项目展示了如何用约240行代码实现Transformer模型,包含基于PyTorch的训练演示和详细的Jupyter Notebook。使用450Kb样本数据集,在单CPU上20分钟内完成训练,帮助初学者理解大型语言模型的原理和实现过程。
tiny-gpu - 简化GPU实现深入解析并行计算原理
GPUGithub内存并行化开源项目指令集架构
tiny-gpu是一个精简的GPU实现项目,旨在帮助学习者理解GPU工作原理。该项目聚焦通用GPU和机器学习加速器的核心原理,包括架构设计、SIMD并行化和内存管理。通过Verilog实现、架构文档和矩阵运算示例,tiny-gpu简化了复杂概念,使学习者能从底层理解现代硬件加速器的关键要素。
MInference - 动态稀疏注意力加速长上下文语言模型
GithubMInference动态稀疏注意力大语言模型开源项目性能优化长文本处理
MInference是一项新技术,通过利用长上下文语言模型注意力机制的动态稀疏性来加速预填充过程。该技术离线确定注意力头的稀疏模式,在线近似稀疏索引,并使用优化内核动态计算注意力。在A100 GPU上,MInference实现了预填充速度提升10倍,同时保持模型准确性。它支持LLaMA-3、GLM-4等多种长上下文模型,有效处理百万级别token的上下文。
attention-ocr - 基于注意力机制的视觉OCR模型,实现与导出工具
Attention-OCRGithubOCRTensorflow人工智能图像识别开源项目
该项目提供了基于注意力机制的OCR模型,结合了CNN与LSTM,用于图像识别,并能够导出为SavedModel或frozen graph格式。用户可以通过生成TFRecords数据集、训练、测试及可视化等步骤完整运行该OCR系统。项目还支持通过Tensorflow Serving提供REST API服务,并可以在Google Cloud ML Engine上进行模型训练。目前该项目依赖Tensorflow 1.x,未来计划升级到Tensorflow 2。
stable-fast - 优化HuggingFace Diffusers推理性能的轻量级框架
CUDADiffusersGithubPyTorchStable FastTorchScript开源项目
stable-fast是一个优化HuggingFace Diffusers推理性能的轻量级框架,支持NVIDIA GPU。相比TensorRT和AITemplate需要几十分钟的编译时间,stable-fast仅需几秒钟即可完成模型编译。主要特色包括动态形状、低精度计算和多种算子融合。它还兼容ControlNet和LoRA,并支持最新的StableVideoDiffusionPipeline,是加速PyTorch推理的有效工具。
carefree-learn - 简化深度学习流程,支持PyTorch高效训练与推理
AI模型GithubMIT许可PyTorchdeep learning开源项目模块化
carefree-learn项目致力于简化深度学习流程,特别是基于PyTorch的训练与推理。采用模块优先、原生兼容的设计原则,支持AI模型推理,符合现代AI的发展趋势,并遵循MIT许可证。项目提供易于使用的接口和高性能模块,适合开发者与使用者。
flash-diffusion - 用于加速条件扩散模型的高效蒸馏技术
Flash DiffusionGithubLoRA加速技术图像生成开源项目扩散模型
Flash Diffusion是一种用于加速预训练扩散模型图像生成的蒸馏方法。该技术高效、快速、通用且兼容LoRA,在COCO数据集上实现了少步骤图像生成的先进性能。Flash Diffusion只需几小时GPU训练时间和较少可训练参数,适用于文本生成图像、图像修复、换脸和超分辨率等多种任务。它支持UNet和DiT等不同骨干网络,能够显著减少采样步骤,同时保持高质量的图像生成效果。
Awesome-Transformer-Attention - 视觉变换器与注意力机制的最新研究进展
GithubTransformerVision Transformer多模态学习开源项目注意力机制深度学习
探索视觉变换器和注意力机制的最新发展,包括由Min-Hung Chen持续更新的论文、代码与链接资源。适合学术与实际应用,发现创新思路。
FocalNet - 突破注意力机制的新型视觉模型架构
FocalNetsGithub卷积神经网络图像分类开源项目目标检测语义分割
FocalNet是一种创新的视觉模型架构,无需使用注意力机制。其核心的焦点调制技术在多项视觉任务中超越了现有的自注意力方法。该模型在ImageNet分类和COCO检测等基准测试中表现优异,同时保持了高效简洁的实现。FocalNet具有平移不变性、强输入依赖性等特点,为计算机视觉领域提供了一种全新的建模思路。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号