Project Icon

keras-attention

Keras 兼容的注意力层,支持 Luong 和 Bahdanau 评分函数

Keras Attention Layer 支持 Luong 和 Bahdanau 的评分函数,与 Tensorflow 2.8 至 2.14 兼容。该层易于安装和使用,可根据需求调整参数,广泛应用于提高深度学习模型精度。提供丰富的实例和详细文档,包括在 LSTM 网络中的注意力机制实现,以及 IMDB 数据集和加数任务的实验数据。

keras-non-local-nets - Keras非局部神经网络实现,多模式支持与计算优化
GithubKeras开源项目张量运算深度学习计算机视觉非局部神经网络
keras-non-local-nets项目提供了Keras实现的非局部神经网络块。支持Gaussian、Embedded Gaussian和Dot等多种实例化方式,并通过可变屏蔽计算模式优化性能。项目包含使用模板和示例代码,便于集成到现有神经网络中。同时支持函数式API和Sequential API,适应不同的网络构建需求。
textgenrnn - 高效训练文本生成神经网络的实用模块
GithubKerasPythonTensorFlowchar-rnntextgenrnn开源项目
textgenrnn是一个基于Keras和TensorFlow的Python 3模块,只需几行代码即可训练不同规模和复杂度的文本生成神经网络。支持字符级和词级训练,并可使用预训练模型加快训练。其现代架构利用注意力加权和跳过嵌入等技术,提升模型质量和训练速度。可在GPU上训练并在CPU上生成文本,还可在Colab中免费试用。
perceiver-pytorch - Perceiver模型的PyTorch实现 迭代注意力处理多模态数据
GithubPerceiver开源项目注意力机制深度学习神经网络计算机视觉
perceiver-pytorch项目实现了Perceiver和PerceiverIO模型。这些模型采用迭代注意力机制,能够处理图像、视频和文本等多种输入数据。项目提供灵活的配置选项,包括输入通道数、频率编码和注意力头数等。通过语言模型示例,展示了PerceiverIO架构的通用性。该实现适合处理复杂多模态输入的深度学习研究和应用。项目提供了简单易用的API,支持快速集成到现有PyTorch项目中。代码实现了原论文中的核心概念,如交叉注意力和自注意力机制。此外,项目还包含了实验性的自下而上注意力版本,为研究人员提供了更多探索空间。
NATTEN - 高效实现多维滑动窗口自注意力的开源库
GithubNATTENNeighborhood Attention开源项目深度学习自注意力机制计算机视觉
NATTEN是一个开源库,专门用于快速实现Neighborhood Attention。该项目支持1D、2D和3D问题空间,提供naive、GEMM以及新型Fused Neighborhood Attention (FNA)等多种后端实现。FNA引入反向传播支持,显著提高了模型训练效率。NATTEN兼容PyTorch 2.0及更高版本,同时支持CPU和CUDA后端,并实现了因果掩码、可变参数和相对位置偏置等功能。
commented-transformers - 精细注释的Transformer在PyTorch中的实现
Attention机制BERTGPT-2GithubPyTorchTransformer开源项目
详细注释的Transformer实现,涵盖从头创建Transformer系列,包括注意力机制和整体Transformer的实现。提供双向注意力、因果注意力及因果交叉注意力的实现,以及GPT-2和BERT模型的单文件实现,兼容torch.compile(..., fullgraph=True)以提高性能。
jina-bert-flash-implementation - 将BERT与Flash-Attention结合的高效模型实现
BERTFlash-AttentionGPU加速GithubHuggingface开源项目模型模型配置深度学习
本项目展示了一种将Flash-Attention技术与BERT模型相结合的实现方案。内容涵盖了依赖安装指南、参数配置说明和性能优化策略。核心功能包括Flash Attention的应用、局部注意力窗口的实现以及稀疏序列输出。此外,项目还引入了多项可调节的配置选项,如融合MLP和激活检查点,以适应各种训练环境和硬件条件。该实现的目标是提高BERT模型在处理大规模数据集时的训练效率和内存利用率。
TensorFlow-Tutorials - TensorFlow 2 深度学习教程
GithubKerasPythonTensorFlow开源项目教程深度学习
这些教程为深度学习和TensorFlow 2 的新手提供全面指导,涵盖简单线性模型、自然语言处理和图像生成等主题。每个教程附有详细代码示例和相应的YouTube视频讲解,帮助学习者快速掌握。适合希望深入了解TensorFlow及其应用的开发者和研究人员。
keras-tcn - 强化长记忆能力的时序卷积网络
GRUGithubKeras TCNLSTMTemporal Convolutional NetworkTensorFlow开源项目
该项目介绍了时序卷积网络(TCN)如何在长时间序列数据中替代LSTM/GRU并表现出更优异的性能。TCN提供更长的记忆能力、更稳定的梯度,同时支持并行处理和灵活的感受野。这些特性在人脸识别、添加任务、复制记忆任务和语言模型等任务中表现突出。用户可以通过本项目配置和运行TCN模型,探索其在不同任务中的应用潜力。
Awesome-Transformer-Attention - 视觉变换器与注意力机制的最新研究进展
GithubTransformerVision Transformer多模态学习开源项目注意力机制深度学习
探索视觉变换器和注意力机制的最新发展,包括由Min-Hung Chen持续更新的论文、代码与链接资源。适合学术与实际应用,发现创新思路。
flashinfer - 专注LLM服务的高效GPU内核库
FlashInferGPU内核GithubLLM服务开源项目注意力机制高性能计算
FlashInfer是一个面向大型语言模型(LLM)服务和推理的GPU内核库。它实现了多种注意力机制,如FlashAttention、SparseAttention和PageAttention。通过优化共享前缀批处理解码和压缩KV缓存等技术,FlashInfer提高了LLM推理效率。该项目兼容PyTorch、TVM和C++,便于集成到现有系统,适用于多种LLM应用场景。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号