#注意力机制

PyramidKV - 支持多GPU推理和KV缓存压缩的LLM优化工具
PyramidKVKV缓存压缩多GPU推理注意力机制Needle in haystackGithub开源项目
PyramidKV支持多GPU推理和KV缓存压缩,兼容LlaMa-3-70B-Instruct及多种注意力机制,如Flash Attention v2和Sdpa。该项目还集成了SnapKV、H2O和StreamingLLM,提供设备灵活性,并通过简单安装和直观推理脚本提高研究效率。
Awesome-Transformer-Attention - 视觉变换器与注意力机制的最新研究进展
Vision Transformer深度学习多模态学习Transformer注意力机制Github开源项目
探索视觉变换器和注意力机制的最新发展,包括由Min-Hung Chen持续更新的论文、代码与链接资源。适合学术与实际应用,发现创新思路。
YOLOMagic - 增强YOLOv5视觉任务框架功能与用户体验
YOLOv5视觉任务网络模块注意力机制图像推理Github开源项目
YOLO Magic🚀 是一个基于YOLOv5的扩展项目,为视觉任务提供更强大的功能和简化的操作。该项目引入了多种网络模块,如空间金字塔模块、特征融合结构和新型骨干网络,并支持多种注意力机制。通过直观的网页界面,无需复杂的命令行操作即可轻松进行图像和视频推理。无论是初学者还是专业人员,YOLO Magic🚀都能提供出色的性能、强大的定制能力和广泛的社区支持。
pytorch-transformer - 基于PyTorch的Transformer模型实现与Attention机制全解析
pytorch-transformer注意力机制实现YouTube视频步骤Github开源项目
该项目实现了基于PyTorch的Transformer模型,通过详细的步骤和代码讲解,辅以‘Attention is all you need’论文的实现和YouTube视频教程,帮助用户掌握并应用Transformer模型。适合从事深度学习、自然语言处理的开发者和研究者。
Anomaly-Transformer - 创新时间序列异常检测模型的新方法
Anomaly-Transformer时间序列异常检测无监督学习注意力机制Github开源项目
Anomaly-Transformer是一种时间序列异常检测模型,利用关联差异作为可区分标准,并结合Anomaly-Attention机制和极小极大策略提高检测效果。该模型在多个基准数据集上展现出优秀性能,为无监督时间序列异常检测领域提供了新的解决方案。
attention-gym - FlexAttention API的注意力机制实验工具集
Attention GymFlexAttentionPyTorch注意力机制机器学习Github开源项目
Attention Gym是一个基于FlexAttention API的开源工具集,用于实验和优化各种注意力机制。项目提供了多种注意力变体的实现、性能对比工具和实用函数,包括示例脚本和可视化组件。研究人员和开发者可以利用这些资源来探索、理解和应用先进的注意力技术,从而在自己的模型中实现更高效的注意力机制。
flashinfer - 专注LLM服务的高效GPU内核库
FlashInferLLM服务GPU内核注意力机制高性能计算Github开源项目
FlashInfer是一个面向大型语言模型(LLM)服务和推理的GPU内核库。它实现了多种注意力机制,如FlashAttention、SparseAttention和PageAttention。通过优化共享前缀批处理解码和压缩KV缓存等技术,FlashInfer提高了LLM推理效率。该项目兼容PyTorch、TVM和C++,便于集成到现有系统,适用于多种LLM应用场景。
AttentionDeepMIL - 深度多实例学习的注意力机制算法实现
深度学习多实例学习注意力机制PyTorchMNISTGithub开源项目
AttentionDeepMIL是一个开源的深度多实例学习算法项目,基于PyTorch框架实现。它在LeNet-5模型基础上创新性地添加了注意力机制的MIL池化层,适用于图像分类等多实例学习任务。该项目提供完整的实验环境,包括MNIST-BAGS数据集处理、模型架构和训练脚本,支持CPU和GPU运行。此外,AttentionDeepMIL还展示了在医学图像分析领域的应用潜力,包括对乳腺癌和结肠癌组织病理学数据集的实验支持。
EasyContext - 优化语言模型上下文长度至百万级的开源项目
EasyContext长上下文模型语言模型注意力机制训练技巧Github开源项目
EasyContext 是一个开源项目,致力于优化语言模型的上下文长度至 100 万个标记。项目结合序列并行、Deepspeed zero3 卸载和 Flash attention 等技术,实现了对 Llama2-7B 和 Llama2-13B 模型的全参数微调。通过最小化硬件需求,EasyContext 展示了长上下文扩展的可行性,并提供简洁的实现代码和评估结果,为自然语言处理研究和开发提供了有价值的资源。
Flowformer - Flowformer 利用保护流网络实现 Transformer 线性化和长序列处理
注意力机制流网络理论Github开源项目FlowformerTransformer线性复杂度
Flowformer 是一种 Transformer 模型,通过引入保护流网络理论,实现了线性复杂度的注意力机制。它能够处理超过4000多个标记的长序列,在视觉、自然语言处理、时间序列和强化学习等领域表现优异。在长序列建模任务中,Flowformer 的平均准确率达到56.48%,超过了 Performer 和 Reformer 等现有方法。该项目不依赖特定归纳偏置,提供了核心代码实现和多个领域的应用示例,为研究人员和开发者提供了一个通用的基础模型。
En-transformer - 融合等变图神经网络与Transformer的创新架构
E(n)-Equivariant Transformer神经网络注意力机制坐标变换蛋白质设计Github开源项目
En-transformer是一个创新的开源项目,结合了E(n)等变图神经网络与Transformer架构。支持原子和键类型嵌入,处理稀疏邻居,传递连续边特征。已应用于抗体CDR环设计,并可用于蛋白质骨架坐标去噪等分子建模任务。项目提供简便的安装和使用方法,适合研究人员和开发者探索。
Quest - 长文本LLM推理的查询感知稀疏化框架
长上下文LLM推理稀疏性KV缓存注意力机制QuestGithub开源项目
Quest是一个创新的长文本LLM推理框架,通过在KV缓存中应用查询感知稀疏化技术,显著减少了注意力计算中的内存移动。该框架跟踪缓存页面的Key值范围,并利用Query向量评估页面重要性,仅加载最关键的KV缓存页面。实验表明,Quest可将自注意力计算速度提升至7.03倍,推理延迟降低2.23倍,同时在长依赖任务中保持高精度。
k-diffusion - 扩散模型框架支持多种采样算法和模型架构
k-diffusion生成模型PyTorchtransformer注意力机制Github开源项目
k-diffusion是一个基于PyTorch的扩散模型实现框架。它支持分层Transformer模型、多种采样算法和Min-SNR损失加权。该框架提供模型包装器、CLIP引导采样功能,以及对数似然、FID和KID等评估指标的计算。k-diffusion为扩散模型研究和应用提供了实用工具。
MixFormer - 基于迭代混合注意力的端到端目标跟踪框架
MixFormer目标追踪计算机视觉深度学习注意力机制Github开源项目
MixFormer是一种创新的端到端目标跟踪框架,采用目标-搜索混合注意力(MAM)骨干网络和角点头部结构,实现了无需显式集成模块的紧凑跟踪流程。这种无后处理方法在LaSOT、GOT-10K和TrackingNet等多个基准测试中表现卓越,并在VOT2020上取得0.584的EAO成绩。项目开源了代码、模型和原始结果,为目标跟踪研究领域提供了宝贵资源。
streaming-llm - 突破输入长度限制的流式语言模型框架
StreamingLLM语言模型注意力机制无限长度输入AI对话Github开源项目
StreamingLLM是一个创新框架,使大型语言模型能处理超长输入序列。它通过注意力汇聚点技术解决了长文本处理的内存和性能问题,无需额外微调。在多轮对话等流式应用中,StreamingLLM比基线方法速度提升最高22.2倍。该技术已被多个知名项目采用,为语言模型的实际应用开辟了新途径。
flash-attention - 高效注意力机制加速深度学习模型训练
FlashAttentionCUDAPyTorchGPU加速注意力机制Github开源项目
FlashAttention是一种高效的注意力机制实现,通过IO感知算法和内存优化提升计算速度并降低内存消耗。它支持NVIDIA和AMD GPU,适用于多种深度学习框架。最新的FlashAttention-3版本针对H100 GPU进行了优化。该项目提供Python接口,可集成到现有模型中,有助于加速大规模深度学习模型的训练过程。
ChunkLlama - 双重块注意力技术实现大语言模型上下文窗口扩展
ChunkLlama大语言模型长上下文注意力机制无需训练Github开源项目
ChunkLlama项目开发了双重块注意力(DCA)技术,无需额外训练即可将大语言模型的上下文窗口扩展至原始长度的8倍以上。DCA可与主流外推技术和高效推理库兼容,支持Llama、Mistral等多种模型。实验表明,应用DCA后的Llama-2/3 70B模型能处理长达100k的上下文,并在长文本任务中表现出色。
ComfyUI_densediffusion - ComfyUI区域提示节点 实现精准图像生成控制
ComfyUIDenseDiffusion区域提示注意力机制AI绘图Github开源项目
ComfyUI_densediffusion是一个为ComfyUI开发的自定义节点,实现了基于DenseDiffusion的区域提示方法。该项目通过注意力操纵技术,增强了图像生成过程的精确控制。目前,ComfyUI_densediffusion与IPAdapter存在兼容性问题,开发者正在努力解决这一限制。项目提供了直观的界面,方便用户应用区域提示技术。
metal-flash-attention - Apple芯片上的FlashAttention高性能实现
FlashAttentionApple siliconMetal性能优化注意力机制Github开源项目
metal-flash-attention项目将FlashAttention算法移植至Apple silicon,提供精简可维护的实现。支持macOS和iOS,使用32位精度计算和异步拷贝。项目采用单头注意力机制,专注于核心瓶颈优化。通过创新的反向传播设计,减少内存使用并提高计算效率。改进了原始FlashAttention的反向传播设计,提高并行效率。项目正在持续优化,包括寄存器压力、可移植性和文档完善。
diffseg - 基于稳定扩散的零样本图像分割方法
DiffSeg零样本分割Stable Diffusion注意力机制无监督学习Github开源项目
DiffSeg是一种利用稳定扩散模型注意力信息的无监督零样本图像分割方法。这个开源项目实现了DiffSeg算法,并提供环境设置指南、运行说明和基准测试。DiffSeg在CoCo-Stuff-27和Cityscapes数据集上表现出色,为计算机视觉领域提供了新的解决方案。特别适合研究无监督学习和零样本学习的专业人士,以及需要高效、灵活图像分割方案的研究人员和开发者。
xformers - Transformer 研究加速工具
xFormersTransformer注意力机制深度学习PyTorchGithub开源项目
xFormers 是一个加速 Transformer 研究的开源工具库。它提供可自定义的独立模块,无需样板代码即可使用。该项目包含前沿组件,专注于研究需求,同时注重效率。xFormers 的组件运行快速且内存利用率高,集成了自定义 CUDA 内核和其他相关库。它支持多种注意力机制、前馈网络和位置编码,适用于计算机视觉、自然语言处理等多个领域的研究工作。
flash-attention-minimal - 简化Flash Attention的CUDA和PyTorch最小化实现
Flash AttentionCUDAPyTorch注意力机制GPU加速Github开源项目
flash-attention-minimal是一个开源项目,使用CUDA和PyTorch对Flash Attention进行最小化实现。项目仅用约100行代码完成前向传播,遵循原始论文符号表示,为CUDA初学者提供简明教程。通过与手动注意力机制的性能对比,展示了显著的速度提升。尽管目前存在一些限制,如缺少反向传播和固定块大小,但该项目为理解Flash Attention核心概念提供了有价值的参考资料。
DN-DETR - 创新查询去噪技术加速目标检测训练
DETR目标检测计算机视觉深度学习注意力机制Github开源项目
DN-DETR通过创新的查询去噪技术加速DETR目标检测模型训练。该方法仅需50%训练周期即可达到基线模型性能,大幅提高训练效率。项目开源了DN-DETR、DN-Deformable-DETR等多个模型实现,并提供详细的模型库、使用指南和安装说明,便于研究者复现结果或将去噪训练应用于其他模型。
perceiver-pytorch - Perceiver模型的PyTorch实现 迭代注意力处理多模态数据
Perceiver深度学习注意力机制神经网络计算机视觉Github开源项目
perceiver-pytorch项目实现了Perceiver和PerceiverIO模型。这些模型采用迭代注意力机制,能够处理图像、视频和文本等多种输入数据。项目提供灵活的配置选项,包括输入通道数、频率编码和注意力头数等。通过语言模型示例,展示了PerceiverIO架构的通用性。该实现适合处理复杂多模态输入的深度学习研究和应用。项目提供了简单易用的API,支持快速集成到现有PyTorch项目中。代码实现了原论文中的核心概念,如交叉注意力和自注意力机制。此外,项目还包含了实验性的自下而上注意力版本,为研究人员提供了更多探索空间。
Nonstationary_Transformers - 创新时间序列预测方法应对非平稳数据
Non-stationary Transformers时间序列预测深度学习注意力机制模型架构Github开源项目
Non-stationary Transformers项目开发了新型时间序列预测方法,采用系列平稳化和去平稳注意力机制处理非平稳数据。该方法在多个基准数据集上展现出优异性能,并能有效提升现有注意力模型的预测效果。项目开源了完整代码和实验脚本,为时间序列预测研究和应用提供了重要参考。
SpA-Former-shadow-removal - Transformer模型实现高效图像去阴影
SpA-Former图像阴影去除TransformerIJCNN 2023注意力机制Github开源项目
SpA-Former是一种基于Transformer的图像去阴影模型,采用空间注意力机制提取阴影特征。在ISTD数据集上,该模型在PSNR、SSIM和RMSE指标方面表现出色。SpA-Former具有参数量少、计算效率高的特点,适用于实际场景的阴影去除。该研究已在IJCNN 2023会议发表,并开源了预训练模型和测试结果,便于研究者复现和对比。
EEG-ATCNet - 创新深度学习模型提升运动想象分类
EEGATCNet脑机接口深度学习注意力机制Github开源项目
EEG-ATCNet是一种创新的深度学习模型,专门用于脑机接口中EEG信号的运动想象分类。该模型融合卷积神经网络、自注意力机制和时间卷积网络,有效提取EEG信号时空特征。在BCI竞赛IV-2a数据集上,EEG-ATCNet准确率达81.10%,优于其他常用模型。项目还实现了多种注意力机制和数据处理方法,为EEG信号分析研究提供了实用工具。
QFormer - 四边形注意力机制提升视觉Transformer性能
Vision Transformer注意力机制计算机视觉图像分类目标检测Github开源项目
QFormer是一种创新的视觉Transformer模型,采用四边形注意力机制替代传统窗口注意力。该模型通过可学习的四边形回归模块,将默认窗口转换为目标四边形进行计算,从而更好地建模不同形状和方向的目标。在图像分类、目标检测、语义分割和人体姿态估计等多项视觉任务中,QFormer在保持低计算成本的同时,性能显著优于现有的视觉Transformer模型。
a-PyTorch-Tutorial-to-Transformers - PyTorch实现Transformer模型的详细教程与实践指南
PyTorchTransformer机器翻译注意力机制编码器-解码器架构Github开源项目
本项目提供了一个基于PyTorch的Transformer模型实现教程。教程深入讲解了Transformer的核心概念,如多头注意力机制和编码器-解码器架构,并以机器翻译为例展示应用。内容涵盖模型实现、训练、推理和评估等环节,适合想要深入理解和应用Transformer技术的学习者。
Crossformer - 高效利用跨维度依赖的多变量时间序列预测模型
Crossformer时间序列预测注意力机制深度学习TransformerGithub开源项目
Crossformer是一种新型Transformer模型,针对多变量时间序列预测设计。该模型采用维度分段嵌入、两阶段注意力机制和层次编码器-解码器结构,有效捕捉时间和维度间的依赖关系。Crossformer在多个基准数据集上表现优异,为长序列预测和高维数据处理提供新思路。其开源实现便于研究人员和实践者探索应用。
simple-hierarchical-transformer - 分层Transformer模型探索多层次预测编码
Transformer深度学习神经网络自然语言处理注意力机制Github开源项目
这个项目提出了一种在GPT模型中实现多层次预测编码的方法。它通过在Transformer中引入多层结构,结合局部注意力和全局信息传递。实验结果显示,该方法在维持性能的同时提升了效率。项目允许自定义层次结构、维度和注意力窗口大小,为研究人员提供了探索分层Transformer的实验工具。项目代码支持灵活配置,包括调整层次数量、模型维度和注意力窗口大小。这种设计使研究人员能够方便地进行不同参数的对比实验,有助于深入理解分层Transformer的性能特点。
infini-transformer - 针对无限长度上下文设计的高效Transformer模型
Infini-Transformer自然语言处理长序列处理注意力机制位置编码Github开源项目
Infini-Transformer是一种创新的Transformer模型,专门用于处理无限长度的上下文。该模型采用压缩性记忆机制和混合深度技术,能有效处理超长序列。Infini-Transformer支持文本分类、问答和语言生成等多种任务,并集成RoPE和YaRN等先进位置编码技术。这一模型为长文本处理和大规模语言任务提供了高效解决方案。
transformer-abstractive-summarization - Transformer模型实现的抽象文本摘要项目
Transformer文本摘要注意力机制深度学习自然语言处理Github开源项目
transformer-abstractive-summarization是一个开源项目,利用Transformer模型实现抽象文本摘要。项目基于'Attention is all you need'论文提出的Transformer模型,使用Inshorts数据集训练。项目提供博客教程,详细介绍Transformer原理及其在文本摘要中的应用。该技术能生成高质量摘要,适用于新闻和文档处理等领域。项目采用Apache License 2.0许可证。
H2O - 提升大型语言模型推理效率的关键token识别技术
H2O大语言模型KV缓存推理效率注意力机制Github开源项目
H2O项目提出了一种创新的KV缓存实现方法,通过识别对注意力分数贡献最大的少数token,显著减少了大型语言模型推理的内存占用。该项目引入了Heavy Hitter Oracle (H2O)作为KV缓存淘汰策略,在多个任务中验证了其准确性。在OPT-6.7B和OPT-30B模型上,H2O显著提高了推理吞吐量并减少了延迟,为大型语言模型的高效推理提供了新的解决方案。
FLASH-pytorch - FLASH 线性时间内提升Transformer效能的开源实现
FLASHTransformer深度学习注意力机制PyTorchGithub开源项目
FLASH-pytorch是一个开源项目,实现了一种高效的Transformer变体。该项目采用门控注意力单元(GAU)和分组线性注意力,在线性时间内提升模型性能。它提供简洁API,支持自回归和非自回归模式,并整合多种位置编码技术。这一工具使研究人员和开发者能够便捷地探索和应用Transformer的最新优化技术。
longformer-base-4096 - 专为长文档设计的Longformer transformer模型
Huggingface注意力机制模型Github开源项目自然语言处理Longformer长文档处理RoBERTa
longformer-base-4096是一个专为处理长文档设计的transformer模型,基于RoBERTa checkpoint开发。该模型支持处理长达4,096个序列,创新性地结合了滑动窗口注意力和全局注意力机制。用户可根据具体任务配置全局注意力,从而学习特定任务的表示。这一开源项目由Allen Institute for Artificial Intelligence开发,旨在通过AI研究推动长文本处理技术的进步。