#注意力机制

EEG-ATCNet: 一种用于脑电图运动想象分类的注意力时间卷积网络

3 个月前
Cover of EEG-ATCNet: 一种用于脑电图运动想象分类的注意力时间卷积网络

非平稳Transformers: 探索时间序列预测中的平稳性

3 个月前
Cover of 非平稳Transformers: 探索时间序列预测中的平稳性

DiffSeg: 一种基于稳定扩散模型的无监督零样本图像分割方法

3 个月前
Cover of DiffSeg: 一种基于稳定扩散模型的无监督零样本图像分割方法

Perceiver-PyTorch: 通用感知与迭代注意力的实现

3 个月前
Cover of Perceiver-PyTorch: 通用感知与迭代注意力的实现

DN-DETR: 引入查询去噪加速DETR训练

3 个月前
Cover of DN-DETR: 引入查询去噪加速DETR训练

Flash Attention: 革新Transformer模型的高效注意力机制

3 个月前
Cover of Flash Attention: 革新Transformer模型的高效注意力机制

ChunkLlama: 突破大语言模型长上下文限制的无训练方法

3 个月前
Cover of ChunkLlama: 突破大语言模型长上下文限制的无训练方法

Flash Attention Minimal: 简化版Flash Attention的CUDA实现

3 个月前
Cover of Flash Attention Minimal: 简化版Flash Attention的CUDA实现

xFormers:加速Transformer研究的强大工具箱

3 个月前
Cover of xFormers:加速Transformer研究的强大工具箱

StreamingLLM: 实现大语言模型的无限长度输入处理

3 个月前
Cover of StreamingLLM: 实现大语言模型的无限长度输入处理
相关项目
Project Cover

Awesome-Transformer-Attention

探索视觉变换器和注意力机制的最新发展,包括由Min-Hung Chen持续更新的论文、代码与链接资源。适合学术与实际应用,发现创新思路。

Project Cover

YOLOMagic

YOLO Magic🚀 是一个基于YOLOv5的扩展项目,为视觉任务提供更强大的功能和简化的操作。该项目引入了多种网络模块,如空间金字塔模块、特征融合结构和新型骨干网络,并支持多种注意力机制。通过直观的网页界面,无需复杂的命令行操作即可轻松进行图像和视频推理。无论是初学者还是专业人员,YOLO Magic🚀都能提供出色的性能、强大的定制能力和广泛的社区支持。

Project Cover

pytorch-transformer

该项目实现了基于PyTorch的Transformer模型,通过详细的步骤和代码讲解,辅以‘Attention is all you need’论文的实现和YouTube视频教程,帮助用户掌握并应用Transformer模型。适合从事深度学习、自然语言处理的开发者和研究者。

Project Cover

Anomaly-Transformer

Anomaly-Transformer是一种时间序列异常检测模型,利用关联差异作为可区分标准,并结合Anomaly-Attention机制和极小极大策略提高检测效果。该模型在多个基准数据集上展现出优秀性能,为无监督时间序列异常检测领域提供了新的解决方案。

Project Cover

attention-gym

Attention Gym是一个基于FlexAttention API的开源工具集,用于实验和优化各种注意力机制。项目提供了多种注意力变体的实现、性能对比工具和实用函数,包括示例脚本和可视化组件。研究人员和开发者可以利用这些资源来探索、理解和应用先进的注意力技术,从而在自己的模型中实现更高效的注意力机制。

Project Cover

flashinfer

FlashInfer是一个面向大型语言模型(LLM)服务和推理的GPU内核库。它实现了多种注意力机制,如FlashAttention、SparseAttention和PageAttention。通过优化共享前缀批处理解码和压缩KV缓存等技术,FlashInfer提高了LLM推理效率。该项目兼容PyTorch、TVM和C++,便于集成到现有系统,适用于多种LLM应用场景。

Project Cover

AttentionDeepMIL

AttentionDeepMIL是一个开源的深度多实例学习算法项目,基于PyTorch框架实现。它在LeNet-5模型基础上创新性地添加了注意力机制的MIL池化层,适用于图像分类等多实例学习任务。该项目提供完整的实验环境,包括MNIST-BAGS数据集处理、模型架构和训练脚本,支持CPU和GPU运行。此外,AttentionDeepMIL还展示了在医学图像分析领域的应用潜力,包括对乳腺癌和结肠癌组织病理学数据集的实验支持。

Project Cover

EasyContext

EasyContext 是一个开源项目,致力于优化语言模型的上下文长度至 100 万个标记。项目结合序列并行、Deepspeed zero3 卸载和 Flash attention 等技术,实现了对 Llama2-7B 和 Llama2-13B 模型的全参数微调。通过最小化硬件需求,EasyContext 展示了长上下文扩展的可行性,并提供简洁的实现代码和评估结果,为自然语言处理研究和开发提供了有价值的资源。

Project Cover

PyramidKV

PyramidKV支持多GPU推理和KV缓存压缩,兼容LlaMa-3-70B-Instruct及多种注意力机制,如Flash Attention v2和Sdpa。该项目还集成了SnapKV、H2O和StreamingLLM,提供设备灵活性,并通过简单安装和直观推理脚本提高研究效率。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号