#注意力机制

PyramidKV学习资料汇总 - 动态KV缓存压缩技术

2 个月前
Cover of PyramidKV学习资料汇总 - 动态KV缓存压缩技术

Awesome-Transformer-Attention学习资源大全 - 视觉Transformer和注意力机制论文列表

2 个月前
Cover of Awesome-Transformer-Attention学习资源大全 - 视觉Transformer和注意力机制论文列表

H2O: 高效大语言模型生成推理的重要访问优化技术

3 个月前
Cover of H2O: 高效大语言模型生成推理的重要访问优化技术

Transformer模型在抽象文本摘要中的应用与进展

3 个月前
Cover of Transformer模型在抽象文本摘要中的应用与进展

Simple Hierarchical Transformer: 探索GPT中多层次预测模型的新方法

3 个月前
Cover of Simple Hierarchical Transformer: 探索GPT中多层次预测模型的新方法

Infini-Transformer: 突破上下文长度限制的高效Transformer模型

3 个月前
Cover of Infini-Transformer: 突破上下文长度限制的高效Transformer模型

CrossFormer: 一种基于跨尺度注意力的多功能视觉Transformer模型

3 个月前
Cover of CrossFormer: 一种基于跨尺度注意力的多功能视觉Transformer模型

PyTorch Transformer教程:从零开始实现注意力机制

3 个月前
Cover of PyTorch Transformer教程:从零开始实现注意力机制

SpA-Former: 一种高效轻量的图像阴影去除Transformer模型

3 个月前
Cover of SpA-Former: 一种高效轻量的图像阴影去除Transformer模型

QFormer: 突破性的四边形注意力视觉Transformer

3 个月前
Cover of QFormer: 突破性的四边形注意力视觉Transformer
相关项目
Project Cover

Awesome-Transformer-Attention

探索视觉变换器和注意力机制的最新发展,包括由Min-Hung Chen持续更新的论文、代码与链接资源。适合学术与实际应用,发现创新思路。

Project Cover

YOLOMagic

YOLO Magic🚀 是一个基于YOLOv5的扩展项目,为视觉任务提供更强大的功能和简化的操作。该项目引入了多种网络模块,如空间金字塔模块、特征融合结构和新型骨干网络,并支持多种注意力机制。通过直观的网页界面,无需复杂的命令行操作即可轻松进行图像和视频推理。无论是初学者还是专业人员,YOLO Magic🚀都能提供出色的性能、强大的定制能力和广泛的社区支持。

Project Cover

pytorch-transformer

该项目实现了基于PyTorch的Transformer模型,通过详细的步骤和代码讲解,辅以‘Attention is all you need’论文的实现和YouTube视频教程,帮助用户掌握并应用Transformer模型。适合从事深度学习、自然语言处理的开发者和研究者。

Project Cover

Anomaly-Transformer

Anomaly-Transformer是一种时间序列异常检测模型,利用关联差异作为可区分标准,并结合Anomaly-Attention机制和极小极大策略提高检测效果。该模型在多个基准数据集上展现出优秀性能,为无监督时间序列异常检测领域提供了新的解决方案。

Project Cover

attention-gym

Attention Gym是一个基于FlexAttention API的开源工具集,用于实验和优化各种注意力机制。项目提供了多种注意力变体的实现、性能对比工具和实用函数,包括示例脚本和可视化组件。研究人员和开发者可以利用这些资源来探索、理解和应用先进的注意力技术,从而在自己的模型中实现更高效的注意力机制。

Project Cover

flashinfer

FlashInfer是一个面向大型语言模型(LLM)服务和推理的GPU内核库。它实现了多种注意力机制,如FlashAttention、SparseAttention和PageAttention。通过优化共享前缀批处理解码和压缩KV缓存等技术,FlashInfer提高了LLM推理效率。该项目兼容PyTorch、TVM和C++,便于集成到现有系统,适用于多种LLM应用场景。

Project Cover

AttentionDeepMIL

AttentionDeepMIL是一个开源的深度多实例学习算法项目,基于PyTorch框架实现。它在LeNet-5模型基础上创新性地添加了注意力机制的MIL池化层,适用于图像分类等多实例学习任务。该项目提供完整的实验环境,包括MNIST-BAGS数据集处理、模型架构和训练脚本,支持CPU和GPU运行。此外,AttentionDeepMIL还展示了在医学图像分析领域的应用潜力,包括对乳腺癌和结肠癌组织病理学数据集的实验支持。

Project Cover

EasyContext

EasyContext 是一个开源项目,致力于优化语言模型的上下文长度至 100 万个标记。项目结合序列并行、Deepspeed zero3 卸载和 Flash attention 等技术,实现了对 Llama2-7B 和 Llama2-13B 模型的全参数微调。通过最小化硬件需求,EasyContext 展示了长上下文扩展的可行性,并提供简洁的实现代码和评估结果,为自然语言处理研究和开发提供了有价值的资源。

Project Cover

PyramidKV

PyramidKV支持多GPU推理和KV缓存压缩,兼容LlaMa-3-70B-Instruct及多种注意力机制,如Flash Attention v2和Sdpa。该项目还集成了SnapKV、H2O和StreamingLLM,提供设备灵活性,并通过简单安装和直观推理脚本提高研究效率。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号