项目介绍:attention-viz
概述
attention-viz 是一个旨在帮助研究人员理解变压器(Transformer)模型中自注意力机制的新型可视化技术。随着变压器模型在机器学习领域的革新,其内部运作方式仍然令人费解。该项目的主要目标是通过可视化变压器模型中用于计算注意力的查询(query)和键(key)向量的联合嵌入,帮助研究人员深入理解这些模型。与以往的注意力可视化技术不同,attention-viz 能够分析跨多个输入序列的全局模式。项目团队开发了一个基于这些联合查询-键嵌入的交互式可视化工具,名为 AttentionViz,用于研究语言和视觉变压器中的注意力机制。
功能与实用性
AttentionViz 工具不仅提升了对模型的理解,还在多种应用情境中提供了关于查询-键互动的新视角。通过专家反馈,项目团队验证了该工具在深化了解和探索变压器模型复杂行为方面的实用性。
使用方法
项目设置
-
克隆项目并进入文件夹:
git clone https://github.com/catherinesyeh/attention-viz.git cd attention-viz
-
下载数据文件夹并解压:数据文件夹应放在
web
文件夹中。 -
后端设置:
- 导航至后端目录:
cd web/back/
- 创建并激活虚拟环境:
python3 -m venv env source env/bin/activate
- 安装所需依赖:
pip3 install -r requirements.txt
- 启动后端:
python3 run.py
- 导航至后端目录:
-
前端设置:
- 导航至前端目录:
cd ../front
- 安装必要的包并启动前端:
npm i npm run serve
- 导航至前端目录:
-
访问界面:工具界面运行在
http://localhost:8561
。
引文参考
如果您发现本项目对您的工作有所帮助,请考虑引用这篇论文:
@article{yeh2023attentionviz,
title={Attentionviz: A global view of transformer attention},
author={Yeh, Catherine and Chen, Yida and Wu, Aoyu and Chen, Cynthia and Vi{\'e}gas, Fernanda and Wattenberg, Martin},
journal={IEEE Transactions on Visualization and Computer Graphics},
year={2023},
publisher={IEEE}
}
感谢您关注 AttentionViz 项目!