Transformer Explainer: 交互学习文本生成模型
Transformer Explainer 是一个交互式可视化工具,旨在帮助任何人了解基于 Transformer 的模型(如 GPT)如何工作。它在您的浏览器中运行一个实时的 GPT-2 模型,使您可以实验自己的文本,并实时观察 Transformer 的内部组件和操作如何协同工作来预测下一个标记。在 http://poloclub.github.io/transformer-explainer 试试 Transformer Explainer 并在 YouTube 上观看一个演示视频 https://youtu.be/ECR4oAwocjs 。
研究论文
Transformer Explainer: 交互学习文本生成模型. Aeree Cho, Grace C. Kim, Alexander Karpekov, Alec Helbling, Zijie J. Wang, Seongmin Lee, Benjamin Hoover, Duen Horng Chau. Poster, IEEE VIS 2024.
如何在本地运行
先决条件
- Node.js 20 或更高版本
- NPM
步骤
git clone https://github.com/poloclub/transformer-explainer.git
cd transformer-explainer
npm install
npm run dev
然后,在您的网页浏览器中访问 http://localhost:5173。
致谢
Transformer Explainer 由乔治亚理工学院的 Aeree Cho, Grace C. Kim, Alexander Karpekov, Alec Helbling, Jay Wang, Seongmin Lee, Benjamin Hoover, 和 Polo Chau 创建。
引用
@article{cho2024transformer,
title = {Transformer Explainer: Interactive Learning of Text-Generative Models},
shorttitle = {Transformer Explainer},
author = {Cho, Aeree and Kim, Grace C. and Karpekov, Alexander and Helbling, Alec and Wang, Zijie J. and Lee, Seongmin and Hoover, Benjamin and Chau, Duen Horng},
journal={IEEE VIS},
year={2024}
}
许可证
该软件可根据 MIT 许可证 获取。