<img src=https://raw.githubusercontent.com/Xilinx/finn/github-pages/docs/img/finn-logo.png width=128/> 在FPGA上实现快速、可扩展的量化神经网络推理
FINN 是 AMD 研究与高级开发集成通信和人工智能实验室的一个实验框架,旨在探索 FPGA 上的深度神经网络推理。它专门针对量化神经网络,重点是为每个网络生成定制的数据流架构。生成的 FPGA 加速器效率极高,可以实现高吞吐量和低延迟。该框架完全开源,以提供更高的灵活性,旨在实现跨越软件/硬件抽象栈多个层面的神经网络研究。
我们有一个单独的仓库 finn-examples,其中包含多个神经网络的预构建示例。欲了解有关 FINN 的更多一般信息,请访问项目页面并查看出版物。
入门
请查看入门页面,了解有关要求、安装以及如何以不同模式运行 FINN 的更多信息。由于项目依赖关系的复杂性,我们目前仅支持基于 Docker 的 FINN 编译器执行。
FINN 有哪些新特性?
- 请在 GitHub 讨论公告 中查看所有新闻。
文档
您可以在 readthedocs 上查看文档。此外,还有一系列 Jupyter 笔记本教程,我们建议从 Docker 内部运行以获得更好的体验。
社区
我们有 GitHub 讨论,您可以在那里提问。您可以使用 GitHub 问题跟踪器报告错误,但请不要提交问题来提问,因为这在 GitHub 讨论中处理得更好。
我们也热烈欢迎对项目的贡献,请查看贡献指南和未解决问题列表。请随时通过 GitHub 讨论联系我们,讨论您的想法。
过去,我们还有一个 Gitter 频道。请注意,我们不再维护该频道,但仍可用于搜索以前用户提出的问题。
引用
该框架的当前实现基于以下出版物。如果您觉得 FINN 有用,请考虑引用它们。
@article{blott2018finn,
title={FINN-R: An end-to-end deep-learning framework for fast exploration of quantized neural networks},
author={Blott, Michaela and Preu{\ss}er, Thomas B and Fraser, Nicholas J and Gambardella, Giulio and O'brien, Kenneth and Umuroglu, Yaman and Leeser, Miriam and Vissers, Kees},
journal={ACM Transactions on Reconfigurable Technology and Systems (TRETS)},
volume={11},
number={3},
pages={1--23},
year={2018},
publisher={ACM New York, NY, USA}
}
@inproceedings{finn,
author = {Umuroglu, Yaman and Fraser, Nicholas J. and Gambardella, Giulio and Blott, Michaela and Leong, Philip and Jahre, Magnus and Vissers, Kees},
title = {FINN: A Framework for Fast, Scalable Binarized Neural Network Inference},
booktitle = {Proceedings of the 2017 ACM/SIGDA International Symposium on Field-Programmable Gate Arrays},
series = {FPGA '17},
year = {2017},
pages = {65--74},
publisher = {ACM}
}
旧版本
我们之前发布了一个早期原型工具流,该工具流接收 Caffe-HWGQ 二值化网络描述并生成数据流架构。您可以在此仓库的 v0.1 分支中找到它。请注意,该版本已过时且不受支持,主分支与该分支不共享历史记录,因此应将其视为一个独立的仓库。