显著性库
更新
🔴 现在与框架无关!(核心示例笔记本) 🔴
🔗 有关方法的进一步解释和结果图的更多示例,请参阅我们的 Github Pages 网站 🔗
如果从旧版本升级,请将旧的导入更新为 import saliency.tf1 as saliency
。我们提供了包装器,使与框架无关的版本与 TF1 模型兼容。(TF1 示例笔记本)
🔴 新增性能信息曲线 (PIC) - 一种独立于人类的评估显著性方法质量的指标。 (示例笔记本) 🔴
显著性方法
该存储库包含以下显著性技术的代码:
- 引导集成梯度* (论文, 海报)
- XRAI* (论文, 海报)
- SmoothGrad* (论文)
- 原始梯度 (论文, 论文)
- 引导反向传播 (论文)
- 集成梯度 (论文)
- 遮挡
- Grad-CAM (论文)
- 模糊 IG (论文)
*由 PAIR 开发。
这个列表并非详尽无遗。我们欢迎添加新方法的拉取请求!
显著性方法的评估
该存储库提供了性能信息曲线 (PIC) 的实现 - 这是一种独立于人类的评估显著性方法质量的指标 (论文, 海报, 代码, 笔记本)。
下载
# 安装核心子包:
pip install saliency
# 安装核心和 tf1 子包:
pip install saliency[tf1]
或者获取开发版本:
git clone https://github.com/pair-code/saliency
cd saliency
使用方法
显著性库有两个子包:
core
使用通用的call_model_function
,可与任何 ML 框架一起使用。tf1
直接接受输入/输出张量,并为每种方法设置必要的图操作。
核心
每个显著性掩码类都继承自 CoreSaliency
基类。该类包含以下方法:
GetMask(x_value, call_model_function, call_model_args=None)
:返回由显著性技术给出的非批处理x_value
形状的掩码。GetSmoothedMask(x_value, call_model_function, call_model_args=None, stdev_spread=.15, nsamples=25, magnitude=True)
: 返回使用 SmoothGrad 技术平滑处理的非批处理x_value
形状的掩码。
可视化模块包含两种显著性可视化方法:
VisualizeImageGrayscale(image_3d, percentile)
:对每个通道的绝对值进行边缘化,创建 2D 单通道图像,并在给定分位数的分布处裁剪图像。此方法返回一个在 0 到 1 之间归一化的 2D 张量。VisualizeImageDiverging(image_3d, percentile)
:对每个通道的值进行边缘化,创建 2D 单通道图像,并在给定分位数的分布处裁剪图像。此方法返回一个在 -1 到 1 之间归一化的 2D 张量,其中零保持不变。
如果显著性掩码给出的值的符号不重要,则使用 VisualizeImageGrayscale
,否则使用 VisualizeImageDiverging
。有关使用哪种可视化方法的更多详细信息,请参阅 SmoothGrad 论文。
call_model_function
call_model_function
是我们将输入传递给给定模型并接收计算显著性掩码所需输出的方式。此方法的描述和预期输出格式在 CoreSaliency
描述中,以及每种方法的单独描述中都有说明。
示例
这个示例 iPython 笔记本展示了这些技术,是一个很好的起点。
以下是使用 TensorFlow 2 的 IG+SmoothGrad 的简明示例:
import saliency.core as saliency
import tensorflow as tf
...
# call_model_function 构建在此处。
def call_model_function(x_value_batched, call_model_args, expected_keys):
tape = tf.GradientTape()
grads = np.array(tape.gradient(output_layer, images))
return {saliency.INPUT_OUTPUT_GRADIENTS: grads}
...
# 加载数据。
image = GetImagePNG(...)
# 计算 IG+SmoothGrad。
ig_saliency = saliency.IntegratedGradients()
smoothgrad_ig = ig_saliency.GetSmoothedMask(image,
call_model_function,
call_model_args=None)
# 计算用于可视化的 2D 张量。
grayscale_visualization = saliency.VisualizeImageGrayscale(
smoothgrad_ig)
TF1
每个显著性掩码类都继承自 TF1Saliency
基类。该类包含以下方法:
__init__(graph, session, y, x)
:SaliencyMask 的构造函数。这可以修改图,有时会创建新图。通常这会向图中添加节点,因此不应连续调用。y
是用于计算显著性掩码的输出张量,x
是输入张量,最外层维度为批次大小。GetMask(x_value, feed_dict)
:返回由显著性技术给出的非批处理x_value
形状的掩码。GetSmoothedMask(x_value, feed_dict)
:返回使用 SmoothGrad 技术平滑处理的非批处理x_value
形状的掩码。
可视化模块包含两种可视化方法:
VisualizeImageGrayscale(image_3d, percentile)
:对每个通道的绝对值进行边缘化,创建 2D 单通道图像,并在给定分位数的分布处裁剪图像。此方法返回一个在 0 到 1 之间归一化的 2D 张量。VisualizeImageDiverging(image_3d, percentile)
:对每个通道的值进行边缘化,创建 2D 单通道图像,并在给定分位数的分布处裁剪图像。此方法返回一个在 -1 到 1 之间归一化的 2D 张量,其中零保持不变。
如果显著性掩码给出的值的符号不重要,则使用 VisualizeImageGrayscale
,否则使用 VisualizeImageDiverging
。有关使用哪种可视化方法的更多详细信息,请参阅 SmoothGrad 论文。
示例
这个示例 iPython 笔记本展示了这些技术,是一个很好的起点。
另一个使用 TensorFlow 的 GuidedBackprop 和 SmoothGrad 的示例:
from saliency.tf1 import GuidedBackprop
from saliency.tf1 import VisualizeImageGrayscale
import tensorflow.compat.v1 as tf
...
# Tensorflow 图构建在此处。
y = logits[5]
x = tf.placeholder(...)
...
# 计算引导反向传播。
# 注意:这会创建另一个被缓存的图,尽量避免创建太多。
guided_backprop_saliency = GuidedBackprop(graph, session, y, x)
...
# 加载数据。
image = GetImagePNG(...)
...
smoothgrad_guided_backprop =
guided_backprop_saliency.GetMask(image, feed_dict={...})
# 计算用于可视化的 2D 张量。
grayscale_visualization = visualization.VisualizeImageGrayscale(
smoothgrad_guided_backprop)
结论/免责声明
如果您对这个库有任何问题或改进建议,请联系 PAIR-code/saliency
存储库的所有者。
这不是 Google 的官方产品。