如何在 TensorFlow 中应用梯度剪裁?

2025-03-19 08:57:00
admin
原创
63
摘要:问题描述:考虑示例代码。我想知道如何在存在梯度爆炸可能性的 RNN 网络上应用梯度剪辑。tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) 这是一个可以使用的示例,但我在哪里介绍它?在 RNN 的定义中 lstm_cell = r...

问题描述:

考虑示例代码。

我想知道如何在存在梯度爆炸可能性的 RNN 网络上应用梯度剪辑。

tf.clip_by_value(t, clip_value_min, clip_value_max, name=None)

这是一个可以使用的示例,但我在哪里介绍它?在 RNN 的定义中

    lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0)
    # Split data because rnn cell needs a list of inputs for the RNN inner loop
    _X = tf.split(0, n_steps, _X) # n_steps
tf.clip_by_value(_X, -1, 1, name=None)

但这没有意义,因为张量 _X 是输入,而不是要剪辑的梯度?

我是否必须为此定义自己的优化器或者是否有更简单的选项?


解决方案 1:

梯度截断需要在计算梯度之后、应用梯度来更新模型参数之前进行。在您的示例中,这两件事都由该AdamOptimizer.minimize()方法处理。

为了剪辑渐变,您需要明确计算、剪辑和应用它们,如TensorFlow API 文档中的本节所述。具体来说,您需要minimize()用以下内容替换对方法的调用:

optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate)
gvs = optimizer.compute_gradients(cost)
capped_gvs = [(tf.clip_by_value(grad, -1., 1.), var) for grad, var in gvs]
train_op = optimizer.apply_gradients(capped_gvs)

解决方案 2:

尽管这看起来很流行,但你可能还是想通过全局规范来剪辑整个渐变:

optimizer = tf.train.AdamOptimizer(1e-3)
gradients, variables = zip(*optimizer.compute_gradients(loss))
gradients, _ = tf.clip_by_global_norm(gradients, 5.0)
optimize = optimizer.apply_gradients(zip(gradients, variables))

单独剪裁每个梯度矩阵会改变它们的相对比例,但也是可能的:

optimizer = tf.train.AdamOptimizer(1e-3)
gradients, variables = zip(*optimizer.compute_gradients(loss))
gradients = [
    None if gradient is None else tf.clip_by_norm(gradient, 5.0)
    for gradient in gradients]
optimize = optimizer.apply_gradients(zip(gradients, variables))

在 TensorFlow 2 中,磁带计算梯度,优化器来自 Keras,我们不需要存储更新操作,因为它会自动运行而无需将其传递给会话:

optimizer = tf.keras.optimizers.Adam(1e-3)
# ...
with tf.GradientTape() as tape:
  loss = ...
variables = ...
gradients = tape.gradient(loss, variables)
gradients, _ = tf.clip_by_global_norm(gradients, 5.0)
optimizer.apply_gradients(zip(gradients, variables))

解决方案 3:

对于 tf.keras 来说这很容易!

optimizer = tf.keras.optimizers.Adam(clipvalue=1.0)

该优化器将把所有梯度剪切为之间的值[-1.0, 1.0]

查看文档。

解决方案 4:

这实际上在文档中得到了正确的解释。:

调用 minimal() 负责计算梯度并将其应用于变量。如果你想在应用梯度之前处理梯度,你可以使用优化器分三步进行:

  • 使用 compute_gradients() 计算梯度。

  • 按照您的意愿处理渐变。

  • 使用apply_gradients()应用处理后的渐变。

在他们提供的示例中,他们使用了以下 3 个步骤:

# Create an optimizer.
opt = GradientDescentOptimizer(learning_rate=0.1)

# Compute the gradients for a list of variables.
grads_and_vars = opt.compute_gradients(loss, <list of variables>)

# grads_and_vars is a list of tuples (gradient, variable).  Do whatever you
# need to the 'gradient' part, for example cap them, etc.
capped_grads_and_vars = [(MyCapper(gv[0]), gv[1]) for gv in grads_and_vars]

# Ask the optimizer to apply the capped gradients.
opt.apply_gradients(capped_grads_and_vars)

MyCapper是任何限制渐变的函数。除 之外的有用函数列表tf.clip_by_value()在此处。

解决方案 5:

对于那些想要了解梯度剪裁思想的人(按规范):

每当梯度范数大于特定阈值时,我们就会限制梯度范数,使其保持在阈值范围内。此阈值有时设置为5

令梯度为g,max_norm_threshold 为j

现在,如果 || g || > j,我们这样做:

g = ( j * g) / || g ||

这是在tf.clip_by_norm

解决方案 6:

我认为最好的解决方案是使用 TF 的估算器装饰器包装您的优化器tf.contrib.estimator.clip_gradients_by_norm

original_optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate)
optimizer = tf.contrib.estimator.clip_gradients_by_norm(original_optimizer, clip_norm=5.0)
train_op = optimizer.minimize(loss)

这样,您只需定义一次,而不必在每次梯度计算后运行它。

文档:
https://www.tensorflow.org/api_docs/python/tf/contrib/estimator/clip_gradients_by_norm

解决方案 7:

梯度剪裁基本上有助于解决梯度爆炸或消失的情况。假设你的损失太高,这将导致指数梯度流过网络,从而导致 Nan 值。为了克服这个问题,我们将梯度剪裁在特定范围内(-1 到 1 或根据条件的任何范围)。

clipped_value=tf.clip_by_value(grad, -range, +range), var) for grad, var in grads_and_vars

其中 grads _and_vars 是梯度对(通过 tf.compute_gradients 计算)及其将应用到的变量。

剪辑后,我们只需使用优化器应用其值。
optimizer.apply_gradients(clipped_value)

解决方案 8:

方法 1

如果你使用自定义训练循环训练模型,那么一个更新步骤将如下所示

'''
 for loop over full dataset
 X -> training samples
 y -> labels
'''
optimizer = tf.keras.optimizers.Adam()
for x, y in train_Data:
    with tf.GradientTape() as tape:
            prob = model(x, training=True)
            # calculate loss
            train_loss_value = loss_fn(y, prob)
        
        # get gradients
        gradients = tape.gradient(train_loss_value, model.trainable_weights)
        # clip gradients if you want to clip by norm
        gradients = [(tf.clip_by_norm(grad, clip_norm=1.0)) for grad in gradients]
        # clip gradients via values
        gradients = [(tf.clip_by_value(grad, clip_value_min=-1.0, clip_value_max=1.0)) for grad in gradients]
        # apply gradients
        optimizer.apply_gradients(zip(gradients, model.trainable_weights))

方法 2

或者你也可以简单地将上面代码的第一行替换为以下内容

# for clipping by norm
optimizer = tf.keras.optimizers.Adam(clipnorm=1.0)
# for clipping by value
optimizer = tf.keras.optimizers.Adam(clipvalue=0.5)

如果您使用model.compile->model.fit管道,第二种方法也将有效。

相关推荐
  政府信创国产化的10大政策解读一、信创国产化的背景与意义信创国产化,即信息技术应用创新国产化,是当前中国信息技术领域的一个重要发展方向。其核心在于通过自主研发和创新,实现信息技术应用的自主可控,减少对外部技术的依赖,并规避潜在的技术制裁和风险。随着全球信息技术竞争的加剧,以及某些国家对中国在科技领域的打压,信创国产化显...
工程项目管理   2482  
  为什么项目管理通常仍然耗时且低效?您是否还在反复更新电子表格、淹没在便利贴中并参加每周更新会议?这确实是耗费时间和精力。借助软件工具的帮助,您可以一目了然地全面了解您的项目。如今,国内外有足够多优秀的项目管理软件可以帮助您掌控每个项目。什么是项目管理软件?项目管理软件是广泛行业用于项目规划、资源分配和调度的软件。它使项...
项目管理软件   1533  
  PLM(产品生命周期管理)项目对于企业优化产品研发流程、提升产品质量以及增强市场竞争力具有至关重要的意义。然而,在项目推进过程中,范围蔓延是一个常见且棘手的问题,它可能导致项目进度延迟、成本超支以及质量下降等一系列不良后果。因此,有效避免PLM项目范围蔓延成为项目成功的关键因素之一。以下将详细阐述三大管控策略,助力企业...
plm系统   0  
  PLM(产品生命周期管理)项目管理在企业产品研发与管理过程中扮演着至关重要的角色。随着市场竞争的加剧和产品复杂度的提升,PLM项目面临着诸多风险。准确量化风险优先级并采取有效措施应对,是确保项目成功的关键。五维评估矩阵作为一种有效的风险评估工具,能帮助项目管理者全面、系统地评估风险,为决策提供有力支持。五维评估矩阵概述...
免费plm软件   0  
  引言PLM(产品生命周期管理)开发流程对于企业产品的全生命周期管控至关重要。它涵盖了从产品概念设计到退役的各个阶段,直接影响着产品质量、开发周期以及企业的市场竞争力。在当今快速发展的科技环境下,客户对产品质量的要求日益提高,市场竞争也愈发激烈,这就使得优化PLM开发流程成为企业的必然选择。缺陷管理工具和六西格玛方法作为...
plm产品全生命周期管理   0  
热门文章
项目管理软件有哪些?
曾咪二维码

扫码咨询,免费领取项目管理大礼包!

云禅道AD
禅道项目管理软件

云端的项目管理软件

尊享禅道项目软件收费版功能

无需维护,随时随地协同办公

内置subversion和git源码管理

每天备份,随时转为私有部署

免费试用