🎯要点
🎯神经网络映射关联图 | 🎯执行时间分析 | 🎯神经网络结构降维 | 🎯量化图结构边作用 | 🎯数学评估算法实现
🍪语言内容分比
🍇Python随机梯度下降算法
随机梯度下降是梯度下降算法的一种变体,用于优化机器学习模型。它解决了传统梯度下降方法在处理机器学习项目中的大型数据集时计算效率低下的问题。在随机梯度下降中,每次迭代不会使用整个数据集,而是只选择一个随机训练示例(或一个小批量)来计算梯度并更新模型参数。这种随机选择将随机性引入优化过程,因此在随机梯度下降中出现了“随机”一词。
使用随机梯度下降的优势在于其计算效率,尤其是在处理大型数据集时。与需要处理整个数据集的传统梯度下降方法相比,通过使用单个示例或小批量,每次迭代的计算成本显著降低。
步骤:
- 初始化:随机初始化模型的参数。
- 设置参数:确定更新参数的迭代次数和学习率。
- 随机梯度下降循环:重复以下步骤,直到模型收敛或达到最大迭代次数。
- 返回优化参数:一旦满足收敛条件或达到最大迭代次数,返回优化模型参数。
在随机梯度下降中,由于每次迭代只从数据集中随机选择一个样本,因此算法达到最小值的路径通常比典型的梯度下降算法更嘈杂。但这并不重要,因为只要我们达到最小值并且训练时间明显缩短,算法所采用的路径就无关紧要。
需要注意的一点是,由于随机梯度下降通常比典型的梯度下降更嘈杂,因此由于其下降的随机性,通常需要更多次迭代才能达到最小值。尽管它需要比典型的梯度下降更多的迭代次数才能达到最小值,但它在计算上仍然比典型的梯度下降便宜得多。因此,在大多数情况下,与批量梯度下降相比,随机梯度下降更适合用于优化学习算法。
我们将使用更新参数、拟合训练数据集和预测新测试数据时使用的方法创建一个随机梯度下降类。我们将使用的方法如下:
- SGD 类封装了用于训练线性回归模型的随机梯度下降算法。
- 然后我们初始化 SGD 优化器参数,例如学习率、轮数、批量大小和容差。它还将权重和偏差初始化为 None。
- 预测函数:该函数使用当前权重和偏差计算输入数据 X 的预测。它在输入 X 和权重之间执行矩阵乘法,然后添加偏差项。
- mean_squared_error 函数:该函数计算真实目标值 y_true 和预测值 y_pred 之间的均方误差。
- 梯度函数:使用均方误差损失函数的梯度公式计算损失函数相对于权重和偏差的梯度。
- 拟合方法:此方法使用随机梯度下降将模型拟合到训练数据。它会迭代指定的次数,打乱数据并更新每个时期的权重和偏差。它还会定期打印损失并根据容差检查收敛情况。
算法实现:
import numpy as np
class SGD:
def __init__(self, lr=0.01, epochs=1000, batch_size=32, tol=1e-3):
self.learning_rate = lr
self.epochs = epochs
self.batch_size = batch_size
self.tolerance = tol
self.weights = None
self.bias = None
def predict(self, X):
return np.dot(X, self.weights) + self.bias
def mean_squared_error(self, y_true, y_pred):
return np.mean((y_true - y_pred) ** 2)
def gradient(self, X_batch, y_batch):
y_pred = self.predict(X_batch)
error = y_pred - y_batch
gradient_weights = np.dot(X_batch.T, error) / X_batch.shape[0]
gradient_bias = np.mean(error)
return gradient_weights, gradient_bias
def fit(self, X, y):
n_samples, n_features = X.shape
self.weights = np.random.randn(n_features)
self.bias = np.random.randn()
for epoch in range(self.epochs):
indices = np.random.permutation(n_samples)
X_shuffled = X[indices]
y_shuffled = y[indices]
for i in range(0, n_samples, self.batch_size):
X_batch = X_shuffled[i:i+self.batch_size]
y_batch = y_shuffled[i:i+self.batch_size]
gradient_weights, gradient_bias = self.gradient(X_batch, y_batch)
self.weights -= self.learning_rate * gradient_weights
self.bias -= self.learning_rate * gradient_bias
if epoch % 100 == 0:
y_pred = self.predict(X)
loss = self.mean_squared_error(y, y_pred)
print(f"Epoch {epoch}: Loss {loss}")
if np.linalg.norm(gradient_weights) < self.tolerance:
print("Convergence reached.")
break
return self.weights, self.bias
我们将创建一个包含 100 行和 5 列的随机数据集,并在此数据上拟合随机梯度下降类。 另外,我们将使用此算法的预测方法
X = np.random.randn(100, 5)
y = np.dot(X, np.array([1, 2, 3, 4, 5]))\
+ np.random.randn(100) * 0.1
model = SGD(lr=0.01, epochs=1000,
batch_size=32, tol=1e-3)
w,b=model.fit(X,y)
y_pred = w*X+b
输出
Epoch 0: Loss 64.66196845798673
Epoch 100: Loss 0.03999940087439455
Epoch 200: Loss 0.008260358272771882
Epoch 300: Loss 0.00823731979566282
Epoch 400: Loss 0.008243022613956992
Epoch 500: Loss 0.008239370268212335
Epoch 600: Loss 0.008236363304624746
Epoch 700: Loss 0.00823205131002819
Epoch 800: Loss 0.00823566681302786
Epoch 900: Loss 0.008237441485197143
这种获取值并根据不同参数调整它们以减少损失函数的循环称为反向传播。
TensorFlow实现此算法
import tensorflow as tf
import numpy as np
class SGD:
def __init__(self, lr=0.001, epochs=2000, batch_size=32, tol=1e-3):
self.learning_rate = lr
self.epochs = epochs
self.batch_size = batch_size
self.tolerance = tol
self.weights = None
self.bias = None
def predict(self, X):
return tf.matmul(X, self.weights) + self.bias
def mean_squared_error(self, y_true, y_pred):
return tf.reduce_mean(tf.square(y_true - y_pred))
def gradient(self, X_batch, y_batch):
with tf.GradientTape() as tape:
y_pred = self.predict(X_batch)
loss = self.mean_squared_error(y_batch, y_pred)
gradient_weights, gradient_bias = tape.gradient(loss, [self.weights, self.bias])
return gradient_weights, gradient_bias
def fit(self, X, y):
n_samples, n_features = X.shape
self.weights = tf.Variable(tf.random.normal((n_features, 1)))
self.bias = tf.Variable(tf.random.normal(()))
for epoch in range(self.epochs):
indices = tf.random.shuffle(tf.range(n_samples))
X_shuffled = tf.gather(X, indices)
y_shuffled = tf.gather(y, indices)
for i in range(0, n_samples, self.batch_size):
X_batch = X_shuffled[i:i+self.batch_size]
y_batch = y_shuffled[i:i+self.batch_size]
gradient_weights, gradient_bias = self.gradient(X_batch, y_batch)
# Gradient clipping
gradient_weights = tf.clip_by_value(gradient_weights, -1, 1)
gradient_bias = tf.clip_by_value(gradient_bias, -1, 1)
self.weights.assign_sub(self.learning_rate * gradient_weights)
self.bias.assign_sub(self.learning_rate * gradient_bias)
if epoch % 100 == 0:
y_pred = self.predict(X)
loss = self.mean_squared_error(y, y_pred)
print(f"Epoch {epoch}: Loss {loss}")
if tf.norm(gradient_weights) < self.tolerance:
print("Convergence reached.")
break
return self.weights.numpy(), self.bias.numpy()
X = np.random.randn(100, 5).astype(np.float32)
y = np.dot(X, np.array([1, 2, 3, 4, 5], dtype=np.float32)) + np.random.randn(100).astype(np.float32) * 0.1
model = SGD(lr=0.005, epochs=1000, batch_size=12, tol=1e-3)
w, b = model.fit(X, y)
y_pred = np.dot(X, w) + b
输出
Epoch 0: Loss 52.73115158081055
Epoch 100: Loss 44.69907760620117
Epoch 200: Loss 44.693603515625
Epoch 300: Loss 44.69377136230469
Epoch 400: Loss 44.67509460449219
Epoch 500: Loss 44.67082595825195
Epoch 600: Loss 44.674285888671875
Epoch 700: Loss 44.666194915771484
Epoch 800: Loss 44.66718292236328
Epoch 900: Loss 44.65559005737305
算法优劣对比:
优势:
- 速度:随机梯度下降比梯度下降的其他变体(例如批量梯度下降和小批量梯度下降)更快,因为它只使用一个示例来更新参数。
- 内存效率:由于随机梯度下降一次更新每个训练示例的参数,因此内存效率很高,并且可以处理无法放入内存的大型数据集。
- 避免局部极小值:由于随机梯度下降中的噪声更新,它有能力逃离局部极小值并收敛到全局极小值。
劣势:
- 有噪声的更新:随机梯度下降中的更新有噪声并且具有很高的方差,这会使优化过程不太稳定并导致在最小值附近振荡。
- 收敛缓慢:随机梯度下降可能需要更多迭代才能收敛到最小值,因为它一次更新每个训练示例的参数。
- 对学习率的敏感性:学习率的选择在随机梯度下降中至关重要,因为使用高学习率会导致算法超出最小值,而低学习率会使算法收敛缓慢。
- 不太准确:由于更新的噪声,随机梯度下降可能无法收敛到精确的全局最小值,并可能导致解决方案次优。这可以通过使用学习率调度和基于动量的更新等技术来缓解。