【机器学习】numpy实现Momentum动量优化器

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6


⚡本系列历史文章⚡

【Momentum优化器】​​
​​【Nesterov accelerated gradient优化器】​​
​​【RMSprop优化器】​​
​​【Adagrad优化器】​​
​​【Adadelta优化器】​​
​​【Adam优化器】


Momentum优化原理

SGD难以在沟壑中航行,即曲面在一个维度上的曲线比在另一个维度上的曲线陡峭得多的区域,这在局部最优点附近很常见。在这些情况下,SGD在沟谷的斜坡上振荡,同时沿着底部向局部最优方向缓慢前进,如图所示。

【机器学习】numpy实现Momentum动量优化器_优化器

动量是一种有助于在相关方向上加速SGD并抑制振荡的方法,如图b所示。它通过将过去时间步长的更新向量的一小部分添加到当前更新向量来实现这一点:
【机器学习】numpy实现Momentum动量优化器_人工智能_03

代码实践

import numpy as np
import matplotlib.pyplot as plt

class Optimizer:
def __init__(self,
epsilon = 1e-10, # 误差
iters = 100000, # 最大迭代次数
lamb = 0.01, # 学习率
gamma = 0.0, # 动量项系数
):
self.epsilon = epsilon
self.iters = iters
self.lamb = lamb
self.gamma = gamma

def momentum(self, x_0 = 0.5, y_0 = 0.5):
f1, f2 = self.fn(x_0, y_0), 0
w = np.array([x_0, y_0]) # 每次迭代后的函数值,用于绘制梯度曲线
k = 0 # 当前迭代次数
v_t = 0.0

while True:
if abs(f1 - f2) <= self.epsilon or k > self.iters:
break

f1 = self.fn(x_0, y_0)

g = np.array([self.dx(x_0, y_0), self.dy(x_0, y_0)])

v_t = self.gamma * v_t + self.lamb * g

x_0, y_0 = np.array([x_0, y_0]) - v_t

f2 = self.fn(x_0, y_0)

w = np.vstack((w, (x_0, y_0)))
k += 1

self.print_info(k, x_0, y_0, f2)
self.draw_process(w)

def print_info(self, k, x_0, y_0, f2):
print('迭代次数:{}'.format(k))
print('极值点:【x_0】:{} 【y_0】:{}'.format(x_0, y_0))
print('函数的极值:{}'.format(f2))

def draw_process(self, w):
X = np.arange(0, 1.5, 0.01)
Y = np.arange(-1, 1, 0.01)
[x, y] = np.meshgrid(X, Y)
f = x**3 - y**3 + 3 * x**2 + 3 * y**2 - 9 * x
plt.contour(x, y, f, 20)
plt.plot(w[:, 0],w[:, 1], 'g*', w[:, 0], w[:, 1])
plt.show()

def fn(self, x, y):
return x**3 - y**3 + 3 * x**2 + 3 * y**2 - 9 * x

def dx(self, x, y):
return 3 * x**2 + 6 * x - 9

def dy(self, x, y):
return - 3 * y**2 + 6 * y

"""
函数: f(x) = x**3 - y**3 + 3 * x**2 + 3 * y**2 - 9 * x
最优解: x = 1, y = 0
极小值: f(x,y) = -5
"""
optimizer = Optimizer()
optimizer.momentum()

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6
标签: 机器学习