首先声明,我好几个图没整出来,不知道啥原因,求大佬们指点(╥╯﹏╰╥)ง

编程实现优化算法,并3D可视化

1. 函数3D可视化

分别画出 和 的3D图

import torch

import numpy as np

from matplotlib import pyplot as plt

class Op(object):

def __init__(self):

pass

def __call__(self, inputs):

return self.forward(inputs)

# 输入:张量inputs

# 输出:张量outputs

def forward(self, inputs):

# return outputs

raise NotImplementedError

# 输入:最终输出对outputs的梯度outputs_grads

# 输出:最终输出对inputs的梯度inputs_grads

def backward(self, outputs_grads):

# return inputs_grads

raise NotImplementedError

class OptimizedFunction3D(Op):

def __init__(self):

super(OptimizedFunction3D, self).__init__()

self.params = {'x': 0}

self.grads = {'x': 0}

def forward(self, x):

self.params['x'] = x

return x[0] * x[0] / 20 + x[1] * x[1] / 1 # x[0] ** 2 + x[1] ** 2 + x[1] ** 3 + x[0] * x[1]

def backward(self):

x = self.params['x']

gradient1 = 2 * x[0] / 20

gradient2 = 2 * x[1] / 1

grad1 = torch.Tensor([gradient1])

grad2 = torch.Tensor([gradient2])

self.grads['x'] = torch.cat([grad1, grad2])

# 使用numpy.meshgrid生成x1,x2矩阵,矩阵的每一行为[-3, 3],以0.1为间隔的数值

x1 = np.arange(-3, 3, 0.1)

x2 = np.arange(-3, 3, 0.1)

x1, x2 = np.meshgrid(x1, x2)

init_x = torch.Tensor(np.array([x1, x2]))

model = OptimizedFunction3D()

# 绘制 f_3d函数 的 三维图像

fig = plt.figure()

ax = plt.axes(projection='3d')

X = init_x[0].numpy()

Y = init_x[1].numpy()

Z = model(init_x).numpy()

ax.plot_surface(X, Y, Z, cmap='rainbow')

ax.set_xlabel('x1')

ax.set_ylabel('x2')

ax.set_zlabel('f(x1,x2)')

ax.legend(loc='upper left')

plt.show()

 两个函数代码的基本框架是一样的,只不过是函数不一样。只要将OptimizedFunction3D(Op)改为下面的就行

class OptimizedFunction3D(Op):

def __init__(self):

super(OptimizedFunction3D, self).__init__()

self.params = {'x': 0}

self.grads = {'x': 0}

def forward(self, x):

self.params['x'] = x

return x[0] ** 2 + x[1] ** 2 + x[1] ** 3 + x[0] * x[1]

def backward(self):

x = self.params['x']

gradient1 = 2 * x[0] + x[1]

gradient2 = 2 * x[1] + 3 * x[1] ** 2 + x[0]

grad1 = torch.Tensor([gradient1])

grad2 = torch.Tensor([gradient2])

self.grads['x'] = torch.cat([grad1, grad2])

这段代码一开始参考学长学姐的代码跑不出开,然后根据老师给的加入优化算法的代码写出来的。

 2.加入优化算法,画出轨迹

分别画出 和 的3D轨迹图

结合3D动画,用自己的语言,从轨迹、速度等多个角度讲解各个算法优缺点

SimpleBatchGD算法

初始化 SimpleBatchGD(init_lr, model)

    调用 Optimizer,传入 init_lr 和 model 参数

 定义step() 方法:

    如果 model.params 是字典类型

        for  key in model.params :

             更新 model.params[key] = model.params[key] - init_lr * model.grads[key]

Adagrad算法

初始化 Adagrad(init_lr, model, epsilon)

    调用 Optimizer ,传入 init_lr 和 model 参数

    初始化 G 为空字典

     for  key in model.params :

        将 epsilon参数值赋给self. epsilon

adagrad(x, gradient_x, G, init_lr):

    更新 G[key] += gradient_x ** 2

    计算 x -= init_lr / torch.sqrt(G + epsilon) * gradient_x

    return x 和 G

定义step()方法

   for  key in model.params :

   调用 adagrad 方法并赋值给 model.params[key] 和 G[key]

RMSprop算法

初始化 RMSprop(init_lr, model, beta, epsilon)

   调用 Optimizer ,传入 init_lr 和 model 参数

   初始化 G 为空字典

   for  key in model.params :

      将 beta参数值赋给self. beta

      将 epsilon参数值赋给self. epsilon

rmsprop(x, gradient_x, G, init_lr):

   更新 G = beta * G + (1 - beta) * gradient_x ** 2

   计算 x -= init_lr / torch.sqrt(G + epsilon) * gradient_x

   return x 和 G

定义step()方法

   for  key in model.params :

   调用 rmsprop 方法并赋值给 model.params[key] 和 G[key]

Momentum算法

初始化 Momentum(init_lr, model, rho)  

   调用 Optimizer ,传入 init_lr 和 model 参数

   初始化 delta_x 

   for  key in model.params :

      将rho参数值赋给self. rho

momentum(x, gradient_x, delta_x, init_lr) :

   更新 delta_x = rho * delta_x - init_lr * gradient_x

   计算  x += delta_x

   return x 和  delta_x

定义step()方法

   for  key in model.params :

   调用momentum 方法并赋值给 model.params[key] 和delta_x[key]

Adam算法

初始化 Adam(init_lr, model, beta1, beta2, epsilon)  

   调用 Optimizer ,传入 init_lr 和 model 参数

   将beta1,beta2,epsilon参数值赋给self. beta1,self.beta2,self.epsilon

   初始化 M, G 为空字典

adam(x, gradient_x, G, M, t, init_lr) :

   计算 M = beta1 * M + (1 - beta1) * gradient_x

   计算 G = beta2 * G + (1 - beta2) * gradient_x ** 2

   计算 M_hat = M / (1 - beta1 ** t)

   计算 G_hat = G / (1 - beta2 ** t)

   计算 x -= init_lr / torch.sqrt(G_hat + epsilon) * M_hat

   return  x, G, M 和 t

定义step()方法

   for  key in model.params :

   调用adam 方法并赋值给 model.params[key] 和delta_x[key]

import torch

import numpy as np

import copy

from matplotlib import pyplot as plt

from matplotlib import animation

from itertools import zip_longest

class Op(object):

def __init__(self):

pass

def __call__(self, inputs):

return self.forward(inputs)

# 输入:张量inputs

# 输出:张量outputs

def forward(self, inputs):

# return outputs

raise NotImplementedError

# 输入:最终输出对outputs的梯度outputs_grads

# 输出:最终输出对inputs的梯度inputs_grads

def backward(self, outputs_grads):

# return inputs_grads

raise NotImplementedError

class Optimizer(object): # 优化器基类

def __init__(self, init_lr, model):

"""

优化器类初始化

"""

# 初始化学习率,用于参数更新的计算

self.init_lr = init_lr

# 指定优化器需要优化的模型

self.model = model

def step(self):

"""

定义每次迭代如何更新参数

"""

pass

class SimpleBatchGD(Optimizer):

def __init__(self, init_lr, model):

super(SimpleBatchGD, self).__init__(init_lr=init_lr, model=model)

def step(self):

# 参数更新

if isinstance(self.model.params, dict):

for key in self.model.params.keys():

self.model.params[key] = self.model.params[key] - self.init_lr * self.model.grads[key]

class Adagrad(Optimizer):

def __init__(self, init_lr, model, epsilon):

"""

Adagrad 优化器初始化

输入:

- init_lr: 初始学习率 - model:模型,model.params存储模型参数值 - epsilon:保持数值稳定性而设置的非常小的常数

"""

super(Adagrad, self).__init__(init_lr=init_lr, model=model)

self.G = {}

for key in self.model.params.keys():

self.G[key] = 0

self.epsilon = epsilon

def adagrad(self, x, gradient_x, G, init_lr):

"""

adagrad算法更新参数,G为参数梯度平方的累计值。

"""

G += gradient_x ** 2

x -= init_lr / torch.sqrt(G + self.epsilon) * gradient_x

return x, G

def step(self):

"""

参数更新

"""

for key in self.model.params.keys():

self.model.params[key], self.G[key] = self.adagrad(self.model.params[key],

self.model.grads[key],

self.G[key],

self.init_lr)

class RMSprop(Optimizer):

def __init__(self, init_lr, model, beta, epsilon):

"""

RMSprop优化器初始化

输入:

- init_lr:初始学习率

- model:模型,model.params存储模型参数值

- beta:衰减率

- epsilon:保持数值稳定性而设置的常数

"""

super(RMSprop, self).__init__(init_lr=init_lr, model=model)

self.G = {}

for key in self.model.params.keys():

self.G[key] = 0

self.beta = beta

self.epsilon = epsilon

def rmsprop(self, x, gradient_x, G, init_lr):

"""

rmsprop算法更新参数,G为迭代梯度平方的加权移动平均

"""

G = self.beta * G + (1 - self.beta) * gradient_x ** 2

x -= init_lr / torch.sqrt(G + self.epsilon) * gradient_x

return x, G

def step(self):

"""参数更新"""

for key in self.model.params.keys():

self.model.params[key], self.G[key] = self.rmsprop(self.model.params[key],

self.model.grads[key],

self.G[key],

self.init_lr)

class Momentum(Optimizer):

def __init__(self, init_lr, model, rho):

"""

Momentum优化器初始化

输入:

- init_lr:初始学习率

- model:模型,model.params存储模型参数值

- rho:动量因子

"""

super(Momentum, self).__init__(init_lr=init_lr, model=model)

self.delta_x = {}

for key in self.model.params.keys():

self.delta_x[key] = 0

self.rho = rho

def momentum(self, x, gradient_x, delta_x, init_lr):

"""

momentum算法更新参数,delta_x为梯度的加权移动平均

"""

delta_x = self.rho * delta_x - init_lr * gradient_x

x += delta_x

return x, delta_x

def step(self):

"""参数更新"""

for key in self.model.params.keys():

self.model.params[key], self.delta_x[key] = self.momentum(self.model.params[key],

self.model.grads[key],

self.delta_x[key],

self.init_lr)

class Adam(Optimizer):

def __init__(self, init_lr, model, beta1, beta2, epsilon):

"""

Adam优化器初始化

输入:

- init_lr:初始学习率

- model:模型,model.params存储模型参数值

- beta1, beta2:移动平均的衰减率

- epsilon:保持数值稳定性而设置的常数

"""

super(Adam, self).__init__(init_lr=init_lr, model=model)

self.beta1 = beta1

self.beta2 = beta2

self.epsilon = epsilon

self.M, self.G = {}, {}

for key in self.model.params.keys():

self.M[key] = 0

self.G[key] = 0

self.t = 1

def adam(self, x, gradient_x, G, M, t, init_lr):

"""

adam算法更新参数

输入:

- x:参数

- G:梯度平方的加权移动平均

- M:梯度的加权移动平均

- t:迭代次数

- init_lr:初始学习率

"""

M = self.beta1 * M + (1 - self.beta1) * gradient_x

G = self.beta2 * G + (1 - self.beta2) * gradient_x ** 2

M_hat = M / (1 - self.beta1 ** t)

G_hat = G / (1 - self.beta2 ** t)

t += 1

x -= init_lr / torch.sqrt(G_hat + self.epsilon) * M_hat

return x, G, M, t

def step(self):

"""参数更新"""

for key in self.model.params.keys():

self.model.params[key], self.G[key], self.M[key], self.t = self.adam(self.model.params[key],

self.model.grads[key],

self.G[key],

self.M[key],

self.t,

self.init_lr)

class OptimizedFunction3D(Op):

def __init__(self):

super(OptimizedFunction3D, self).__init__()

self.params = {'x': 0}

self.grads = {'x': 0}

def forward(self, x):

self.params['x'] = x

return x[0] ** 2 + x[1] ** 2 + x[1] ** 3 + x[0] * x[1]

def backward(self):

x = self.params['x']

gradient1 = 2 * x[0] + x[1]

gradient2 = 2 * x[1] + 3 * x[1] ** 2 + x[0]

grad1 = torch.Tensor([gradient1])

grad2 = torch.Tensor([gradient2])

self.grads['x'] = torch.cat([grad1, grad2])

class Visualization3D(animation.FuncAnimation):

""" 绘制动态图像,可视化参数更新轨迹 """

def __init__(self, *xy_values, z_values, labels=[], colors=[], fig, ax, interval=600, blit=True, **kwargs):

"""

初始化3d可视化类

输入:

xy_values:三维中x,y维度的值

z_values:三维中z维度的值

labels:每个参数更新轨迹的标签

colors:每个轨迹的颜色

interval:帧之间的延迟(以毫秒为单位)

blit:是否优化绘图

"""

self.fig = fig

self.ax = ax

self.xy_values = xy_values

self.z_values = z_values

frames = max(xy_value.shape[0] for xy_value in xy_values)

self.lines = [ax.plot([], [], [], label=label, color=color, lw=2)[0]

for _, label, color in zip_longest(xy_values, labels, colors)]

super(Visualization3D, self).__init__(fig, self.animate, init_func=self.init_animation, frames=frames,

interval=interval, blit=blit, **kwargs)

def init_animation(self):

# 数值初始化

for line in self.lines:

line.set_data([], [])

# line.set_3d_properties(np.asarray([])) # 源程序中有这一行,加上会报错。 Edit by David 2022.12.4

return self.lines

def animate(self, i):

# 将x,y,z三个数据传入,绘制三维图像

for line, xy_value, z_value in zip(self.lines, self.xy_values, self.z_values):

line.set_data(xy_value[:i, 0], xy_value[:i, 1])

line.set_3d_properties(z_value[:i])

return self.lines

def train_f(model, optimizer, x_init, epoch):

x = x_init

all_x = []

losses = []

for i in range(epoch):

all_x.append(copy.deepcopy(x.numpy())) # 浅拷贝 改为 深拷贝, 否则List的原值会被改变。 Edit by David 2022.12.4.

loss = model(x)

losses.append(loss)

model.backward()

optimizer.step()

x = model.params['x']

return torch.Tensor(np.array(all_x)), losses

# 构建5个模型,分别配备不同的优化器

model1 = OptimizedFunction3D()

opt_gd = SimpleBatchGD(init_lr=0.01, model=model1)

model2 = OptimizedFunction3D()

opt_adagrad = Adagrad(init_lr=0.5, model=model2, epsilon=1e-7)

model3 = OptimizedFunction3D()

opt_rmsprop = RMSprop(init_lr=0.1, model=model3, beta=0.9, epsilon=1e-7)

model4 = OptimizedFunction3D()

opt_momentum = Momentum(init_lr=0.01, model=model4, rho=0.9)

model5 = OptimizedFunction3D()

opt_adam = Adam(init_lr=0.1, model=model5, beta1=0.9, beta2=0.99, epsilon=1e-7)

models = [model1, model2, model3, model4, model5]

opts = [opt_gd, opt_adagrad, opt_rmsprop, opt_momentum, opt_adam]

x_all_opts = []

z_all_opts = []

# 使用不同优化器训练

for model, opt in zip(models, opts):

x_init = torch.FloatTensor([2, 3])

x_one_opt, z_one_opt = train_f(model, opt, x_init, 150) # epoch

# 保存参数值

x_all_opts.append(x_one_opt.numpy())

z_all_opts.append(np.squeeze(z_one_opt))

# 使用numpy.meshgrid生成x1,x2矩阵,矩阵的每一行为[-3, 3],以0.1为间隔的数值

x1 = np.arange(-3, 3, 0.1)

x2 = np.arange(-3, 3, 0.1)

x1, x2 = np.meshgrid(x1, x2)

init_x = torch.Tensor(np.array([x1, x2]))

model = OptimizedFunction3D()

# 绘制 f_3d函数 的 三维图像

fig = plt.figure()

ax = plt.axes(projection='3d')

X = init_x[0].numpy()

Y = init_x[1].numpy()

Z = model(init_x).numpy() # 改为 model(init_x).numpy() David 2022.12.4

ax.plot_surface(X, Y, Z, cmap='rainbow')

ax.set_xlabel('x1')

ax.set_ylabel('x2')

ax.set_zlabel('f(x1,x2)')

labels = ['SGD', 'AdaGrad', 'RMSprop', 'Momentum', 'Adam']

colors = ['#f6373c', '#f6f237', '#45f637', '#37f0f6', '#000000']

animator = Visualization3D(*x_all_opts, z_values=z_all_opts, labels=labels, colors=colors, fig=fig, ax=ax)

ax.legend(loc='upper left')

plt.show()

animator.save('animation.gif') # 效果不好,估计被挡住了…… 有待进一步提高 Edit by David 2022.12.4

import torch

import numpy as np

import copy

from matplotlib import pyplot as plt

from matplotlib import animation

from itertools import zip_longest

from matplotlib import cm

class Op(object):

def __init__(self):

pass

def __call__(self, inputs):

return self.forward(inputs)

# 输入:张量inputs

# 输出:张量outputs

def forward(self, inputs):

# return outputs

raise NotImplementedError

# 输入:最终输出对outputs的梯度outputs_grads

# 输出:最终输出对inputs的梯度inputs_grads

def backward(self, outputs_grads):

# return inputs_grads

raise NotImplementedError

class Optimizer(object): # 优化器基类

def __init__(self, init_lr, model):

"""

优化器类初始化

"""

# 初始化学习率,用于参数更新的计算

self.init_lr = init_lr

# 指定优化器需要优化的模型

self.model = model

def step(self):

"""

定义每次迭代如何更新参数

"""

pass

class SimpleBatchGD(Optimizer):

def __init__(self, init_lr, model):

super(SimpleBatchGD, self).__init__(init_lr=init_lr, model=model)

def step(self):

# 参数更新

if isinstance(self.model.params, dict):

for key in self.model.params.keys():

self.model.params[key] = self.model.params[key] - self.init_lr * self.model.grads[key]

class Adagrad(Optimizer):

def __init__(self, init_lr, model, epsilon):

"""

Adagrad 优化器初始化

输入:

- init_lr: 初始学习率 - model:模型,model.params存储模型参数值 - epsilon:保持数值稳定性而设置的非常小的常数

"""

super(Adagrad, self).__init__(init_lr=init_lr, model=model)

self.G = {}

for key in self.model.params.keys():

self.G[key] = 0

self.epsilon = epsilon

def adagrad(self, x, gradient_x, G, init_lr):

"""

adagrad算法更新参数,G为参数梯度平方的累计值。

"""

G += gradient_x ** 2

x -= init_lr / torch.sqrt(G + self.epsilon) * gradient_x

return x, G

def step(self):

"""

参数更新

"""

for key in self.model.params.keys():

self.model.params[key], self.G[key] = self.adagrad(self.model.params[key],

self.model.grads[key],

self.G[key],

self.init_lr)

class RMSprop(Optimizer):

def __init__(self, init_lr, model, beta, epsilon):

"""

RMSprop优化器初始化

输入:

- init_lr:初始学习率

- model:模型,model.params存储模型参数值

- beta:衰减率

- epsilon:保持数值稳定性而设置的常数

"""

super(RMSprop, self).__init__(init_lr=init_lr, model=model)

self.G = {}

for key in self.model.params.keys():

self.G[key] = 0

self.beta = beta

self.epsilon = epsilon

def rmsprop(self, x, gradient_x, G, init_lr):

"""

rmsprop算法更新参数,G为迭代梯度平方的加权移动平均

"""

G = self.beta * G + (1 - self.beta) * gradient_x ** 2

x -= init_lr / torch.sqrt(G + self.epsilon) * gradient_x

return x, G

def step(self):

"""参数更新"""

for key in self.model.params.keys():

self.model.params[key], self.G[key] = self.rmsprop(self.model.params[key],

self.model.grads[key],

self.G[key],

self.init_lr)

class Momentum(Optimizer):

def __init__(self, init_lr, model, rho):

"""

Momentum优化器初始化

输入:

- init_lr:初始学习率

- model:模型,model.params存储模型参数值

- rho:动量因子

"""

super(Momentum, self).__init__(init_lr=init_lr, model=model)

self.delta_x = {}

for key in self.model.params.keys():

self.delta_x[key] = 0

self.rho = rho

def momentum(self, x, gradient_x, delta_x, init_lr):

"""

momentum算法更新参数,delta_x为梯度的加权移动平均

"""

delta_x = self.rho * delta_x - init_lr * gradient_x

x += delta_x

return x, delta_x

def step(self):

"""参数更新"""

for key in self.model.params.keys():

self.model.params[key], self.delta_x[key] = self.momentum(self.model.params[key],

self.model.grads[key],

self.delta_x[key],

self.init_lr)

class Adam(Optimizer):

def __init__(self, init_lr, model, beta1, beta2, epsilon):

"""

Adam优化器初始化

输入:

- init_lr:初始学习率

- model:模型,model.params存储模型参数值

- beta1, beta2:移动平均的衰减率

- epsilon:保持数值稳定性而设置的常数

"""

super(Adam, self).__init__(init_lr=init_lr, model=model)

self.beta1 = beta1

self.beta2 = beta2

self.epsilon = epsilon

self.M, self.G = {}, {}

for key in self.model.params.keys():

self.M[key] = 0

self.G[key] = 0

self.t = 1

def adam(self, x, gradient_x, G, M, t, init_lr):

"""

adam算法更新参数

输入:

- x:参数

- G:梯度平方的加权移动平均

- M:梯度的加权移动平均

- t:迭代次数

- init_lr:初始学习率

"""

M = self.beta1 * M + (1 - self.beta1) * gradient_x

G = self.beta2 * G + (1 - self.beta2) * gradient_x ** 2

M_hat = M / (1 - self.beta1 ** t)

G_hat = G / (1 - self.beta2 ** t)

t += 1

x -= init_lr / torch.sqrt(G_hat + self.epsilon) * M_hat

return x, G, M, t

def step(self):

"""参数更新"""

for key in self.model.params.keys():

self.model.params[key], self.G[key], self.M[key], self.t = self.adam(self.model.params[key],

self.model.grads[key],

self.G[key],

self.M[key],

self.t,

self.init_lr)

class OptimizedFunction3D(Op):

def __init__(self):

super(OptimizedFunction3D, self).__init__()

self.params = {'x': 0}

self.grads = {'x': 0}

def forward(self, x):

self.params['x'] = x

return x[0] * x[0] / 20 + x[1] * x[1] / 1 # x[0] ** 2 + x[1] ** 2 + x[1] ** 3 + x[0] * x[1]

def backward(self):

x = self.params['x']

gradient1 = 2 * x[0] / 20

gradient2 = 2 * x[1] / 1

grad1 = torch.Tensor([gradient1])

grad2 = torch.Tensor([gradient2])

self.grads['x'] = torch.cat([grad1, grad2])

class Visualization3D(animation.FuncAnimation):

""" 绘制动态图像,可视化参数更新轨迹 """

def __init__(self, *xy_values, z_values, labels=[], colors=[], fig, ax, interval=100, blit=True, **kwargs):

"""

初始化3d可视化类

输入:

xy_values:三维中x,y维度的值

z_values:三维中z维度的值

labels:每个参数更新轨迹的标签

colors:每个轨迹的颜色

interval:帧之间的延迟(以毫秒为单位)

blit:是否优化绘图

"""

self.fig = fig

self.ax = ax

self.xy_values = xy_values

self.z_values = z_values

frames = max(xy_value.shape[0] for xy_value in xy_values)

self.lines = [ax.plot([], [], [], label=label, color=color, lw=2)[0]

for _, label, color in zip_longest(xy_values, labels, colors)]

self.points = [ax.plot([], [], [], color=color, markeredgewidth=1, markeredgecolor='black', marker='o')[0]

for _, color in zip_longest(xy_values, colors)]

# print(self.lines)

super(Visualization3D, self).__init__(fig, self.animate, init_func=self.init_animation, frames=frames,

interval=interval, blit=blit, **kwargs)

def init_animation(self):

# 数值初始化

for line in self.lines:

line.set_data_3d([], [], [])

for point in self.points:

point.set_data_3d([], [], [])

return self.points + self.lines

def animate(self, i):

# 将x,y,z三个数据传入,绘制三维图像

for line, xy_value, z_value in zip(self.lines, self.xy_values, self.z_values):

line.set_data_3d(xy_value[:i, 0], xy_value[:i, 1], z_value[:i])

for point, xy_value, z_value in zip(self.points, self.xy_values, self.z_values):

point.set_data_3d(xy_value[i, 0], xy_value[i, 1], z_value[i])

return self.points + self.lines

def train_f(model, optimizer, x_init, epoch):

x = x_init

all_x = []

losses = []

for i in range(epoch):

all_x.append(copy.deepcopy(x.numpy())) # 浅拷贝 改为 深拷贝, 否则List的原值会被改变。 Edit by David 2022.12.4.

loss = model(x)

losses.append(loss)

model.backward()

optimizer.step()

x = model.params['x']

return torch.Tensor(np.array(all_x)), losses

# 构建5个模型,分别配备不同的优化器

model1 = OptimizedFunction3D()

opt_gd = SimpleBatchGD(init_lr=0.95, model=model1)

model2 = OptimizedFunction3D()

opt_adagrad = Adagrad(init_lr=1.5, model=model2, epsilon=1e-7)

model3 = OptimizedFunction3D()

opt_rmsprop = RMSprop(init_lr=0.05, model=model3, beta=0.9, epsilon=1e-7)

model4 = OptimizedFunction3D()

opt_momentum = Momentum(init_lr=0.1, model=model4, rho=0.9)

model5 = OptimizedFunction3D()

opt_adam = Adam(init_lr=0.3, model=model5, beta1=0.9, beta2=0.99, epsilon=1e-7)

models = [model1, model2, model3, model4, model5]

opts = [opt_gd, opt_adagrad, opt_rmsprop, opt_momentum, opt_adam]

x_all_opts = []

z_all_opts = []

# 使用不同优化器训练

for model, opt in zip(models, opts):

x_init = torch.FloatTensor([-7, 2])

x_one_opt, z_one_opt = train_f(model, opt, x_init, 100) # epoch

# 保存参数值

x_all_opts.append(x_one_opt.numpy())

z_all_opts.append(np.squeeze(z_one_opt))

# 使用numpy.meshgrid生成x1,x2矩阵,矩阵的每一行为[-3, 3],以0.1为间隔的数值

x1 = np.arange(-10, 10, 0.01)

x2 = np.arange(-5, 5, 0.01)

x1, x2 = np.meshgrid(x1, x2)

init_x = torch.Tensor(np.array([x1, x2]))

model = OptimizedFunction3D()

# 绘制 f_3d函数 的 三维图像

fig = plt.figure()

ax = plt.axes(projection='3d')

X = init_x[0].numpy()

Y = init_x[1].numpy()

Z = model(init_x).numpy() # 改为 model(init_x).numpy() David 2022.12.4

surf = ax.plot_surface(X, Y, Z, edgecolor='grey', cmap=cm.coolwarm)

# fig.colorbar(surf, shrink=0.5, aspect=1)

# ax.set_zlim(-3, 2)

ax.set_xlabel('x1')

ax.set_ylabel('x2')

ax.set_zlabel('f(x1,x2)')

labels = ['SGD', 'AdaGrad', 'RMSprop', 'Momentum', 'Adam']

colors = ['#8B0000', '#0000FF', '#000000', '#008B00', '#FF0000']

animator = Visualization3D(*x_all_opts, z_values=z_all_opts, labels=labels, colors=colors, fig=fig, ax=ax)

ax.legend(loc='upper right')

plt.show()

# animator.save('teaser' + '.gif', writer='imagemagick',fps=10) # 效果不好,估计被挡住了…… 有待进一步提高 Edit by David 2022.12.4

# save不好用,不费劲了,安装个软件做gif https://pc.qq.com/detail/13/detail_23913.html

 这段代码研究了好久也没有弄明白为什么没有轨迹,尝试了很多方法,没成功,最终只能放弃了。只能将这个问题遗留下来,等考试完再解决了。下面借用老师的图看看效果。

3.复现CS231经典动画

结合3D动画,用自己的语言,从轨迹、速度等多个角度讲解各个算法优缺点

Animations that may help your intuitions about the learning process dynamics. 

Left: Contours of a loss surface and time evolution of different optimization algorithms. Notice the "overshooting" behavior of momentum-based methods, which make the optimization look like a ball rolling down the hill. 

(左图:损失曲面的轮廓和不同优化算法的时间演化。注意基于动量的方法的“过度”行为,这使得优化看起来像一个球滚下山。)

Right: A visualization of a saddle point in the optimization landscape, where the curvature along different dimension has different signs (one dimension curves up and another down). Notice that SGD has a very hard time breaking symmetry and gets stuck on the top. Conversely, algorithms such as RMSprop will see very low gradients in the saddle direction. Due to the denominator term in the RMSprop update, this will increase the effective learning rate along this direction, helping RMSProp proceed. 

(右图:优化景观中鞍点的可视化,其中不同维度的曲率具有不同的符号(一个维度向上弯曲,另一个维度向下弯曲)。请注意,SGD很难打破对称性,并卡在顶部。相反,像RMSprop这样的算法将在鞍方向上看到非常低的梯度。由于RMSprop更新中的分母项,这将增加沿着这个方向的有效学习速率,帮助RMSProp继续。)

import torch

import numpy as np

import copy

from matplotlib import pyplot as plt

from matplotlib import animation

from itertools import zip_longest

from matplotlib import cm

class Op(object):

def __init__(self):

pass

def __call__(self, inputs):

return self.forward(inputs)

# 输入:张量inputs

# 输出:张量outputs

def forward(self, inputs):

# return outputs

raise NotImplementedError

# 输入:最终输出对outputs的梯度outputs_grads

# 输出:最终输出对inputs的梯度inputs_grads

def backward(self, outputs_grads):

# return inputs_grads

raise NotImplementedError

class Optimizer(object): # 优化器基类

def __init__(self, init_lr, model):

"""

优化器类初始化

"""

# 初始化学习率,用于参数更新的计算

self.init_lr = init_lr

# 指定优化器需要优化的模型

self.model = model

def step(self):

"""

定义每次迭代如何更新参数

"""

pass

class SimpleBatchGD(Optimizer):

def __init__(self, init_lr, model):

super(SimpleBatchGD, self).__init__(init_lr=init_lr, model=model)

def step(self):

# 参数更新

if isinstance(self.model.params, dict):

for key in self.model.params.keys():

self.model.params[key] = self.model.params[key] - self.init_lr * self.model.grads[key]

class Adagrad(Optimizer):

def __init__(self, init_lr, model, epsilon):

"""

Adagrad 优化器初始化

输入:

- init_lr: 初始学习率 - model:模型,model.params存储模型参数值 - epsilon:保持数值稳定性而设置的非常小的常数

"""

super(Adagrad, self).__init__(init_lr=init_lr, model=model)

self.G = {}

for key in self.model.params.keys():

self.G[key] = 0

self.epsilon = epsilon

def adagrad(self, x, gradient_x, G, init_lr):

"""

adagrad算法更新参数,G为参数梯度平方的累计值。

"""

G += gradient_x ** 2

x -= init_lr / torch.sqrt(G + self.epsilon) * gradient_x

return x, G

def step(self):

"""

参数更新

"""

for key in self.model.params.keys():

self.model.params[key], self.G[key] = self.adagrad(self.model.params[key],

self.model.grads[key],

self.G[key],

self.init_lr)

class RMSprop(Optimizer):

def __init__(self, init_lr, model, beta, epsilon):

"""

RMSprop优化器初始化

输入:

- init_lr:初始学习率

- model:模型,model.params存储模型参数值

- beta:衰减率

- epsilon:保持数值稳定性而设置的常数

"""

super(RMSprop, self).__init__(init_lr=init_lr, model=model)

self.G = {}

for key in self.model.params.keys():

self.G[key] = 0

self.beta = beta

self.epsilon = epsilon

def rmsprop(self, x, gradient_x, G, init_lr):

"""

rmsprop算法更新参数,G为迭代梯度平方的加权移动平均

"""

G = self.beta * G + (1 - self.beta) * gradient_x ** 2

x -= init_lr / torch.sqrt(G + self.epsilon) * gradient_x

return x, G

def step(self):

"""参数更新"""

for key in self.model.params.keys():

self.model.params[key], self.G[key] = self.rmsprop(self.model.params[key],

self.model.grads[key],

self.G[key],

self.init_lr)

class Momentum(Optimizer):

def __init__(self, init_lr, model, rho):

"""

Momentum优化器初始化

输入:

- init_lr:初始学习率

- model:模型,model.params存储模型参数值

- rho:动量因子

"""

super(Momentum, self).__init__(init_lr=init_lr, model=model)

self.delta_x = {}

for key in self.model.params.keys():

self.delta_x[key] = 0

self.rho = rho

def momentum(self, x, gradient_x, delta_x, init_lr):

"""

momentum算法更新参数,delta_x为梯度的加权移动平均

"""

delta_x = self.rho * delta_x - init_lr * gradient_x

x += delta_x

return x, delta_x

def step(self):

"""参数更新"""

for key in self.model.params.keys():

self.model.params[key], self.delta_x[key] = self.momentum(self.model.params[key],

self.model.grads[key],

self.delta_x[key],

self.init_lr)

class Adam(Optimizer):

def __init__(self, init_lr, model, beta1, beta2, epsilon):

"""

Adam优化器初始化

输入:

- init_lr:初始学习率

- model:模型,model.params存储模型参数值

- beta1, beta2:移动平均的衰减率

- epsilon:保持数值稳定性而设置的常数

"""

super(Adam, self).__init__(init_lr=init_lr, model=model)

self.beta1 = beta1

self.beta2 = beta2

self.epsilon = epsilon

self.M, self.G = {}, {}

for key in self.model.params.keys():

self.M[key] = 0

self.G[key] = 0

self.t = 1

def adam(self, x, gradient_x, G, M, t, init_lr):

"""

adam算法更新参数

输入:

- x:参数

- G:梯度平方的加权移动平均

- M:梯度的加权移动平均

- t:迭代次数

- init_lr:初始学习率

"""

M = self.beta1 * M + (1 - self.beta1) * gradient_x

G = self.beta2 * G + (1 - self.beta2) * gradient_x ** 2

M_hat = M / (1 - self.beta1 ** t)

G_hat = G / (1 - self.beta2 ** t)

t += 1

x -= init_lr / torch.sqrt(G_hat + self.epsilon) * M_hat

return x, G, M, t

def step(self):

"""参数更新"""

for key in self.model.params.keys():

self.model.params[key], self.G[key], self.M[key], self.t = self.adam(self.model.params[key],

self.model.grads[key],

self.G[key],

self.M[key],

self.t,

self.init_lr)

class OptimizedFunction3D(Op):

def __init__(self):

super(OptimizedFunction3D, self).__init__()

self.params = {'x': 0}

self.grads = {'x': 0}

def forward(self, x):

self.params['x'] = x

return - x[0] * x[0] / 2 + x[1] * x[1] / 1 # x[0] ** 2 + x[1] ** 2 + x[1] ** 3 + x[0] * x[1]

def backward(self):

x = self.params['x']

gradient1 = - 2 * x[0] / 2

gradient2 = 2 * x[1] / 1

grad1 = torch.Tensor([gradient1])

grad2 = torch.Tensor([gradient2])

self.grads['x'] = torch.cat([grad1, grad2])

class Visualization3D(animation.FuncAnimation):

""" 绘制动态图像,可视化参数更新轨迹 """

def __init__(self, *xy_values, z_values, labels=[], colors=[], fig, ax, interval=100, blit=True, **kwargs):

"""

初始化3d可视化类

输入:

xy_values:三维中x,y维度的值

z_values:三维中z维度的值

labels:每个参数更新轨迹的标签

colors:每个轨迹的颜色

interval:帧之间的延迟(以毫秒为单位)

blit:是否优化绘图

"""

self.fig = fig

self.ax = ax

self.xy_values = xy_values

self.z_values = z_values

frames = max(xy_value.shape[0] for xy_value in xy_values)

self.lines = [ax.plot([], [], [], label=label, color=color, lw=2)[0]

for _, label, color in zip_longest(xy_values, labels, colors)]

self.points = [ax.plot([], [], [], color=color, markeredgewidth=1, markeredgecolor='black', marker='o')[0]

for _, color in zip_longest(xy_values, colors)]

# print(self.lines)

super(Visualization3D, self).__init__(fig, self.animate, init_func=self.init_animation, frames=frames,

interval=interval, blit=blit, **kwargs)

def init_animation(self):

# 数值初始化

for line in self.lines:

line.set_data_3d([], [], [])

for point in self.points:

point.set_data_3d([], [], [])

return self.points + self.lines

def animate(self, i):

# 将x,y,z三个数据传入,绘制三维图像

for line, xy_value, z_value in zip(self.lines, self.xy_values, self.z_values):

line.set_data_3d(xy_value[:i, 0], xy_value[:i, 1], z_value[:i])

for point, xy_value, z_value in zip(self.points, self.xy_values, self.z_values):

point.set_data_3d(xy_value[i, 0], xy_value[i, 1], z_value[i])

return self.points + self.lines

def train_f(model, optimizer, x_init, epoch):

x = x_init

all_x = []

losses = []

for i in range(epoch):

all_x.append(copy.deepcopy(x.numpy())) # 浅拷贝 改为 深拷贝, 否则List的原值会被改变。 Edit by David 2022.12.4.

loss = model(x)

losses.append(loss)

model.backward()

optimizer.step()

x = model.params['x']

return torch.Tensor(np.array(all_x)), losses

# 构建5个模型,分别配备不同的优化器

model1 = OptimizedFunction3D()

opt_gd = SimpleBatchGD(init_lr=0.05, model=model1)

model2 = OptimizedFunction3D()

opt_adagrad = Adagrad(init_lr=0.05, model=model2, epsilon=1e-7)

model3 = OptimizedFunction3D()

opt_rmsprop = RMSprop(init_lr=0.05, model=model3, beta=0.9, epsilon=1e-7)

model4 = OptimizedFunction3D()

opt_momentum = Momentum(init_lr=0.05, model=model4, rho=0.9)

model5 = OptimizedFunction3D()

opt_adam = Adam(init_lr=0.05, model=model5, beta1=0.9, beta2=0.99, epsilon=1e-7)

models = [model5, model2, model3, model4, model1]

opts = [opt_adam, opt_adagrad, opt_rmsprop, opt_momentum, opt_gd]

x_all_opts = []

z_all_opts = []

# 使用不同优化器训练

for model, opt in zip(models, opts):

x_init = torch.FloatTensor([0.00001, 0.5])

x_one_opt, z_one_opt = train_f(model, opt, x_init, 100) # epoch

# 保存参数值

x_all_opts.append(x_one_opt.numpy())

z_all_opts.append(np.squeeze(z_one_opt))

# 使用numpy.meshgrid生成x1,x2矩阵,矩阵的每一行为[-3, 3],以0.1为间隔的数值

x1 = np.arange(-1, 2, 0.01)

x2 = np.arange(-1, 1, 0.05)

x1, x2 = np.meshgrid(x1, x2)

init_x = torch.Tensor(np.array([x1, x2]))

model = OptimizedFunction3D()

# 绘制 f_3d函数 的 三维图像

fig = plt.figure()

ax = plt.axes(projection='3d')

X = init_x[0].numpy()

Y = init_x[1].numpy()

Z = model(init_x).numpy() # 改为 model(init_x).numpy() David 2022.12.4

surf = ax.plot_surface(X, Y, Z, edgecolor='grey', cmap=cm.coolwarm)

# fig.colorbar(surf, shrink=0.5, aspect=1)

ax.set_zlim(-3, 2)

ax.set_xlabel('x1')

ax.set_ylabel('x2')

ax.set_zlabel('f(x1,x2)')

labels = ['Adam', 'AdaGrad', 'RMSprop', 'Momentum', 'SGD']

colors = ['#8B0000', '#0000FF', '#000000', '#008B00', '#FF0000']

animator = Visualization3D(*x_all_opts, z_values=z_all_opts, labels=labels, colors=colors, fig=fig, ax=ax)

ax.legend(loc='upper right')

plt.show()

下面是我跑出来的结果,还是没有轨迹, 然后开始找原因,发现在别被打脸学长的文章中也发现了相同的问题。学长说这是深拷贝和浅拷贝的问题,我根据学长给出的线索改了改我的代码,但是没有成功。

 既然提到了深拷贝和浅拷贝顺便就查了一下资料:

浅拷贝:

        浅拷贝是会将对象的每个属性进行依次复制,但是当对象的属性值是引用类型时,实质复制的是其引用,当引用指向的值改变时也会跟着变化。         可以使用 for in、 Object.assign、 扩展运算符 ... 、Array.prototype.slice()、Array.prototype.concat() 等

深拷贝:

        深拷贝和浅拷贝是针对复杂数据类型(对象及数组)来说的,浅拷贝只拷贝一层,而深拷贝是层层拷贝。

        深拷贝复制变量值,对于非基本类型的变量,则递归至基本类型变量后,再复制。 深拷贝后的对象与原来的对象是完全隔离的,互不影响,对一个对象的修改并不会影响另一个对象。

浅拷贝使用copy.copy()函数

深拷贝使用copy.deepcopy()函数

 只能先放一张老师的图分析各个算法的优缺点:

 

 由不同的指南针来对比不同的优化算法:

SGD:SGD就像拿着一个指南针在森林里走,每次只朝一个方向走一小步,但方向是随机的。因为每次都要看指南针,所以走得比较慢。

Adagrad:Adagrad就像有一个能快速调整方向的指南针。起初,可能会走得很快,但随着时间推移,方向调整得越来越小,走得也就慢了。因为指南针调整方向很快,所以走得比SGD快。

RMSprop:RMSprop就像有一个能记住之前方向的指南针。这样,你就不会突然大幅度改变方向,可以保持一个相对稳定的步伐。和Adagrad差不多,但更稳定。

Momentum:Momentum就像有一个可以预判的指南针。这个指南针不仅看当前的方向,还会历史方向预判下一个方向,这样就可以少做很多不必要的调整。虽然还是要看指南针,但因为预判的关系,走得比SGD和Adagrad/RMSprop都快。

Nesterov:Nesterov就像有一个超级聪明的指南针,它不仅预判方向,还会考虑到未来的方向。这样就可以少走弯路。比Momentum更快,因为它更聪明。

Adam:Adam就像你有一个超级智能的指南针,它不仅预判方向,还会记住之前的方向和步幅。这样就可以走得更稳、更快。所以走得最快。

 啊啊啊啊啊啊!!为什么我的小球出不来!!!!!

参考链接:

【23-24 秋学期】NNDL 作业13 优化算法3D可视化-CSDN博客

NNDL实验 优化算法3D轨迹 复现cs231经典动画_深度学习 优化算法 动画展示-CSDN博客

理解深拷贝和浅拷贝-CSDN博客

NNDL 实验八 网络优化与正则化(3)不同优化算法比较_逐元素平方的公式表示-CSDN博客

NNDL 作业12 优化算法2D可视化-CSDN博客

相关链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: