Processing math: 100%

Welcome to Mashykom WebSite



Deep Learning における最適化手法


Last updated: 2020.4.17(first uploaded 2018.6.13)




勾配降下法と誤差逆伝播法(backward propagation)のPython 実装


 深層学習の基礎的理論の一つである勾配降下法を説明します。そして、この最適化アルゴリズムをpythonコードで実装してみたいと思います。

 勾配降下法をpythonに実装すると、以下のようになります。
  1.  
  2. import numpy as np
  3. import matplotlib.pylab as plt
  4.  
  5. def numerical_gradient(f, x):
  6. h = 1e-4 # 0.0001
  7. grad = np.zeros_like(x)
  8. for idx in range(x.size):
  9. tmp_val = x[idx]
  10. x[idx] = tmp_val + h
  11. fx1 = f(x)
  12. x[idx] = tmp_val - h
  13. fx2 = f(x)
  14. grad[idx] = (fx1 - fx2) / (2*h)
  15. return grad
  16.  
  17.  
  18. def gradient_descent(f, init_x, eta=0.01, ite_num=100):
  19. x = init_x
  20. x_history = []
  21.  
  22. for i in range(ite_num):
  23. x_history.append( x.copy() )
  24.  
  25. grad = numerical_gradient(f, x)
  26. x -= eta * grad
  27.  
  28. return x, np.array(x_history)
  29.  
  30.  
  31. def function_2(x):
  32. return (x[0] - 1)**2 + (x[1] - 2)**2
  33.  
  34. init_x = np.array([0.0, 0.0])
  35.  
  36. eta = 0.1
  37. ite_num = 20
  38. x, x_history = gradient_descent(function_2, init_x, eta, ite_num)
  39.  
  40. plt.plot( [-5, 5], [2,2], '--b')
  41. plt.plot( [1,1], [-5, 5], '--b')
  42. plt.plot(x_history[:,0], x_history[:,1], 'o')
  43.  
  44. plt.xlim(-3.5, 3.5)
  45. plt.ylim(-4.5, 4.5)
  46. plt.xlabel("X0")
  47. plt.ylabel("X1")
  48. plt.show()
  49.  

このpythonコードを実行すると、探索過程が表示されて、点(1,2)に到達することが確認できます。

 CNNの学習は損失関数L(w)を最小化する重みパラメータwの最小化点を見出す問題です。勾配降下法を用いた学習過程は w(j+1)=w(j)ηL(w)w と表現できます。損失関数の偏微分値を計算するために提案された手法の一つが逆伝播法(back propagation)と呼ばれる方法です。CNNの出力は入力サイドからネットワークの順方法に沿って、つまり、左側から右側方向に順次計算を積み上げていきます。偏微分値の計算でネットワークの右側から左側に向かって、つまり、逆方向に計算を積み上げて行く方法を逆伝播法と言います。以下の説明は、数学が不得意な人には難しいかもしれません。スキップして読んでください。

 逆伝播法の基本は合成関数の微分法での連鎖律です。例えば、 z=f(u)=u2u=g(x,y)=x+y とします。このとき、連鎖律 zx=f(u)ug(x,y)x が成立します。その結果、 zx=2(x+y) と計算されます。

 ニューラルネットワークにおける個別層での入力信号の重みを w=(w1,w2...,wm)とし、入力信号を x=(x1,x2,...,xm) として、活性化関数をϕとすると、このネットワークの出力は z=ϕ(u)u=w1x1+w2x2+...+wmxm と表現されます。このネットワークに上での連鎖率を利用すると、重みパラメータによる偏微分計算は zwi=ϕ(u)uuwi, i=1,2,...,m となります。逆伝播法による偏微分の計算は、ネットワークの終端から上流(左側)に遡上して計算を積み上げること、つまり、ネットワークの終端にある層の活性化関数の偏微分ϕ(u)uを計算して、その結果を前の層の偏微分の結果uwiに乗じるという手順に従うことを意味します。具体的に、活性化関数を ϕ(u)=11+exp(u) というsigmoid関数とすると、 ϕ(u)u=exp(u)(1+exp(u))2=(1ϕ(u))ϕ(u) となることが知られているので、 zwi=(1ϕ(u))ϕ(u)xi, i=1,2,...,m と計算されます。このような個々のネットワークでの計算をCNN全体に適用して、CNN全体での重みパラメータの偏微分値を計算します。 ネットワークの回路図を用いた説明は、スタンフォード大学のサイト http://cs231n.github.io/にあります。

 Sigmoid関数の偏微分の計算をpythonで実装すると、以下のようになります。
  1. import numpy as np
  2.  
  3. class Sigmoid:
  4. def __init__(self):
  5. self.out = None
  6.  
  7. def forward(self, x):
  8. out = 1/(1 + np.exp(-x))
  9. self.out = out
  10. return out
  11.  
  12. def backward(self, dout):
  13. dx = dout * (1.0 - self.out) * self.out
  14.  
  15. return dx
  16.  

 また、全結合層の逆伝播法による偏微分計算はpythonコードで
  1.  
  2. class Dense_layer:
  3. def __init__(self, W, b):
  4. self.W =W
  5. self.b = b
  6. self.x = None
  7. self.dW = None
  8. self.db = None
  9.  
  10. def forward(self, x):
  11. self.x = x
  12. out = np.dot(self.x, self.W) + self.b
  13.  
  14. return out
  15.  
  16. def backward(self, dout):
  17. dx = np.dot(dout, self.W.T)
  18. self.dW = np.dot(self.x.T, dout)
  19. self.db = np.sum(dout, axis=0)
  20. return dx
  21.  

と実装されます。これらのpythonコードの実装については、斎藤康毅著『ゼロから作るDeep Learning』(オライリー・ジャパン社)などの参考書を参照してください。

確率的勾配降下法(SGD)のPython 実装


 ミニバッチ方式で勾配降下法を使用するアルゴリズムを確率的勾配降下法(SGD)と言います。Deep Learningで用いられる最適化手法には、SGDの他に、AdaDelta、Adam、Momentum、Nesterov、RMSPropと呼ばれるアルゴリズムがあります。いずれにしても、損失関数の勾配(偏微分値)を使用します。

 ここでは、確率的勾配降下法(SGD)のPython実装の例を紹介します。偏微分計算をするモジュールを grad として、paramsをネットワークの重みとするとき、以下のような形式になります。

  1.  
  2. import numpy as np
  3.  
  4. class SGD:
  5.  
  6. """確率的勾配降下法(Stochastic Gradient Descent)"""
  7.  
  8. def __init__(self, lr=0.01):
  9. self.lr = lr
  10. def update(self, params, grads):
  11. for key in params.keys():
  12. params[key] -= self.lr * grads[key]
  13.  
  14. optimizer = SGD()
  15.  
  16. ---
  17.  
  18. for i in range(300):
  19. grads['x'], grads['y'] = grad(params['x'], params['y'])
  20. optimizer.update(params, grads)
  21.  
  22. ---
  23.  

 機械学習で使用されているPython API には、こうした最適化関数のモジュールと微分計算のモジュールが準備されています。ちなみに、以下の例はPyTorchにおける最適関数の利用方法となります。loss.backward()は逆伝播法による微分計算の実行を表現します。nn.MSELoss()は平均二乗誤差法による損失関数を呼び出します。

  1.  
  2. def main(opt_type):
  3. loss_list = []
  4. # データの作成
  5. x = torch.randn(1, 10)
  6. w = torch.randn(1, 1)
  7. y = torch.mul(w, x) +2
  8.  
  9. # ネットワークの定義
  10. net = Net()
  11.  
  12. # 損失関数
  13. criterion = nn.MSELoss()
  14.  
  15. # 最適化関数の指定
  16. if opt_type == "SGD":
  17. optimizer = optim.SGD(net.parameters(), lr=0.1)
  18. elif opt_type == "Momentum":
  19. optimizer = optim.SGD(net.parameters(), lr=0.1, momentum=0.9)
  20. elif opt_type == "Adadelta":
  21. optimizer = optim.Adadelta(net.parameters(), rho=0.95, eps=1e-04)
  22. elif opt_type == "Adagrad":
  23. optimizer = optim.Adagrad(net.parameters())
  24. elif opt_type == "Adam":
  25. optimizer = optim.Adam(net.parameters(), lr=1e-1, betas=(0.9, 0.99), eps=1e-09)
  26. elif opt_type == "RMSprop":
  27. optimizer = optim.RMSprop(net.parameters())
  28. # 学習ループ
  29. for epoch in range(20):
  30. optimizer.zero_grad()
  31. y_pred = net(x)
  32.  
  33. loss = criterion(y_pred, y)
  34. loss.backward()
  35.  
  36. optimizer.step()
  37.  
  38. loss_list.append(loss.data.item())
  39. return loss_list
  40.  
  41.  
  42. loss_hist = main('SGD')
  43.  

 この例からわかるように、opt_type を具体的に指定することによって、主要な最適化関数が利用できます。詳しくは、PyTorchの公式ページを参照ください。同じように、TensorFlowの tf.keras.optimizer モジュールにも、以下の通り、主要な最適化関数の9種類が用意されています。

詳しくは、TensorFlowのTutorialsを参照ください。

Deep Learningのページへ戻る


トップページへ