Deeplearning Algorithms tutorial

谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹果业已开始全面拥抱机器学习,新产品进军家庭智能音箱并打造工作站级别Mac。另外,腾讯的深度学习平台Mariana已支持了微信语音识别的语音输入法、语音开放平台、长按语音消息转文本等产品,在微信图像识别中开始应用。全球前十大科技公司全部发力人工智能理论研究和应用的实现,虽然入门艰难,但是一旦入门,高手也就在你的不远处!

机器学习主要有三种方式:监督学习,无监督学习与半监督学习。

(1)监督学习:从给定的训练数据集中学习出一个函数,当新的数据输入时,可以根据函数预测相应的结果。监督学习的训练集要求是包括输入和输出,也就是特征和目标。训练集中的目标是有标注的。如今机器学习已固有的监督学习算法有可以进行分类的,例如贝叶斯分类,SVM,ID3,C4.5以及分类决策树,以及现在最火热的人工神经网络,例如BP神经网络,RBF神经网络,Hopfield神经网络、深度信念网络和卷积神经网络等。人工神经网络是模拟人大脑的思考方式来进行分析,在人工神经网络中有显层,隐层以及输出层,而每一层都会有神经元,神经元的状态或开启或关闭,这取决于大数据。同样监督机器学习算法也可以作回归,最常用便是逻辑回归。

(2)无监督学习:与有监督学习相比,无监督学习的训练集的类标号是未知的,并且要学习的类的个数或集合可能事先不知道。常见的无监督学习算法包括聚类和关联,例如K均值法、Apriori算法。

(3)半监督学习:介于监督学习和无监督学习之间,例如EM算法。

如今的机器学习领域主要的研究工作在三个方面进行:1)面向任务的研究,研究和分析改进一组预定任务的执行性能的学习系统;2)认知模型,研究人类学习过程并进行计算模拟;3)理论的分析,从理论的层面探索可能的算法和独立的应用领域算法。

反向传播(Backpropagation)

反向传播(Backpropagation,缩写为BP)是“误差反向传播”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法对网络中所有权重计算损失函数(Loss Function)的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。 反向传播要求有对每个输入值想得到的已知输出,来计算损失函数梯度。因此,它通常被认为是一种监督式学习方法,虽然它也用在一些无监督网络(如自动编码器Autoencoder)中。它是多层前馈网络的Delta规则(Delta Rule)的推广,可以用链式法则对每层迭代计算梯度。反向传播要求人工神经元(Artificial Neuron)(或“节点”)的激励函数可微。

反向传播模型,是一种用于前向多层的反向传播学习算法。之所以称它是一种学习方法,是因为用它可以对组成前向多层网络的各人工神经元之间的连接权值进行不断的修改,从而使该前向多层网络能够将输入它的信息变换成所期望的输出信息。之所以将其称作为反向学习算法,是因为在修改各人工神经元的连接权值时,所依据的是该网络的实际输出与其期望的输出之差,将这一差值反向一层一层的向回传播,来决定连接权值的修改。

B-P算法的网络结构是一个前向多层网络,其基本思想是,学习过程由信号的正向传播与误差的反向传播两个过程组成。正向传播时,输入样本从输入层传入,经隐含层逐层处理后,传向输出层。若输出层的实际输出与期望输出不符,则转向误差的反向传播阶段。误差的反向传播是将输出误差以某种形式通过隐层向输入层逐层反传,并将误差分摊给各层的所有单元,从而获得各层单元的误差信号,此误差信号即作为修正各单元权值的依据。这种信号正向传播与误差反向传播的各层权值调整过程,是周而复始地进行。权值不断调整过程,也就是网络的学习训练过程。此过程一直进行到网络输出的误差减少到可以接受的程度,或进行到预先设定的学习次数为止。

BP网络的拓扑结构包括输入层、隐层和输出层,它能够在事先不知道输入输出具体数学表达式的情况下,通过学习来存储这种复杂的映射关系.其网络中参数的学习通常采用反向传播的策略,借助最速梯度信息来寻找使网络误差最小化的参数组合.常见的3层BP网络模型如图所示

反向传播(Backpropagation) - 图1

任何监督式学习算法的目标是找到一个能把一组输入最好地映射到其正确的输出的函数。例如一个简单的分类任务,其中输入是动物的图像,正确的输出将是动物的名称。一些输入和输出模式可以很容易地通过单层神经网络(如感知器)学习。但是这些单层的感知机不能学习一些比较简单的模式,例如那些非线性可分的模式。例如,人可以通过识别动物的图像的某些特征进行分类,例如肢的数目,皮肤的纹理(无论是毛皮,羽毛,鳞片等),该动物的体型,以及种种其他特征。但是,单层神经网络必须仅仅使用图像中的像素的强度来学习一个输出一个标签函数。因为它被限制为仅具有一个层,所以没有办法从输入中学习到任何抽象特征。多层的网络克服了这一限制,因为它可以创建内部表示,并在每一层学习不同的特征。第一层可能负责从图像的单个像素的输入学习线条的走向。第二层可能就会结合第一层所学并学习识别简单形状(如圆形)。每升高一层就学习越来越多的抽象特征,如上文提到的用来图像分类。每一层都是从它下方的层中找到模式,就是这种能力创建了独立于为多层网络提供能量的外界输入的内部表达形式。 反向传播算法的发展的目标和动机是找到一种训练的多层神经网络的方法,于是它可以学习合适的内部表达来让它学习任意的输入到输出的映射。

反向传播算法(BP算法)主要由两个阶段:激励传播与权重更新.

  • 第1阶段:激励传播

每次迭代中的传播环节包含两步:

  • 1.(前向传播阶段)将训练输入送入网络以获得激励响应;
  • 2.(反向传播阶段)将激励响应同训练输入对应的目标输出求差,从而获得隐层和输出层的响应误差。

  • 第2阶段:权重更新

对于每个突触上的权重,按照以下步骤进行更新:

  • 1.将输入激励和响应误差相乘,从而获得权重的梯度;
  • 2.将这个梯度乘上一个比例并取反后加到权重上。 这个比例(百分比)将会影响到训练过程的速度和效果,因此称为“训练因子”。梯度的方向指明了误差扩大的方向,因此在更新权重的时候需要对其取反,从而减小权重引起的误差。

第1和第2阶段可以反复循环迭代,直到网络的对输入的响应达到满意的预定的目标范围为止。

三层网络算法(只有一个隐藏层):

  • 输入x:计算输入层相应的激活函数值反向传播(Backpropagation) - 图2
  • 正向传播:对每个反向传播(Backpropagation) - 图3计算反向传播(Backpropagation) - 图4反向传播(Backpropagation) - 图5
  • 输出误差反向传播(Backpropagation) - 图6 :计算向量反向传播(Backpropagation) - 图7
  • 将误差反向传播:对每个反向传播(Backpropagation) - 图8,反向传播(Backpropagation) - 图9 计算反向传播(Backpropagation) - 图10
  • 输出:代价函数的梯度为反向传播(Backpropagation) - 图11反向传播(Backpropagation) - 图12

这个算法的名称意味着误差会从输出结点反向传播到输入结点。严格地讲,反向传播算法对网络的可修改权值计算了网络误差的梯度。[2] 这个梯度会在简单随机梯度下降法中经常用来求最小化误差的权重。通常“反向传播”这个词使用更一般的含义,用来指涵盖了计算梯度以及在随机梯度下降法中使用的整个过程。在适用反向传播算法的网络中,它通常可以快速收敛到令人满意的极小值。 BP网络都是多层感知机(通常都会有一个输入层、一个隐藏层及一个输出层)。为了使隐藏层能够适合所有有用的函数,多层网络必须具有用于多个层的非线性激活函数:仅用线性激活函数的多层网络会与相当于单层线性网络。常用的非线性激活函数有逻辑函数、柔性最大函数和高斯函数。 用反向传播算法求梯度已被重新发现多次,是更加一般的自动微分技术在反向积累模式的特例。 它也与高斯-牛顿算法密切相关,也是继续研究神经反向传播的一部分。

反向传播(Backpropagation) - 图13

由于反向传播使用梯度下降法,需要计算平方误差函数对网络权重的导数。假设对于一个输出神经元,平方误差函数为:

反向传播(Backpropagation) - 图14

其中E 为平方误差,t 为训练样本的目标输出,y 为输出神经元的实际输出。 加入系数反向传播(Backpropagation) - 图15是为了抵消微分出来的指数。之后,该表达式会乘以一个任意的学习速率,因此在这里乘上一个常系数是没有关系的。 对每个神经元j,它的输出反向传播(Backpropagation) - 图16 定义为

反向传播(Backpropagation) - 图17

通向一个神经元的输入反向传播(Backpropagation) - 图18 是之前神经元的输出反向传播(Backpropagation) - 图19 的加权和。若该神经元输出层后的第一层,输入层的输出反向传播(Backpropagation) - 图20 就是网络的输入反向传播(Backpropagation) - 图21。该神经元的输入数量是n。变反向传播(Backpropagation) - 图22表示神经元i 与j 之间的权重。

激活函数反向传播(Backpropagation) - 图23一般是非线性可微函数。常用作激活函数的是逻辑函数:

反向传播(Backpropagation) - 图24

其导数的形式很好:

反向传播(Backpropagation) - 图25

求误差的导数

计算误差对权重反向传播(Backpropagation) - 图26的偏导数是两次使用链式法则得到的:

反向传播(Backpropagation) - 图27

在右边的最后一项中,只有加权和反向传播(Backpropagation) - 图28取决于反向传播(Backpropagation) - 图29,因此:

反向传播(Backpropagation) - 图30

神经元j 的输出对其输入的导数就是激活函数的偏导数(这里假定使用逻辑函数):

反向传播(Backpropagation) - 图31

这就是为什么反向传播需要的激活函数是可微的。 如果神经元在输出层中,因为此时反向传播(Backpropagation) - 图32以及

反向传播(Backpropagation) - 图33

所以第一项可以直接算出。 但如果j 是网络中任一内层,求E关于反向传播(Backpropagation) - 图34的导数就不太简单了。 考虑E为接受来自神经元j的输入的所有神经元反向传播(Backpropagation) - 图35的输入的函数,

反向传播(Backpropagation) - 图36

并关于反向传播(Backpropagation) - 图37取全微分,可以得到该导数的一个递归表达式:

反向传播(Backpropagation) - 图38

因此,若已知所有关于下一层(更接近输出神经元的一层)的输出反向传播(Backpropagation) - 图39的导数,则可以计算反向传播(Backpropagation) - 图40的导数。 把它们放在一起:

反向传播(Backpropagation) - 图41

其中:

反向传播(Backpropagation) - 图42

要使用梯度下降法更新反向传播(Backpropagation) - 图43,必须选择一个学习速率a。要加在原本的权重上的权重的变化,等于学习速率与梯度的乘积,乘以-1:

反向传播(Backpropagation) - 图44

之所以要乘以-1 是因为要更新误差函数极小值而不是极大值的方向。对于单层网络,这个表达式变为Delta规则。

应用示例

  1. import random
  2. import math
  3. # 参数解释:
  4. # "pd_" :偏导的前缀
  5. # "d_" :导数的前缀
  6. # "w_ho" :隐含层到输出层的权重系数索引
  7. # "w_ih" :输入层到隐含层的权重系数的索引
  8. class NeuralNetwork:
  9. LEARNING_RATE = 0.5
  10. def __init__(self, num_inputs, num_hidden, num_outputs, hidden_layer_weights = None, hidden_layer_bias = None, output_layer_weights = None, output_layer_bias = None):
  11. self.num_inputs = num_inputs
  12. self.hidden_layer = NeuronLayer(num_hidden, hidden_layer_bias)
  13. self.output_layer = NeuronLayer(num_outputs, output_layer_bias)
  14. self.init_weights_from_inputs_to_hidden_layer_neurons(hidden_layer_weights)
  15. self.init_weights_from_hidden_layer_neurons_to_output_layer_neurons(output_layer_weights)
  16. def init_weights_from_inputs_to_hidden_layer_neurons(self, hidden_layer_weights):
  17. weight_num = 0
  18. for h in range(len(self.hidden_layer.neurons)):
  19. for i in range(self.num_inputs):
  20. if not hidden_layer_weights:
  21. self.hidden_layer.neurons[h].weights.append(random.random())
  22. else:
  23. self.hidden_layer.neurons[h].weights.append(hidden_layer_weights[weight_num])
  24. weight_num += 1
  25. def init_weights_from_hidden_layer_neurons_to_output_layer_neurons(self, output_layer_weights):
  26. weight_num = 0
  27. for o in range(len(self.output_layer.neurons)):
  28. for h in range(len(self.hidden_layer.neurons)):
  29. if not output_layer_weights:
  30. self.output_layer.neurons[o].weights.append(random.random())
  31. else:
  32. self.output_layer.neurons[o].weights.append(output_layer_weights[weight_num])
  33. weight_num += 1
  34. def inspect(self):
  35. print('------')
  36. print('* Inputs: {}'.format(self.num_inputs))
  37. print('------')
  38. print('Hidden Layer')
  39. self.hidden_layer.inspect()
  40. print('------')
  41. print('* Output Layer')
  42. self.output_layer.inspect()
  43. print('------')
  44. def feed_forward(self, inputs):
  45. hidden_layer_outputs = self.hidden_layer.feed_forward(inputs)
  46. return self.output_layer.feed_forward(hidden_layer_outputs)
  47. def train(self, training_inputs, training_outputs):
  48. self.feed_forward(training_inputs)
  49. # 1. 输出神经元的值
  50. pd_errors_wrt_output_neuron_total_net_input = [0] * len(self.output_layer.neurons)
  51. for o in range(len(self.output_layer.neurons)):
  52. # ∂E/∂zⱼ
  53. pd_errors_wrt_output_neuron_total_net_input[o] = self.output_layer.neurons[o].calculate_pd_error_wrt_total_net_input(training_outputs[o])
  54. # 2. 隐含层神经元的值
  55. pd_errors_wrt_hidden_neuron_total_net_input = [0] * len(self.hidden_layer.neurons)
  56. for h in range(len(self.hidden_layer.neurons)):
  57. # dE/dyⱼ = Σ ∂E/∂zⱼ * ∂z/∂yⱼ = Σ ∂E/∂zⱼ * wᵢⱼ
  58. d_error_wrt_hidden_neuron_output = 0
  59. for o in range(len(self.output_layer.neurons)):
  60. d_error_wrt_hidden_neuron_output += pd_errors_wrt_output_neuron_total_net_input[o] * self.output_layer.neurons[o].weights[h]
  61. # ∂E/∂zⱼ = dE/dyⱼ * ∂zⱼ/∂
  62. pd_errors_wrt_hidden_neuron_total_net_input[h] = d_error_wrt_hidden_neuron_output * self.hidden_layer.neurons[h].calculate_pd_total_net_input_wrt_input()
  63. # 3. 更新输出层权重系数
  64. for o in range(len(self.output_layer.neurons)):
  65. for w_ho in range(len(self.output_layer.neurons[o].weights)):
  66. # ∂Eⱼ/∂wᵢⱼ = ∂E/∂zⱼ * ∂zⱼ/∂wᵢⱼ
  67. pd_error_wrt_weight = pd_errors_wrt_output_neuron_total_net_input[o] * self.output_layer.neurons[o].calculate_pd_total_net_input_wrt_weight(w_ho)
  68. # Δw = α * ∂Eⱼ/∂wᵢ
  69. self.output_layer.neurons[o].weights[w_ho] -= self.LEARNING_RATE * pd_error_wrt_weight
  70. # 4. 更新隐含层的权重系数
  71. for h in range(len(self.hidden_layer.neurons)):
  72. for w_ih in range(len(self.hidden_layer.neurons[h].weights)):
  73. # ∂Eⱼ/∂wᵢ = ∂E/∂zⱼ * ∂zⱼ/∂wᵢ
  74. pd_error_wrt_weight = pd_errors_wrt_hidden_neuron_total_net_input[h] * self.hidden_layer.neurons[h].calculate_pd_total_net_input_wrt_weight(w_ih)
  75. # Δw = α * ∂Eⱼ/∂wᵢ
  76. self.hidden_layer.neurons[h].weights[w_ih] -= self.LEARNING_RATE * pd_error_wrt_weight
  77. def calculate_total_error(self, training_sets):
  78. total_error = 0
  79. for t in range(len(training_sets)):
  80. training_inputs, training_outputs = training_sets[t]
  81. self.feed_forward(training_inputs)
  82. for o in range(len(training_outputs)):
  83. total_error += self.output_layer.neurons[o].calculate_error(training_outputs[o])
  84. return total_error
  85. class NeuronLayer:
  86. def __init__(self, num_neurons, bias):
  87. # 同一层的神经元共享一个截距项b
  88. self.bias = bias if bias else random.random()
  89. self.neurons = []
  90. for i in range(num_neurons):
  91. self.neurons.append(Neuron(self.bias))
  92. def inspect(self):
  93. print('Neurons:', len(self.neurons))
  94. for n in range(len(self.neurons)):
  95. print(' Neuron', n)
  96. for w in range(len(self.neurons[n].weights)):
  97. print(' Weight:', self.neurons[n].weights[w])
  98. print(' Bias:', self.bias)
  99. def feed_forward(self, inputs):
  100. outputs = []
  101. for neuron in self.neurons:
  102. outputs.append(neuron.calculate_output(inputs))
  103. return outputs
  104. def get_outputs(self):
  105. outputs = []
  106. for neuron in self.neurons:
  107. outputs.append(neuron.output)
  108. return outputs
  109. class Neuron:
  110. def __init__(self, bias):
  111. self.bias = bias
  112. self.weights = []
  113. def calculate_output(self, inputs):
  114. self.inputs = inputs
  115. self.output = self.squash(self.calculate_total_net_input())
  116. return self.output
  117. def calculate_total_net_input(self):
  118. total = 0
  119. for i in range(len(self.inputs)):
  120. total += self.inputs[i] * self.weights[i]
  121. return total + self.bias
  122. # 激活函数sigmoid
  123. def squash(self, total_net_input):
  124. return 1 / (1 + math.exp(-total_net_input))
  125. def calculate_pd_error_wrt_total_net_input(self, target_output):
  126. return self.calculate_pd_error_wrt_output(target_output) * self.calculate_pd_total_net_input_wrt_input();
  127. # 每一个神经元的误差是由平方差公式计算的
  128. def calculate_error(self, target_output):
  129. return 0.5 * (target_output - self.output) ** 2
  130. def calculate_pd_error_wrt_output(self, target_output):
  131. return -(target_output - self.output)
  132. def calculate_pd_total_net_input_wrt_input(self):
  133. return self.output * (1 - self.output)
  134. def calculate_pd_total_net_input_wrt_weight(self, index):
  135. return self.inputs[index]
  136. # 示例:
  137. nn = NeuralNetwork(2, 2, 2, hidden_layer_weights=[0.15, 0.2, 0.25, 0.3], hidden_layer_bias=0.35, output_layer_weights=[0.4, 0.45, 0.5, 0.55], output_layer_bias=0.6)
  138. for i in range(10000):
  139. nn.train([0.05, 0.1], [0.01, 0.09])
  140. print(i, round(nn.calculate_total_error([[[0.05, 0.1], [0.01, 0.09]]]), 9))
  141. #另外一个例子,可以把上面的例子注释掉再运行一下:
  142. # training_sets = [
  143. # [[0, 0], [0]],
  144. # [[0, 1], [1]],
  145. # [[1, 0], [1]],
  146. # [[1, 1], [0]]
  147. # ]
  148. # nn = NeuralNetwork(len(training_sets[0][0]), 5, len(training_sets[0][1]))
  149. # for i in range(10000):
  150. # training_inputs, training_outputs = random.choice(training_sets)
  151. # nn.train(training_inputs, training_outputs)
  152. # print(i, nn.calculate_total_error(training_sets))