神经网络一——综述

Hilton大牛的神经网络公开课已经基本刷完了。看了下网上关于这门公开课的资料,觉得都比较少或者不够全面,因此写一个关于神经网络的系列文章,内容可能包括但不局限于Hilton的神经网络。

本片只是个立坑贴,不准备讲什么实际的东西。神经网络从感知机开始,到BP,然后到CNN,RNN,DBN,个人感觉整个深度学习的研究反向主要分为三种:

  1. 基础的改进,包括损失函数如交叉熵,激活函数如ReLU等等
  2. 网络结构的改进。CNN和RNN都是权值共享的具体应用,只不过输入feature的不同决定了网络权值共享的方式。当然,从Hopfield到RBM走的是直接砍边的方式。
  3. 训练方式的改进。主要包括一系列梯度下降的改进如AdaGrad,prop,rmsprop以及一些其他的改进如batch normalization等等

后面的博客会基本采用这种方式,按照基础->网络结构->训练方式进行介绍。如果有希望先看到的部分,也可以留言(╮( ̄▽ ̄”)╭虽然感觉不会有什么人留言的样子。。。。)
就这样吧