He初始化+relu+softmax+交叉熵+卷积核,才是cnn,我们推导的公式:
=
*
*
*
*
=(p【k】-y【k】)*drelu(yi[k])*w2[j, k]*drelu(hi[j])*x【i】
只能满足:He初始化+relu+softmax+交叉熵。
我们参考:
cnn突破七(四层bpnet网络公式与卷积核bpnet公式相关)_四层神经网络的输出公式-CSDN博客
中公式:
=
=(yo[k]-d[k])*ds(yo[k])*w2【m,k】*ds(h2o[m])*w12【j,m】*ds(hocnn[j])*x[i->?]
才能推导出he初始化+relu+softmax+交叉熵+卷积核=cnn公式:,这才是cnn
我们现在就x【i】使用卷积核的三层网络,我们把上面公式红色合并,变三层:
即: =
(yo[k]-d[k])*ds(yo[k])*w2【j,k】*ds(hocnn[j])*x[i->?]
这是sigmoid推到的,relu的呢?如下:
=
(p【k】-y【k】)*drelu(yi[k])*w2[j, k]*drelu(hi[j])*x【?】
现在w1cnn变成一个卷积核了,x不知道取什么值了,就是这个问题。
实际上,我们前面卷积核cnn中找x【?】的方法,一模一样,一个代码都不用改!
里边只改动e初始化+relu+softmax+交叉熵即可!
这就是站在自己肩上的好处!先实验1个卷积核,ok,再扩展!
我是直接在自己的八个卷积核上实验,ok
轻松上97分,今天见到98.1了!
我使用28*28gaos后,获得14*14图像作为网络输入,用了8个5*5 的卷积核!
14*14*8-》10*10*8-》5*5*8-》80-》10
上个图,庆祝一下!: