发布于2019-08-07 13:03 阅读(553) 评论(0) 点赞(2) 收藏(1)
在这里记录自己准备找工作的历程,接下来的半年会根据自己的学习和成长来更新。。。
(1)方案1-预训练加微调
(2)方案2-梯度剪切、正则
(3)方案3-relu、leakrelu、elu等激活函数
(4)方案4-batchnorm
(5)方案5-残差结构
(6)方案6-LSTM
参考链接1
参考链接2
深入理解L1、L2范数
无论max pooling还是mean pooling,都没有需要学习的参数。因此,在卷积神经网络的训练中,Pooling层需要做的仅仅是将误差项传递到上一层,而没有梯度的计算。
(1)max pooling层:对于max pooling,下一层的误差项的值会原封不动的传递到上一层对应区块中的最大值所对应的神经元,而其他神经元的误差项的值都是0;
(2)mean pooling层:对于mean pooling,下一层的误差项的值会平均分配到上一层对应区块中的所有神经元
作者:我就是喜欢你
链接:https://www.pythonheidong.com/blog/article/11121/2f9ce4c51c6a3714e3a7/
来源:python黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 python黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-1
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!