发布于2019-08-17 21:37 阅读(1497) 评论(0) 点赞(3) 收藏(3)
1、ResNet残差网络的bottlenet结构
代码编写如下:
regul = regularizers.l2(l2)
optim = Adam(lr=lr)
kwargs = {'padding':'same', 'kernel_regularizer':regul}
bottlenet:
def subblock(x, filter, **kwargs):
x = BatchNormalization()(x)
y = x
y = Conv2D(filter, (1, 1), activation='relu', **kwargs)(y) # 减少特征数量
y = BatchNormalization()(y)
y = Conv2D(filter, (3, 3), activation='relu', **kwargs)(y) # 扩展特征域
y = BatchNormalization()(y)
y = Conv2D(K.int_shape(x)[-1], (1, 1), **kwargs)(y) # 无激活函数 # 恢复原始特征的数量
y = Add()([x,y]) # Add the bypass connection
y = Activation('relu')(y)
return y
当然还有conv block如下图:
2、网络层数
我们所说的网络层数,主要指的是Conv的层和fc全连接层,如下图的VGG19网络
作者:83whjh
链接:https://www.pythonheidong.com/blog/article/48478/89185daac5af23228bf4/
来源:python黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 python黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-1
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!