程序员最近都爱上了这个网站  程序员们快来瞅瞅吧!  it98k网:it98k.com

本站消息

站长简介/公众号

  出租广告位,需要合作请联系站长

+关注
已关注

分类  

暂无分类

标签  

暂无标签

日期归档  

2023-06(1)

面试准备篇之算法岗

发布于2019-08-07 13:03     阅读(553)     评论(0)     点赞(2)     收藏(1)


简介

在这里记录自己准备找工作的历程,接下来的半年会根据自己的学习和成长来更新。。。

一、语言基础知识准备

(1) C++

C++入门教程,C++基础教程《C++小白变怪兽》

  1. 第一章 从C到C++

(2) Python

基础教程

廖雪峰Python

python parser模块

parser模块

二、算法与数据结构基础知识准备

(一)刷题专栏

leetcode 刷题专栏

(二)算法基础

排序算法

  1. 选择排序(selectionsort)

(三)数据结构基础

树结构

  1. 二叉查找树之C++实现
  2. 二叉查找树之删除节点
  3. 红黑树(一)之小白入门

三、计算机网络和操作系统基础知识准备

四、线性代数和概率论基础知识准备

五、机器学习基础知识准备

六、深度学习基础知识准备

1、基础知识

(1)DenseNet和ResNet的对比

2、梯度消失和梯度爆炸

(1)方案1-预训练加微调
(2)方案2-梯度剪切、正则
(3)方案3-relu、leakrelu、elu等激活函数
(4)方案4-batchnorm
(5)方案5-残差结构
(6)方案6-LSTM
参考链接1
参考链接2
深入理解L1、L2范数

3、过拟合与欠拟合

4、CNN pooling层、Dropout算梯度反向更新参数(顺便思考一下deformable conv怎么实现的)

pooling层

无论max pooling还是mean pooling,都没有需要学习的参数。因此,在卷积神经网络的训练中,Pooling层需要做的仅仅是将误差项传递到上一层,而没有梯度的计算。
(1)max pooling层:对于max pooling,下一层的误差项的值会原封不动的传递到上一层对应区块中的最大值所对应的神经元,而其他神经元的误差项的值都是0;
(2)mean pooling层:对于mean pooling,下一层的误差项的值会平均分配到上一层对应区块中的所有神经元

Dropout

Dropout详解1

5、深度学习中的归一化问题 (BatchNorm)

归一化问题详解1



所属网站分类: 技术文章 > 博客

作者:我就是喜欢你

链接:https://www.pythonheidong.com/blog/article/11121/2f9ce4c51c6a3714e3a7/

来源:python黑洞网

任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任

2 0
收藏该文
已收藏

评论内容:(最多支持255个字符)