首发于机器学习
计算机视觉知识点总结

计算机视觉知识点总结

最近会细化专栏的内容,以后有关计算机视觉的文章会分享在计算机视觉专栏上,欢迎有兴趣的朋友关注

计算机视觉zhuanlan.zhihu.com图标
目录
0 计算机视觉四大基本任务
1 经典卷积网络
2 卷积、空洞卷积
3 正则化
4 全卷积网络
5 1*1卷积核
6 感受野
7 常见损失
8 优化算法
9 concat 和 add的区别
10 注意力机制
11 CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)
12 边框回归
13 非极大值回归(NMS, Soft NMS)
14 激活函数
15 评价指标
16 batch size的选择
17 Graph Convolutional Network(GCN)
18 详解深度学习中的梯度消失、爆炸原因及其解决方法
19 网络权重初始化
其他

0 计算机视觉四大基本任务

张皓:(二)计算机视觉四大基本任务(分类、定位、检测、分割)zhuanlan.zhihu.com图标
  • 目标检测解读汇总
JustDoIT:目标检测论文及解读汇总zhuanlan.zhihu.com图标
  • 图像语义分割综述
stone:图像语义分割综述zhuanlan.zhihu.com图标

1 经典卷积网络

SIGAI:深度卷积神经网络演化历史及结构改进脉络-40页长文全面解读zhuanlan.zhihu.com图标
  • AlexNet
从AlexNet理解卷积神经网络的一般结构blog.csdn.net
  • VGG
【深度学习】经典神经网络 VGG 论文解读blog.csdn.net
深度学习之基础模型-VGGblog.csdn.net
  • GoogleNet
深度学习卷积神经网络--经典网络GoogLeNet(Inception V3)网络的搭建与实现blog.csdn.net
  • ResNet
ResNet解析 - lanran2的博客 - CSDN博客blog.csdn.net
ResNetV2:ResNet深度解析 - lanran2的博客 - CSDN博客blog.csdn.net
Resnet到底在解决一个什么问题呢?www.zhihu.com图标
  • Xception
Xception算法详解blog.csdn.net
  • DenseNet
DenseNet算法详解blog.csdn.net
  • DetNet
旷视科技:旷视科技提出物体检测专用Backbone——DetNetzhuanlan.zhihu.com图标
  • ShuffleNet
小小将:ShuffleNetV2:轻量级CNN网络中的桂冠zhuanlan.zhihu.com图标
  • HRNet
pprp:打通多个视觉任务的全能Backbone:HRNetzhuanlan.zhihu.com图标

2 卷积、空洞卷积

Justin ho:变形卷积核、可分离卷积?卷积神经网络中十大拍案叫绝的操作。zhuanlan.zhihu.com图标
  • 卷积
如何通俗易懂地解释卷积?www.zhihu.com图标“看懂”卷积神经网(Visualizing and Understanding Convolutional Networks)blog.csdn.net
CNN入门必读经典:Visualizing and Understanding Convolutional Networksblog.csdn.net
蒋竺波:CNN入门讲解:卷积层是如何提取特征的?zhuanlan.zhihu.com图标
  • 空洞卷积
如何理解空洞卷积(dilated convolution)?www.zhihu.com图标yyfyan:总结-空洞卷积(Dilated/Atrous Convolution)zhuanlan.zhihu.com图标
  • 可形变卷积
如何评价 MSRA 最新的 Deformable Convolutional Networks?www.zhihu.com图标

3 正则化

  • batch normalization、group normalization
Batch Normalization导读blog.csdn.net
张俊林:深度学习中的Normalization模型zhuanlan.zhihu.com图标Feng Nie:Group Normalization 及其MXNet、Gluon实现zhuanlan.zhihu.com图标Juliuszh:详解深度学习中的Normalization,BN/LN/WNzhuanlan.zhihu.com图标
  • dropout
理解dropout - 雨石 - CSDN博客blog.csdn.net
  • L1、L2
机器学习中的范数规则化之(一)L0、L1与L2范数blog.csdn.net
机器学习中正则化项L1和L2的直观理解blog.csdn.net

4 全卷积网络

全卷积网络 FCN 详解 - 代码学习者coding - 博客园www.cnblogs.com

5 1*1卷积核

Amusi:一文读懂卷积神经网络中的1x1卷积核zhuanlan.zhihu.com图标卷积神经网络中用1*1 卷积有什么作用或者好处呢?www.zhihu.com图标如何理解卷积神经网络中的1*1卷积blog.csdn.net

6 感受野

蓝荣祎:深度神经网络中的感受野(Receptive Field)zhuanlan.zhihu.com图标小小将:你知道如何计算CNN感受野吗?这里有一份详细指南zhuanlan.zhihu.com图标

7 常见损失

王桂波:机器学习常用损失函数小结zhuanlan.zhihu.com图标损失函数改进方法总览blog.csdn.net
请问faster rcnn和ssd 中为什么用smooth l1 loss,和l2有什么区别?www.zhihu.com图标
  • focal loss
张俊:何恺明大神的「Focal Loss」,如何更好地理解?zhuanlan.zhihu.com图标
  • 交叉熵
交叉熵损失函数 - William Zhao's notes - CSDN博客blog.csdn.net
卷积神经网络系列之softmax,softmax loss和cross entropy的讲解blog.csdn.net
  • 对比损失(Contrastive Loss)
Contrastive Loss (对比损失)blog.csdn.net
  • 三元组损失(Triplet Loss)
Triplet Loss及其梯度blog.csdn.net

8 优化算法

Juliuszh:一个框架看懂优化算法之异同 SGD/AdaGrad/Adamzhuanlan.zhihu.com图标
  • Momentum
冯超:路遥知马力——Momentumzhuanlan.zhihu.com图标
  • Nesterov Accelerated Gradient
郑华滨:比Momentum更快:揭开Nesterov Accelerated Gradient的真面目zhuanlan.zhihu.com图标

9 concat 和 add的区别

如何理解神经网络中通过add的方式融合特征?www.zhihu.com图标

10 注意力机制

瑟木:计算机视觉中的注意力机制zhuanlan.zhihu.com图标张戎:计算机视觉中的注意力机制zhuanlan.zhihu.com图标

11 CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)

CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?www.zhihu.com图标

12 边框回归

边框回归(Bounding Box Regression)详解blog.csdn.net

13 非极大值回归(NMS, Soft NMS)

  • NMS
NMS——非极大值抑制blog.csdn.net
  • Soft NMS
Soft NMS算法笔记blog.csdn.net

14 激活函数

程程:深度学习中的激活函数导引zhuanlan.zhihu.com图标如何理解ReLU activation function?www.zhihu.com图标请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function?www.zhihu.com图标

15 评价指标

  • 目标检测mAP
rafaelpadilla/Object-Detection-Metricsgithub.com图标
  • 语义分割(PA、MPA、MIoU、FWIoU)
JustDoIT:语义分割之评价指标zhuanlan.zhihu.com图标

可参考下面论文第五章节

A Review on Deep Learning Techniques Applied to Semantic Segmentationarxiv.org

16 batch size的选择

怎么选取训练神经网络时的Batch size?www.zhihu.com图标深度机器学习中的batch的大小对学习效果有何影响?www.zhihu.com图标

17 Graph Convolutional Network(GCN)

如何理解 Graph Convolutional Network(GCN)?www.zhihu.com图标

18 详解深度学习中的梯度消失、爆炸原因及其解决方法

DoubleV:详解深度学习中的梯度消失、爆炸原因及其解决方法zhuanlan.zhihu.com图标

19 网络权重初始化

网络权重初始化方法总结(上):梯度消失、梯度爆炸与不良的初始化 - shine-lee - 博客园www.cnblogs.com图标https://www.cnblogs.com/shine-lee/p/11908610.htmlwww.cnblogs.com

其他

编辑于 07-04

文章被以下专栏收录