Deep Learning and Backpropagation
创始人
2025-06-01 04:25:59

文章目录

  • 一、Deep learning attracts lots of attention.
    • Ups and downs of Deep Learning
    • Three Steps for Deep Learning
    • Neural Network
    • Output Layer as Multi-Class Classifier
    • FAQ
  • 二、Step 2: goodness of function
    • Loss for an Example:
    • Total Loss:
  • 三、Step 3: pick the best function
    • Gradient Descent
    • Backpropagation
  • 四、Backpropagation
    • Backpropagation – Forward pass
    • Backpropagation – Summary
  • 总结

一、Deep learning attracts lots of attention.

在这里插入图片描述
Deep learning trends at Google. Source: SIGMOD 2016/Jeff Dean

Ups and downs of Deep Learning

1958: Perceptron (linear model)
1969: Perceptron has limitation
1980s: Multi-layer perceptron
Do not have significant difference from DNN today
1986: Backpropagation
Usually more than 3 hidden layers is not helpful
1989: 1 hidden layer is “good enough”, why deep?
2006: RBM initialization
2009: GPU
2011: Start to be popular in speech recognition
2012: win ILSVRC image competition
2015.2: Image recognition surpassing human-level performance
2016.3: Alpha GO beats Lee Sedol
2016.10: Speech recognition system as good as humans

Three Steps for Deep Learning

在这里插入图片描述

Neural Network

在这里插入图片描述
Network parameter θ: all the weights and biases in the “neurons” 。

Fully Connect Feedforward Network:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Deep = Many hidden layers:
在这里插入图片描述
Matrix Operation:
在这里插入图片描述
Neural Network :

在这里插入图片描述

Output Layer as Multi-Class Classifier

在这里插入图片描述
Example Application–Handwriting Digit Recognition
在这里插入图片描述
ou need to decide the network structure to let a good function in your function set.

FAQ

在这里插入图片描述
Q: How many layers? How many neurons for each layer?
在这里插入图片描述
Q: Can the structure be automatically determined?
E.g. Evolutionary Artificial Neural Networks
Q: Can we design the network structure?
在这里插入图片描述

二、Step 2: goodness of function

Loss for an Example:

在这里插入图片描述

Total Loss:

在这里插入图片描述
在这里插入图片描述
Find a function in function set that minimizes total loss L.
Find the network parameters θ^∗ that minimize total loss L.

三、Step 3: pick the best function

Gradient Descent

在这里插入图片描述
在这里插入图片描述

Backpropagation

Backpropagation: an efficient way to compute ∂L∕∂w in neural network.
在这里插入图片描述

四、Backpropagation

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Backpropagation – Forward pass

Compute ∂z∕∂w for all parameters
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Backpropagation – Summary

在这里插入图片描述

总结

相关内容

热门资讯

智者勇进•接续奋进新江苏|丹阳... 转自:扬子晚报在丹阳东南部,有一座坐拥“五区通衢”(丹阳、新北、钟楼、武进、金坛)区位优势的千年古镇...
这5个习惯,可能让你身体越来越... 转自:成都发布冬至过后我国各地气候都将进入最寒冷的阶段也就是人们常说的“数九寒天”注意保暖!这5个“...
成都警方通报私人影院涉黄经营 【#成都警方通报私人影院涉黄经营#】#成都3家涉黄私人影院被处置# 12月21日,成都市公安局和成...
智者勇进•接续奋进新江苏|实干... 转自:扬子晚报界牌新貌今年以来,丹阳市界牌镇牢牢把握高质量发展这个首要任务,坚决落实市委、市政府决策...