神经网络与深度学习(完整版)
首页
白天
夜间
下载
阅读记录
书签管理
我的书签
添加书签
移除书签
编辑文档
为什么深度神经网络的训练是困难的
来源 1
浏览
894
扫码
打印
2018-07-20 07:12:40
上一篇:
下一篇:
发布点评
Introduction
使用神经网络识别手写数字
感知机
sigmoid神经元
神经网络的结构
用简单的网络结构解决手写数字识别
通过梯度下降法学习参数
实现我们的神经网络来分类数字
迈向深度学习
改进神经网络的学习方法
交叉熵代价函数
用交叉熵解决手写数字识别问题
交叉熵的意义是什么?它又是怎么来的?
Softmax
过拟合和正则化
正则化
为什么正则化能够降低过拟合
其它正则化技术
参数初始化
重温手写数字识别:代码
如何选择神经网络的超参数
其它技术
神经网络可以计算任何函数的可视化证明
两个预先声明
一个输入和一个输出的普遍性
多个输入变量
S型神经元的延伸
修补阶跃函数
结论
为什么深度神经网络的训练是困难的
梯度消失问题
什么导致了消失的梯度问题?深度神经网络中的梯度不稳定性
在更加复杂网络中的不稳定梯度
其他深度学习的障碍
深度学习
介绍卷积网络
卷积神经网络在实际中的应用
卷积网络的代码
图像识别领域中的近期进展
其他的深度学习模型
神经网络的未来
附录:是否有关于智能的⼀个简单的算法?
反向传播算法是如何工作的
热身:一个基于矩阵的快速计算神经网络输出的方法
关于代价函数的两个假设
Hadamard积,s⨀t
反向传播背后的四个基本等式
四个基本方程的证明(自选)
反向传播算法
反向传播算法代码
为什么说反向传播算法很高效
反向传播:整体描述
暂无相关搜索结果!
本文档使用
全库网
构建
×
思维导图备注
×
文章二维码
手机扫一扫,轻松掌上读
×
文档下载
请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
PDF
文档
EPUB
文档
MOBI
文档
×
书签列表
×
阅读记录
阅读进度:
0.00%
(
0/0
)
重置阅读进度