《python深度学习》笔记---3.1、神经网络剖析

摘要:
《python深度学习》笔记---3.1、神经网络剖析一、总结一句话总结:|||-being训练神经网络主要围绕以下四个方面,构建好架构,还是非常简单的|||-end层,多个层组合成网络(或模型)。损失函数,即用于学习的反馈信号。损失函数取平均:因此,对于具有多个损失函数的网络,需要将所有损失函数取平均,变为一个标量值。
《python深度学习》笔记---3.1、神经网络剖析

一、总结

一句话总结:

|||-being

训练神经网络主要围绕以下四个方面,构建好架构,还是非常简单的

|||-end

层,多个层组合成网络(或模型)。
输入数据和相应的目标。
损失函数,即用于学习的反馈信号。
优化器,决定学习过程如何进行。

1、层:深度学习的基础组件 ?

输入张量转化为输出张量:层是一个数据处理模块,将一个 或多个输入张量转换为一个或多个输出张量。
有状态的层表示有权重:有些层是无状态的,但大多数的层是有状态的, 即层的权重。
权重是张量:权重是利用随机梯度下降学到的一个或多个张量,其中包含网络的知识。

2、简单的向量数据保存?

2D张量:简单的向量数据保存在 形状为 (samples, features) 的 2D 张量中,
密集连接层dense层处理2D张量:通常用密集连接层[densely connected layer,也 叫全连接层(fully connected layer)或密集层(dense layer),对应于Keras 的 Dense 类]来处 理。

3、keras中序列数据表示?

3D张量:序列数据保存在形状为 (samples, timesteps, features) 的 3D 张量中,
LSTM层用来处理3D张量:通常用循环 层(recurrent layer,比如Keras 的 LSTM 层)来处理。

4、keras中图像数据表示?

4D张量:图像数据保存在4D 张量中,
Conv2D层用来处理4D张量:通常用二维 卷积层(Keras 的 Conv2D)来处理。

5、神经网络层兼容性(layer compatibility)?

只接受特定形状的输入张量:层兼容性(layer compatibility)具体指的是每一层只接受特定形状的输入张量,并返回特定形状的输出张量。

6、密集连接层dense层处理2D张量 实例?

手写数字识别:layer = layers.Dense(32, input_shape=(784,))
2D张量:第0轴是批量维度:我们创建了一个层,只接受第一个维度大小为784 的 2D 张量(第0 轴是批量维度,其大 小没有指定,因此可以任意取值)作为输入。
输出为32:这个层将返回一个张量,第一个维度的大小变成 了 32。

7、深度学习模型 图方面的解释?

有向无环图:深度学习模型是层构成的有向无环图。最常见的例子就是层的线性堆叠,将单一输入映射 为单一输出。

8、神经网络的拓扑结构定义了一个假设空间(hypothesis space)?

可能性空间:机器学习的定义:在预先定义好的可能性空间中,利用反馈信号的指引来寻找输入数据的有用表示
限定为一系列特定的张量运算:选定了网络拓扑结构,意味着将可能性空间(假设空间)限定为一系列特定的张量运算,将输入数据映射为输出数据。
找合适的值:然后,你需要为这些张量运算的权重张量找到一组合适的值。

9、多个输出的神经网络可能具有多个损失函数?

每个输出对应一个损失函数:具有多个输出的神经网络可能具有多个损失函数(每个输出对应一个损失函数)。但是,梯 度下降过程必须基于单个标量损失值。
损失函数取平均:因此,对于具有多个损失函数的网络,需要将所有损失 函数取平均,变为一个标量值。

10、一定要明智地选择目标函数,否则你将会遇到意想不到的副作用?

|||-begin
对于分类、回归、序列预测等常见问题,你可以遵循一些简单的指导原则来选 择正确的损失函数。
|||-end

二分类问题,你可以使用二元交叉熵(binary crossentropy)损 失函数;
多分类问题,可以用分类交叉熵(categorical crossentropy)损失函数;
回归 问题,可以用均方误差(mean-squared error)损失函数;
序列学习问题,可以用联结主义时序分类(CTC,connectionist temporal classification)损失函数

11、常见的损失函数选择依据?

二分类问题,你可以使用二元交叉熵(binary crossentropy)损 失函数;
多分类问题,可以用分类交叉熵(categorical crossentropy)损失函数;
回归 问题,可以用均方误差(mean-squared error)损失函数;
序列学习问题,可以用联结主义时序分类(CTC,connectionist temporal classification)损失函数

二、内容在总结中

博客对应课程的视频位置:

免责声明:文章转载自《《python深度学习》笔记---3.1、神经网络剖析》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇Android权限禁止及友好提示用户开通必要权限gitbook操作下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

超详攻略!Databricks 数据洞察

简介: 5分钟读懂 Databricks 数据洞察 ~ 更多详细信息可登录 Databricks 数据洞察 产品链接:https://www.aliyun.com/product/bigdata/spark(当前产品提供¥599首购试用活动,欢迎试用!) 开源大数据社区 & 阿里云 EMR 系列直播 第四期 主题:Databricks 数据洞察...

机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)

http://blog.csdn.net/zouxy09/article/details/20319673 机器学习算法与Python实践之(七)逻辑回归(Logistic Regression) zouxy09@qq.com http://blog.csdn.net/zouxy09 机器学习算法与Python实践这个系列主要是参考《机器学习实战》这本书...

机器学习 —— 概率图模型(推理:团树算法)

  在之前的消息传递算法中,谈到了聚类图模型的一些性质。其中就有消息不能形成闭环,否则会导致“假消息传到最后我自己都信了”。为了解决这种问题,引入了一种称为团树(clique tree)的数据结构,树模型没有图模型中的环,所以此模型要比图模型更健壮,更容易收敛。 1.团树模型   链模型是一种最简单的树模型,其结构如下图所示,假设信息从最左端传入则有以下式...

神经网络后馈算法剖析

在coursera中Ng的机器学习课程中,他介绍了神经网络中的前向传播算法以及后馈算法,但是对于后馈算法中,为什么要那么做,只用了一句需要使用复杂的数学来证明。我查阅了相关的资料,对这一部分的原理进行了学习,现将这部分知识记录下来,以供共同学习。 1、简单的线性模型中误差分析使用一个大小为N的训练集对一个预测(分类)模型进行训练时,总误差为:      ...

谷歌大神Jeff Dean:大规模深度学习最新进展 zz

http://www.tuicool.com/articles/MBBbeeQ 在AlphaGo与李世石比赛期间,谷歌天才工程师Jeff Dean在Google Campus汉城校区做了一次关于智能计算机系统的大规模深度学习(Large-Scale Deep Learning for Intelligent Computer Systems)的演讲。本文是...

零基础入门深度学习(5)

无论即将到来的是大数据时代还是人工智能时代,亦或是传统行业使用人工智能在云上处理大数据的时代,作为一个有理想有追求的程序员,不懂深度学习(Deep Learning)这个超热的技术,会不会感觉马上就out了?现在救命稻草来了,《零基础入门深度学习》系列文章旨在讲帮助爱编程的你从零基础达到入门级水平。零基础意味着你不需要太多的数学知识,只要会写程序就行了,...