ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

吴恩达 — 神经网络与深度学习 — L2W1练习

2020-02-05 19:02:28  阅读:407  来源: 互联网

标签:吴恩达 训练 梯度 L2W1 神经网络 keep 正则 lambda


课程二 - 改善深层神经网络

第一周 - 深度学习的实践

第 41 题

如果你有10,000,000个例子,你会如何划分训练/开发/测试集?

A.33%训练,33%开发,33%测试

B.60%训练,20%开发,20%测试

C.98%训练,1%开发,1%测试

第 42 题

开发和测试集应该:

A.来自同一分布

B.来自不同分布

C.完全相同(一样的(x, y)对)

D.数据数量应该相同

第 43 题

如果你的神经网络方差很高,下列哪个尝试是可能解决问题的?

A.添加正则项

B.获取更多测试数据

C.增加每个隐藏层的神经元数量

D.用更深的神经网络

E.用更多的训练数据

第 44 题

你正在为苹果,香蕉和橘子制作分类器。 假设您的分类器在训练集上有0.5%的错误,以及开发集上有7%的错误。 以下哪项尝试是有希望改善你的分类器的分类效果的?

A.增大正则化参数\(\lambda\)

B.减小正则化参数\(\lambda\)

C.获取更多训练数据

D.用更大的神经网络

第 45 题

什么是权重衰减?

A.正则化技术(例如L2正则化)导致梯度下降在每次迭代时权重收缩

B.在训练过程中逐渐降低学习率的过程

C.如果神经网络是在噪声数据下训练的,那么神经网络的权值会逐渐损坏

D.通过对权重值设置上限来避免梯度消失的技术

第 46 题

当你增大正则化的超参数\(\lambda\)时会发生什么?

A.权重变小(接近0)

B.权重变大(远离0)

C.2倍的\(\lambda\)导致2倍的权重

D.每次迭代,梯度下降采取更大的步距(与\(\lambda\)成正比)

第 47 题

在测试时候使用dropout:

A.不随机关闭神经元,但保留1/keep_brob因子

B.随机关闭神经元,保留1/keep_brob因子

C.随机关闭神经元,但不保留1/keep_brob因子

D.不随机关闭神经元,也不保留1/keep_brob因子

第 48 题

将参数keep_prob从(比如说)0.5增加到0.6可能会导致以下情况(选出所有正确项):

A.正则化效应被增强

B.正则化效应被减弱

C.训练集的误差会增加

D.训练集的误差会减小

第 49 题

以下哪些技术可用于减少方差(减少过拟合)?(选出所有正确项)

A.梯度消失

B.数据扩充

C.Dropout

D.梯度检查

E.Xavier初始化

F.L2正则化

G.梯度爆炸

第 50 题

为什么要对输入\(x\)进行归一化?

A.让参数初始化更快

B.让代价函数更快地优化

C.更容易做数据可视化

D.是另一种正则化——有助减少方差

41-50题 答案

41.C 42.A 43.AE 44.AC 45.A 46.A 47.D 48.BD 49.BCF 50.B

标签:吴恩达,训练,梯度,L2W1,神经网络,keep,正则,lambda
来源: https://www.cnblogs.com/YukiNote/p/12265003.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有