开大题库网

国家开放大学历年真题库|作业答案|复习资料一站式下载平台

2025秋江苏开放大学神经网络与深度学习形成性考核作业二(占总成绩的10%)

分类: 上海开放大学 时间:2025-09-12 05:21:14 浏览:36次 评论:0
摘要:神经网络与深度学习 - 形成性考核作业二(占总成绩的10%) 课程名称:神经网络与深度学习 发布教师:朱颖雯 作业来源:第六单元 序列模型 作业满分:100.0分 发布时间:2025-06-28 作业要求:按要求完成形成性考核作业
国家开放大学作业考试答案

想要快速找到正确答案?

立即关注 国开搜题微信公众号,轻松解决学习难题!

国家开放大学
扫码关注

作业辅导
扫码关注
论文指导
轻松解决学习难题!

神经网络与深度学习 - 形成性考核作业二(占总成绩的10%)

课程名称:神经网络与深度学习 发布教师:朱颖雯 作业来源:第六单元 序列模型 作业满分:100.0分 发布时间:2025-06-28 作业要求:按要求完成形成性考核作业

单选题

1. 以下卷积运算的输出结果为 (分值:5.0分)

A. 11 12 10 11

B. 11 12 10 11

渝粤文库

C. 15 16 6 15

D. 10 11 11 12

2. 】在神经⽹络的学习中,权重的初始值特别重要,设定什么样的权重初始值,经常关系到神经 ⽹络的学习能否成功。据此判断在下列相关的叙述中,错误的是? (分值:5.0分)

A. 当激活函数使⽤sigmoid或者tanh时,使⽤Xavier初始值

B. 为了防⽌“权重均⼀化” ,初始值应该随机⽣成

C. 当激活函数使⽤ReLU时,使⽤He初始值

D. 权重的初始值应该设置的尽量⼩,所以可以设置为0

3. 下⾯哪⼀种优化⽅法属于⾃适应学习率的优化算法? (分值:5.0分)

A. AdaGrad

B. Momentum

C. Nesterov Momentum

D. SGD

4. 以下关于神经⽹络的训练过程,描述错误的是? (分值:5.0分)

A. 【更新参数】梯度反⽅向表示损失函数的值减⼩最多的⽅向,将权重参数沿梯度反⽅向进⾏微⼩更 新

B. 【随机梯度下降】stochastic gradient descent:“随机”代表在梯度下降中随机初始⼀个学习率,并 不断尝试多个值,寻求最好的结果

C. 【mini-batch】从训练数据中随机选出⼀部分数据,这部分数据称为mini-batch,我们的⽬标是减 少mini-batch损失函数的值。

D. 【计算梯度】为了减⼩mini-batch的损失函数,需要求出各个权重参数的梯度

渝粤教育

5. 在⼀个神经⽹络⾥,知道每⼀个神经元的权重和偏差是最重要的⼀步。如果以某种⽅法知道 了神经元准确的权重和偏差,你就可以近似任何函数。实现这个最佳的办法是什么? (分值:5.0分)

A. 随机赋值,祈祷它们是正确的

B. 搜索所有权重和偏差的组合,直到得到最优值

C. 以上都不正确

D. 赋予⼀个初始值,检查与最优值的差值,然后迭代更新权重

6. 有如下结构RNN,关于 的计算正确的是? (分值:5.0分)

A. h2 = f(Wh1 + Ux2 )

B. h2 = f(Ux2 + b)

C. h2 = f(Wh1 + Ux2 + b)

D. h2 = f(Ux1 + Ux2 + b)

7. 多义现象可以被定义为在⽂本对象中⼀个单词或短语的多种含义共存。下列哪⼀种⽅法可能 是解决此问题的最好选择? (分值:5.0分)

A. 强化学习

B. 随机森林

C. 卷积神经⽹络

D. 以上所有⽅法

8. 对以下输⼊⼤⼩为(7,7)的数据,⾸先进⾏幅度为3的填充,设置滤波器⼤⼩为3*3,步幅为 2,卷积运算输出结果的⼤⼩为? (分值:5.0分)

A. 4,4)

B. (5,5)

C. (6,6)

广东开放大学 D. (7,7)

9. 以下关于神经⽹络中卷积运算的说法,正确的是? (分值:5.0分)

A. 若卷积运算输⼊数据为三维形状,则输⼊数据和滤波器的⻓和⾼均要设为相同的值

B. 若卷积运算输⼊数据为⼆维形状,则滤波器的⻓和⾼⼤⼩必须相等

C. 若卷积运算输⼊数据为⼆维形状,则输⼊数据的⻓和⾼⼤⼩必须相等

D. 若卷积运算输⼊数据为三维形状,输⼊数据和滤波器的通道数要设为相同的值

10. 在典型CNN⽹络AlexNet中,原始图⽚是⼤⼩为227*227的三通道数据,经过96个⼤⼩为11*11的卷积核卷积后得到96个⼤⼩为55*55的特征图,若padding = 0 ,则卷积核的步⻓为多 少? (分值:5.0分)

A. 4

B. 3

C. 2

D. 1

11. 有Lenet的结构如图所示,输⼊数据⼤⼩为 ⼤⼩单通道图⽚,在C1卷积层使⽤ 个⼤ ⼩为 的卷积核进⾏卷积, ,步⻓为 。在S2池化层使⽤ 的卷积核进⾏步⻓ 为2的平均值池化。在C3卷积层使⽤ 个⼤⼩为 的卷积核进⾏卷积, ,步⻓为 。在S4池化层使⽤ 的卷积核进⾏步⻓为 国家开放大学 2的平均值池化。扁平化后接⼊C5全连接层,其中C5 全连接层的输出⼤⼩为120,请问C5全连接层的输⼊是多⼤? (分值:5.0分)

A. 1024

B. 784

C. 300

D. 400

12. 在进⾏卷积层的处理之前,有时要向输⼊数据的周围填⼊固定的数据,这称为填充 (padding)。 对⼤⼩为(4,4)的输⼊数据进⾏幅度为3的填充,则输⼊数据⼤⼩变成多少? (分值:5.0分)

A. (15,15)

B. (10,10)

C. (12,12)

D. (7,7)

13. 下图是关于RNN的简化展开图,其中 表示 时刻的输⼊, 表示 时刻的输出,输出 层使⽤Softmax激活函数,则在 时刻,此模型实际计算的是() (分值:5.0分)

A.

B.

C.

D.

14. 以下场景中适合采⽤⼀对多结构RNN的是? (分值:5.0分)

A. 情感分析

B. 基于帧粒度的视频分类

C. ⽣成图⽚说明

D. 机器翻译

多选题

1. 对于发⽣过拟合的原因,下列叙述正确的是? (分值:5.0分)

A. 模型表现⼒差

B. 训练数据集量太⼩

C. 训练数据集量太⼤

D. 模型拥有⼤量参数

2. 下列哪些是批标准化(Batch Normalization )算法的优点? (分值:5.0分)

A. 可以增⼤学习率

B. 渝粤题库 可以降低噪声

C. 可以抑制过拟合

D. 可以不那么依赖初始值

3. 下⾯关于随机梯度下降法(SGD)的叙述,正确的是? (分值:5.0分)

A. 参数更新公式中的学习率需要随机选取

B. 使⽤参数的梯度,沿梯度⽅向更新参数,并重复这个步骤多次

C. SGD形式简单,并且容易实现

D. SGD在收敛过程中波动较⼤

4. 下列哪些是CNN中卷积操作的 成人学历 特点? (分值:5.0分)

A. 简化运算

B. 等变表示

C. 稀疏连接

D. 参数共享

5. VGGNet是⼀种典型的深度卷积神经⽹络,被⼴泛应⽤在⼤规模数据集的分类问题上。⽽在 实际应⽤中,VGGNet中的训练层深度最多不会超过19层,请问这是为什么? (分值:5.0分)

A. 训练时间过⻓

B. 参数量爆炸

C. 仅为了避免麻烦

D. 梯度消失使得优化变得困难

6. 以下关于CNN中池化的说法,正确的是? (分值:5.0分)

A. 通常池化的窗⼝⼤⼩会和上⼀步卷积操作的步幅设定成相同的值

B. 池化只是从⽬标区域中取最⼤值(或平均值),所以不存在要学习的参数

C. 经过池化运算,输⼊数据和输出数据的通道数不会发⽣变化

D. 池化对输⼊数据的微⼩偏差具有鲁棒性

文章目录


    相关文章
    评论留言请发表您的神机妙论……

    昵称

    邮箱

    地址

    私密评论
    评论列表(共有0条评论)