高级人工智能往年题

选择题

1、在人工智能水平测试中,如果某项人工智能通过了图灵测试,則表示其智能水平()
A. 超过了人的智能
B. 具备了和人一样的智能
C. 能够进行理性思考
D. 从表现来看,难以将其和人区分开来
答案:D
解析:
选项D,“从表现来看,难以将其和人区分开来”是正确的,因为这正是图灵测试的目标。通过图灵测试的人工智能在对话中表现得如同人类,使得评估者难以判断它是机器还是人类。
A选项,“超过了人的智能”,并不是图灵测试的评价标准。即使一个AI通过了图灵测试,也不意味着它的智能超过了人类。
B选项,“具备了和人一样的智能”,也不准确。图灵测试并不衡量智能水平是否与人类相同,而是衡量AI在交流上是否能模仿人类。
C选项,“能够进行理性思考”,这超出了图灵测试的范围。图灵测试主要关注交流能力,而不是理性思考的深度或复杂性。
因此,选项D是最准确的,因为它直接关联到图灵测试的实际目的:判断AI在交流中是否能够让人类评估者相信它是另一个人类。

2、人工智能这一概念于1937年在音届达特学斯会议上提出,随后发展成三个分支学派,下面四个选项中不是人工智能三大分支的是()
A. 符号学派
B. 连接学派
C. 信息论学派
D. 行为学派
答案:C
解析:
符号学派(A选项):这个学派认为智能行为可以通过操作符号系统来实现,强调使用规则和符号来模拟人类思维过程。它是人工智能发展中的一个重要分支。

连接学派(B选项):也被称为神经网络学派,关注于模仿人脑中神经元的连接和工作方式。这个学派通过构建神经网络,模拟人脑处理信息的方式,是现代人工智能中非常重要的一部分。

信息论学派(C选项):虽然信息论在人工智能的发展过程中发挥了重要作用,特别是在理解和模拟通信和信息处理方面,但它并不被认为是AI的一个主要分支。信息论更多地关注于信息的传输和处理,而不是智能行为本身。

行为学派(D选项):这个学派重视机器在环境中的行为表现,强调通过与环境的交互来展现智能。它从观察行为的角度出发,研究智能系统,是人工智能领域的一个重要分支。

因此,根据这些解释,我们可以理解为什么信息论学派(C选项)不被归类为人工智能的三大主要分支之一。虽然信息论对AI的发展有着重要的影响,但它在核心上更多地关注于信息的处理和传递,而不是模拟或实现智能行为。

3、关于搜索算法,以下说法错误的是
A. 广度优先搜索是代价一致搜索的一种特殊情况
B. 代价一致搜索是 A*搜索的一种特殊情况
C. 贪婪最佳优先搜索是完备的
D. 爬山法搜索可在任意位置起始,移动到最好的相邻状态
答案:C
解析:
广度优先搜索(BFS)是代价一致搜索的一种特殊情况(A选项):这个说法是正确的。在广度优先搜索中,算法从起点开始,先探索所有相同“深度”的节点,然后再移至下一层级。如果所有边的代价都相同,广度优先搜索实际上是代价一致搜索的一个特例。

代价一致搜索是A*搜索的一种特殊情况(B选项):这个说法也是正确的。代价一致搜索是A*搜索的特例,其中启发式函数h(n)始终为零。这意味着算法只考虑到达当前节点的路径成本,而不考虑任何估计的剩余成本。

贪婪最佳优先搜索是完备的(C选项):这个说法是错误的,因此是题目要求的答案。一个搜索算法是完备的,意味着只要有解存在,它就一定能找到解。然而,贪婪最佳优先搜索并不总是完备的,尤其是在有无限路径或非单调递增的路径成本时。它可能陷入局部最优解而无法达到实际的全局最优解。

爬山法搜索可在任意位置起始,移动到最好的相邻状态(D选项):这个说法是正确的。爬山法是一种启发式搜索算法,它从一个任意节点开始,并迭代地选择相邻的最佳节点,直到找到一个峰值或局部最优解。这种方法可能不会找到全局最优解,特别是在有多个局部最优解的情况下。

因此,C选项“贪婪最佳优先搜索是完备的”是错误的,因为这种搜索算法并不总是能保证找到解决方案,尤其是在复杂或具有陷阱的搜索空间中。

4、下面哪项是在一阶谓词逻辑下机器自动证明的正确步骤顺序是()
A. 量词前束,合取范式标准化,将结论取反,归结树归结
B. 将结论取反,析取范式标准化,量词前束,归结树归结
C. 将结论取反,量词前束,析取范式标准化,归结树归结
D. 将结论取反,量词前束,合取范式标准化,归结树归结
答案:D
解析:
A选项:量词前束,合取范式标准化,将结论取反,归结树归结
这个顺序不正确。通常,在应用归结法进行证明之前,需要先将结论取反。

B选项:将结论取反,析取范式标准化,量词前束,归结树归结
这个顺序也不正确。在进行归结之前,需要先将表达式转换为适合的形式,通常是析取范式(DNF)或合取范式(CNF),并将所有量词转换为前束形式(量词前置)。

C选项:将结论取反,量词前束,析取范式标准化,归结树归结
这个选项接近正确。先取反结论是正确的第一步,然后通常需要进行量词的前置,但是,通常我们将公式转换为合取范式(CNF),而不是析取范式(DNF),以进行归结。

D选项:将结论取反,量词前束,合取范式标准化,归结树归结
这是正确的顺序。首先,将结论取反是开始证明过程的关键第一步。接下来,执行量词前束,即将所有存在量词和全称量词移到公式的前面。然后,将公式转换为合取范式(CNF),最后应用归结法来完成证明。
综上所述,答案是 D选项:将结论取反,量词前束,合取范式标准化,归结树归结。这个顺序符合一阶谓词逻辑下的机器自动证明的标准步骤。

5、Deep Belief Networks 网络结构由多个()层叠而成
A. Boltzmann Machine
B. Restricted Boltzmann Machine
C. AutoEncoder
D. Hopfield Networks
答案:B
解析:
A. Boltzmann Machine:波尔兹曼机是一种随机递归神经网络,它包含可见和隐藏单元。但是,它们不是用于构建DBN的标准层。

B. Restricted Boltzmann Machine (RBM):这是正确的答案。DBN由多个叠加的RBMs组成。RBMs是一种简化的Boltzmann Machine,它们的特点是在其可见层和隐藏层之间没有内部层连接。DBN通过堆叠多个RBMs并进行逐层训练来构建深度模型。

C. AutoEncoder:虽然自编码器(AutoEncoder)在结构上与DBN相似(具有编码和解码的层),但它们并不是DBN的构成部分。

D. Hopfield Networks:霍普菲尔德网络是另一种形式的递归神经网络,用于联想记忆,但它们并不是用来构建DBN的。

Deep Belief Networks由多个Restricted Boltzmann Machines层叠而成。在DBN中,每一个RBM层依次训练,层与层之间通过权重连接。初始层通常用于特征检测,而更高层则用于更抽象的特征表示。这种逐层训练方法有助于有效地训练深度网络,并使得DBN在深度学习和特征学习方面表现出色。

6、下面不属于卷积神经网络(CNN)特点的是
A. 局部连接
B. 参数共享
C. 子采样
D. 逐层贪婪训练
答案:D
解析:
A. 局部连接:这是CNN的一个特点。在CNN中,每个神经元仅与输入数据的一个局部区域相连接,这反映了图像处理中的局部空间相关性。
B. 参数共享:这也是CNN的一个特点。在卷积层中,同一个卷积核(或滤波器)在整个输入数据上滑动以提取特征,这意味着卷积核的权重在所有位置共享。
C. 子采样:这通常指的是池化操作,也是CNN中常见的一个环节。池化层(如最大池化或平均池化)用于降低特征图的空间尺寸,增强模型的泛化能力。
D. 逐层贪婪训练:这并不是CNN的一个标准特点。逐层贪婪训练更多地与某些深度信念网络(DBN)或自动编码器等深度学习模型相关,这些模型在整体训练之前会单独训练每一层。相反,CNN通常是端到端(end-to-end)训练的,意味着所有层都是一起训练的。

因此,不属于卷积神经网络(CNN)特点的是 D. 逐层贪婪训练。在CNN中,所有层通常是一起训练的,而不是单独训练每一层,这与逐层贪婪训练的概念不符。

7、下面关于信息熵的表述不正确的是
A.信息熵是系统不确定性的度量
B.系统永久的恒定在某一状态后,该系统的信息熵最小
C.除了香农熵,信息熵有其它可能的定义形式
D.决策树算法优先选取使得条件熵最大的属性进行样本划分
答案:D
解析:
A. 信息熵是系统不确定性的度量:这个说法是正确的。信息熵(Entropy)是用来量化系统不确定性的度量。它表示了系统状态的平均信息内容或不确定性的大小。

B. 系统永久的恒定在某一状态后,该系统的信息熵最小:这个说法也是正确的。当一个系统的状态完全确定时(即系统永久恒定在某一状态),其信息熵是最小的,通常为零。这是因为在这种情况下,系统不存在不确定性。

C. 除了香农熵,信息熵有其他可能的定义和式子:这个说法是正确的。虽然香农熵是信息熵最常见的形式,但还有其他定义,如Rényi熵和Tsallis熵,这些都是信息熵的不同形式。

D. 决策树算法优先选择使得条件熵最大的属性进行样本划分:这个说法是不正确的。实际上,在决策树算法中,我们通常选择使得条件熵最小的属性进行样本划分。这是因为条件熵的减少代表着样本的纯度提高,我们的目标是找到可以最有效地清晰划分数据的属性。

因此,不正确的表述是 D. 决策树算法优先选择使得条件熵最大的属性进行样本划分。正确的说法应该是,决策树算法优先选择使得条件熵最小的属性进行样本划分,以提高样本划分的效率和准确性。

8、单个买方和单个卖方就某件商品议价时,假如商品的进价是100元,标价200元,卖家对商品的估价是120元,买家对商品的估价是160元,买卖双方议价时能够达成交易的议价范围为
A.100元至160元之间
B.120元至200元之间
C.120元和160元之间
D.160元和200元之间
答案:C
解析:
首先,我们明确几个关键点:

商品的进价是100元。
商品的标价是200元。
卖家对商品的估价是120元。
买家对商品的估价是160元。
在这种情况下,卖方和买方谈判的目标是达成一笔交易。交易只有在买家愿意支付的价格至少等于卖家愿意接受的价格时才会发生。

卖家的估价是120元,这意味着卖家不会接受低于120元的价格。
买家的估价是160元,这意味着买家不会支付超过160元的价格。
因此,任何在120元和160元之间的价格都是双方都可能接受的,这使得交易有可能发生。

所以,正确的答案是 C. 120元和160元之间。

9、A*图搜索的最优性条件是()
A. 启发函数是一致的
B. 启发函数是可采纳的
C. 选择占优势的启发函数
D. 检测重复状态
答案:A
解析:

10、关于感知机模型下面说法不正确的是
A. 感知机以超平面来划分两类样本。
B. 对于线性可分的训练集,感知机算法在有限步内收敛。
C. 单层感知机模型可以表示所有的逻辑运算。
D. 感知机学习是在假设空间中选取使得损失函数最小的模型参数。
答案:C
解析:
A. 感知机以超平面来划分两类样本:这是正确的。感知机模型通过学习得到一个线性分类器,即在特征空间中找到一个分离超平面,用以划分正负两类样本。

B. 对于线性可分的训练集,感知机算法在有限步内收敛:这也是正确的。感知机的收敛性质,也称为感知机收敛定理,指出如果训练数据集是线性可分的,那么感知机学习算法能够在有限的步骤内找到一个将训练集完全正确划分的超平面,即算法最终会收敛。

C. 单层感知机模型可以表示所有的逻辑运算:这是不正确的。单层感知机模型可以实现基本的逻辑运算如AND和OR,但不能实现某些复杂的逻辑运算,比如XOR(异或运算)。XOR问题是线性不可分的,因此无法用单个感知机的超平面来正确分类。

D. 感知机学习是在假设空间中选取使得损失函数最小的模型参数:这是正确的。感知机学习的目标是在假设空间中找到能够使得损失函数(通常是误分类点到超平面的总距离)最小的模型参数。

因此,不正确的说法是C,单层感知机模型无法表示所有的逻辑运算,特别是不能表示XOR这样的非线性逻辑运算。

11、下面说法错误的是()
A. 循环神经网络(RNN)可以采用 BPTT 算法进行训练。
B. Long Short Temn Memory(LSTN)不能用于序列数据建模。
C. LSTM 单元由三个 Gate(input. forget、output和一个cell单元组成。
D. RLU、 Dnopout 可以改进卷积神经网络(CNN)的训练过程。
答案:B
解析:
A. 循环神经网络(RNN)可以采用 BPTT 算法进行训练:这个说法是正确的。BPTT,即“通过时间的反向传播”(Backpropagation Through Time),是专门为时间序列数据设计的一种反向传播算法,用于训练循环神经网络。

B. Long Short Term Memory(LSTM)不能用于序列数据建模:这个说法是错误的。LSTM实际上是专为序列数据建模而设计的,并且它在处理长期依赖问题时比标准的RNN表现得更好。LSTM通过其特殊的结构设计(例如遗忘门、输入门、输出门)可以有效地捕捉序列中的长距离依赖关系。

C. LSTM 单元由三个 Gate(input, forget, output)和一个cell单元组成:这个说法是正确的。LSTM单元的核心组成部分包括三个门控结构,它们控制信息的流入、保留和流出,以及一个细胞状态(cell state),它贯穿整个LSTM单元,用于传递重要的信息。

D. ReLU、Dropout 可以改进卷积神经网络(CNN)的训练过程:这个说法也是正确的。ReLU(Rectified Linear Unit)是一种常用的激活函数,它可以加快神经网络的收敛速度,并且可以在一定程度上缓解梯度消失问题。Dropout是一种正则化技术,它可以防止模型过拟合,通过在训练过程中随机丢弃一部分神经元的方法来提高模型的泛化能力。

因此,错误的说法是 B,LSTM不仅能用于序列数据建模,而且在这方面非常有效。

12、关于 minmax和 maxmin 策略,表述不正确的是()

A. maxmin 策略是最大化自己最坏情况下的收益
B. minmax 策略是最小化对手最好情况下的收益
C. 在等和博弈中,maxmin 策略和 minmax策略是等价的
D. max min 策略着眼于对手的收益
答案:D
解析:
A. maxmin 策略是最大化自己最坏情况下的收益:这个说法是正确的。在maxmin策略中,玩家会考虑自己在最坏情况下能得到的最大收益,并尝试最大化这个值。

B. minmax 策略是最小化对手最好情况下的收益:这个说法也是正确的。minmax策略涉及的是最小化在最坏情况下对手可能得到的最大收益,即尝试阻止对手获得大量的收益。

C. 在等和博弈中,maxmin 策略和 minmax策略是等价的:这个说法是正确的。在零和游戏(等和博弈)中,一个玩家的损失就是另一个玩家的收益。在这种情况下,最大化你在最坏情况下的收益(maxmin)与最小化对手在最好情况下的收益(minmax)是相同的,因为一方的最好情况正是另一方的最坏情况。

D. maxmin 策略着眼于对手的收益:这个说法是不正确的。maxmin策略关注的是在考虑对手可能的最优策略时,自己能够获得的最大收益。虽然在确定这个策略时需要考虑对手的行为,但它的目的不是直接最大化对手的收益,而是确保自己在最坏情况下的收益最大化。

因此,不正确的表述是 D

应用题

1、A*图搜索的最优性条件是什么?

答:

2、证明感知机不能表示异或逻辑

3、试论述在深度神经网络中BP算法遇到的困难,并说明为什么会出现“梯度消失”向题。