人工智能安全性问题的根本问题阅读答案 现如今,我们经常跟阅读答案打交道,阅读答案有助于我们领会解题思路,掌握答题技巧。相信很多朋友都需要一份能切实有效地帮助到自己的阅读答案吧?下面是小编整理的人工智能安全性问题的根本问题阅读答案,欢迎大家借鉴与参考,希望……
人工智能安全性问题的根本问题阅读答案
现如今,我们经常跟阅读答案打交道,阅读答案有助于我们领会解题思路,掌握答题技巧。相信很多朋友都需要一份能切实有效地帮助到自己的阅读答案吧?下面是小编整理的人工智能安全性问题的根本问题阅读答案,欢迎大家借鉴与参考,希望对大家有所帮助。
人工智能安全性问题的根本问题,并不在于它能否真正超越人类,而在于它是否是一种安全可靠的工具和人类是否对其拥有充分的控制权。就像高铁、飞机等交通工具那样,虽然它们的速度远远超过了人类,但人类拥有绝对控制权,所以人们相信它们是安全的。
为了实现对其控制的目标,首先需要对人工智能的自主程度进行限定。虽然人工智能发展迅速,但人类智能也有自己的优势,比如目前人工智能的认知能力还远不如人类智能。我们可以充分发挥人工智能在信息存储、处理等方面的优势,让它在一些重大事件上做人类的高级智囊,但最终的决定权仍在人类。比如,当我们把人工智能应用于军事领域时,我们可以利用人工智能来评估危险程度,以及可以采取的措施,但是否应该发动战争、如何作战等重大决策,还是需要掌握在人类自己手里。正如霍金斯所说的那样:“对于智能机器我们也要谨慎,不要太过于依赖它们。”
与限定人工智能的自主程度类似,我们也需要对人工智能的智能水平进行某种程度的限定。从长远来看,人工智能是有可能全面超越人类智能的。从人工智能的发展历程来看,尽管它的发展并非一帆风顺,但短短六十年取得的巨大进步让我们完全有理由相信将来它会取得更大的突破。从世界各国对人工智能高度重视的现实情况来看,想要阻止人工智能的发展步伐是不现实的,但为了安全起见,限定人工智能的智能程度却是完全可以做到的。
我们应当还需要成立“人工智能安全工程”学科,建立人工智能安全标准与规范,确保人工智能不能自我复制,以及在人工智能出现错误时能够有相应的保护措施以保证安全。人们对人工智能安全问题的担忧的另一主要根源在于,人工智能的复制能力远胜于人类的繁衍速度,如果人工智能不断地复制自身,人类根本无法与其抗衡。因此,在人工智能的安全标准中,对人工智能的复制权必须掌握在人类手中。同时,建立人工智能安全控制许可制度,只有人工智能产品达到安全标准,才允许进行商业推广和使用。
从源头上看,人工智能安全问题是由人工智能技术造成的,可见,科学技术研究并非无禁区。技术的发展成熟固然是解决安全问题的关键因素,但任何技术都有不确定性,且科技产生的问题通常不能仅仅依靠科技本身得到圆满解决。因此,解决人工智能安全问题还需要充分发挥外部进路的重要作用。
1.下列关于原文内容的理解和分析,不正确的一项是(3分)
A.在人工智能安全性问题上,如果人类没有绝对控制权,就无法确保其安全可靠。
B.人工智能发展迅速,但在认知能力上还远不如人类,因为人类智能有自身优势。
C.人工智能的发展并非一帆风顺,但从发展现状来看,其发展步伐是难以阻止的'。
D.人工智能的复制性是人类难以抗衡的,人类要建立人工智能安全控制许可制度。
2.下列对原文论证的相关分析,不正确的一项是(3分)
A.文章以人工智能的可控性为立论前提,并由此指向保证人工智能安全性的具体措施。
B.文章从限定自主程度和智能水平两个方面入手,分析如何应对人工智能的安全问题。
C.文章在论证中关注人工智能的发展现状,强调人类要在人工智能发展中持积极态度。
D.文章先明确态度,接着分析对策,最后强调人工智能安全问题需发挥外部进路作用。
3.根据原文内容,下列说法不正确的一项是(3分)
A.人类在发展过程中拥有对很多事物的绝对控制权,人工智能安全的问题也应该会有解决的方法。
B.人工智能可以为人类解决很多问题提供信息帮助,但人类要把握最终决定权,而不能依赖它们。
C.人工智能全面超越人类存在着一定的可能性,但人类也可以在发展中限定人工智能的智能程度。
D.科学技术研究有禁区,因而人工智能安全问题的出现也是必然的,解决这一问题需要多方努力。
试题答案:
1.D【命题意图】本题考查筛选并整合文中的信息的能力。
D原文是“如果人工智能不断地复制自身,人类根本无法与其抗衡”,这只是一种假设,且只要人类建立安全控制制度,还是能控制住人工智能的,也不是“无法抗衡”的。
2.B【命题意图】本题考查文章论证方法的能力。
【解题思路】文章前面第二和第三自然段从限定自主程度和智能水平两个方面谈人工智能的安全性问题,但第四自然段“建立人工智能安全标准与规范”也是在分析如何面对人工智能的安全性问题。所以这里表述不够全面准确。
3.D【命题意图】本题考查分析概括作者在文中的观点态度的能力。
【解题思路】强加因果关系,并不是科学研究有禁区直接导致人工智能的安全性问题。