Page 18 - AV_201903
P. 18

策划






                                                                         国著名经济学家、未来学家、乔治·吉尔德认为,人
                                                                         工智能无法与人类智能竞争,因为人工智能离不开为
                                                                         其提供符号系统和语言的人类思维,是人类规划了这
                                                                         一切。无论人工智能在训练中所吸收的信息是文字还
                                                                         是像素,这一切都是人为组织的结果。人为人工智能
                                                                         提供并制定了大数据,并在其中找到数值相关性。是
                                                                         人建立了目标、奖励方案和目标序列,使人工智能能
                                                                         够迭代、优化并最后总结出一个解决方案。人工智能
                                                                         由输入组成,通过复杂的算法集进行输出,它根本无
                                                                         法思考。
                                                                            而且人的思维是有意识的、主动的、有想象力、
                          人工智能比核武器更危险                                    有创造力的,但人工智能本身缺乏意识,它是决定论
                              艾伦·图灵被称为人工智能之父,他创造了著名                      顺序的组成部分,缺乏喜出望外或使人惊讶的能力。
                          的图灵实验,来测试机器是否具有智能。英国数学家约                       一台以千兆赫的速度运行的计算机,即便是在玩国际
                          翰·古德曾和艾伦·图灵一起共同研究课题。关于超级                       象棋或围棋这样的决定论游戏时,也只不过是一台机
                          人工智能,约翰·古早在1965年就曾发出过警告。他宣                     器而已。人工智能是计算机算法的输出,这些算法由
                          称:机器人或将是人类的最后一个发明,其未来发展可                       精心安排的电子元素组成。这些元素通过布尔逻辑方
                          超越人类自身,随着智能爆炸的出现,超级机器人将远                       案、树形结构和“神经网络”获得各自的含义。
                          超人类智慧。除非能够保证它绝对服从和受控,否则第                          真如乔治·吉尔德所言,人类的意识是独特的
                          一台超级智能机器绝对是人类最不应该拥有的发明。著                       吗?如果意识是人类才有的主观体验,那么,人工智
                          名物理学家斯蒂芬·霍金也曾宣称:“人工智能的全面                       能就不具备。但也有研究表明,人造意识是有可能产
                          发展可能预示着人类的终结。特斯拉老板埃隆·马斯克                       生的。如果是这样,人类确实应该谨慎对待人工智能
                          认为,人工智能可能比核武器更危险。”                             的发展。
                              我们目前人工智能所取得进展和成功,如自动驾                         微软亚洲研究院第四任院长洪小文也一直在研
                          驶、下棋、机器视觉、专家系统等,在科学家的眼睛里                       究专注人工智能的发展。他表示,人工智能发展到现
                          都还属于“弱人工智能”,距离超级智能还有相当距                        在已经可以做很多事情,但要达到人的智慧还有很长
                          离。但人类在好奇、欲望与资本、商业的裹挟下,必定                       的路要走,目前都以逻辑测试为主,强调理性,固然
                          会朝着超级人工智能越走越近。                                 这符合人类对智慧的定义,但人类还有非常丰富的情
                              那么超级智能,也就是生命3.0什么时候会实现                     感、情绪、同理心等等。也正因为这样,让人工智能
                          呢?泰格马克表示还不确定,可能是几十年、几百年,                       可以继续作为一门非常值得研究的学问。
                          也可能因为某些人为的因素导致它永远都不出现。但人                          至于人工智能会不会让机器取代人类甚至夺取世
                          工智能在乘数效应的推动下会变得越来越强大,到了那                       界,洪小文表示,要相信人类的智慧,人工智能与移
                          时,留给人类试错的空间将越来越小。当人类研发出核                       动技术、互联网技术、PC技术并无本质不同,都是一
                          武器之后,必须就限制核武器达成公约,因为核战争一                       种技术。人类研发技术和机器都是为人类服务的。人
                          旦打响,人类的家园地球就可能面临毁灭。核战争不会                       是世界上最聪明的生物,人的智慧一定会把人工智能
                          给人类第二次机会,人工智能也是如此,当它变得更为                       用在正途,做可以对人类产生最大益处的事。有人可
                          强大之后,将不得不考量它是否会给人类带来伤害,因                       能会把这些东西拿去做坏事,但那是坏人,我们有法
                          而必须达成一定的操作规则来确保其目标与人类一致。                       律,我们有智慧可以界定和应对。
                              为了防止人工智能被滥用,泰格马克与未来生命研
                          究所的8,000名科学家共同发布了《阿斯洛马人工智能                     长大之后取代了你
                          原则声明》,表明  “超级人工智能只能在广泛共享的                         对于越发强大的人工智能,人们既兴奋、又恐
                          伦理理想下发展其服务,而且其发展应该是为了增加全                       惧。兴奋的是它确实给我们带来了很多的便利、快
                          人类的福祉而不是为了某个国家或组织的利益……应该                       捷、享受和美好体验;同时又恐惧,怕不能很好的驾
                          避免致命性自主武器领域的军备竞赛。”                             驭它,给人类带来麻烦,长大之后可能就会取代了
                                                                         你。无论怎样,人工智能时代已经降临,我们有幸成
                          没有意识的人工智能                                      为了这个时代的见证者,未来到底会变成什么样,谁
                              对于未来超级人工智能的威胁也有人不以为然。美                     也无法确定。

          18
   13   14   15   16   17   18   19   20   21   22   23