“人工智能能否超越人类”为何争议不断?-创新-知识分子

“人工智能能否超越人类”为何争议不断?

2019/08/02
导读
有三个难点是主要原因


(图源:callcentrehelper.com)


1956年夏季,在美国达特茅斯学院举行的一次重要会议上,以麦卡赛、明斯基、罗切斯特和申农等为首的科学家共同研究和探讨了用机器模拟智能的一系列问题,首次提出了“人工智能”这一术语,它标志着人工智能这门新兴学科的正式诞生。此后,人工智能在发展历史上经历了多次高潮和低潮阶段。


在1956年人工智能被提出后,研究者们就大胆地提出乐观的预言,达特茅斯会议的参与者之一赫伯特·西蒙(Herbert Simon)还做出了更具体的预测:10年内计算机将成为国际象棋冠军,并且机器将证明一个重要的数学定理。西蒙等人过于自信,其预言没有在预测的时间里实现,而且远远没有达到。这些失败给人工智能的声誉造成重大伤害。


1971年,英国剑桥大学数学家詹姆士(James)按照英国政府的旨意,发表了一份关于人工智能的综合报告,声称“人工智能研究就算不是骗局,也是庸人自扰”。在这个报告的影响下,英国政府削减了人工智能的研究经费,解散了人工智能研究机构。人工智能的研究热情第一次被泼了冷水。[1]


20世纪90年代,以日本第五代机器人研发失败和神经网络一直没有突破为代表,人工智能进入了第二个冬天,直到21世纪初,深度学习与互联网大数据结合才使人工智能又一次迎来新的春天。在阿尔法围棋等大量突破性成果涌现之后,人类对机器(AI)能否超越人类的问题又重新燃起了热情。狂热的情绪背后甚至产生了人工智能威胁论。


谷歌技术总监、《奇点临近》(The Singularity Is Near)的作者雷·库兹韦尔(Ray Kurzweil)预言人工智能将超过人类智能。他在书中写道,“由于技术发展呈现指数级增长,机器能模拟大脑的新皮质,到2029年,机器将达到人类的智能水平;到2045年,人与机器将深度融合,那将标志着奇点时刻的到来。”除此以外,支持人工智能威胁论的代表人物还包括著名物理学家霍金、微软创始人比尔·盖茨、特斯拉CEO马斯克等。


2014年12月2日,霍金在接受BBC采访时表示,运用人工智能技术制造能够独立思考的机器将威胁人类的生存。霍金说:“它自己就动起来了,还能以前所未有的超快速度重新设计自己。人类呢,要受到缓慢的生物进化的限制,根本没有竞争力,会被超越的。”


特斯拉CEO马斯克对待人工智能的态度比较极端,2014年8月,他在推特上推荐尼克·波斯特洛姆(Nick Postrom)的著作《超级智能:路线图、危险性与应对策略》(Super Intelligence: Paths,Dan-gers,Strategies)时写道:“我们需要重点关注人工智能,它的潜在危险超过核武器。”


2017年10月,日本著名风险投资人孙正义在世界移动大会2017上表示,他认为机器人将变得比人类更聪明,在大约30年的时间里,AI的智商将有望超过1万点。相比之下,人类的平均智商是100点,天才可能达到200点。孙正义说:“奇点是人类大脑将被超越的时刻,这是个临界点和交叉点。人工智能和计算机智能将超越人类大脑,这在21世纪肯定会发生。我想说的是,无须更多的辩论,也无须更多怀疑。”


在人工智能威胁论热度日益高涨的情况下,人工智能领域的科学家对人工智能威胁论提出了反对意见。2014年4月,脸书人工智能实验室主任,纽约大学计算机科学教授杨立昆(Yann LeCun)在接受《波普杂志》(IEEE Spectrum)采访时发表了对人工智能威胁论的看法,他认为人工智能的研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会经历这么一段从盲目乐观到不理智最后到沮丧的阶段。


杨立昆提出:“很多人觉得人工智能的进展是个指数曲线,其实它是个S形曲线,S形曲线刚开始的时候跟指数曲线很像,但由于发展阻尼和摩擦因子的存在,S形曲线到一定程度会无限逼近而不是超越人类的智商曲线(如图1所示)。未来学家们却假设这些因子是不存在的。他们生来就愿意做出盲目的预测,尤其当他们特别渴望这个预测成真的时候,这可能是为了实现个人抱负。”


图1 杨立昆预测的人工智能发展曲线


另外,百度首席科学家、斯坦福大学计算机科学系和电子工程系副教授吴恩达,中国科学院的李德毅、王飞跃等教授等也在不同场合对人工智能威胁论提出了反对意见。


2017年7月在《哈佛商业评论》(Harvard Business Review)的一次会议上,吴恩达谈道:“作为一名人工智能领域的从业者,我开发和推出了很多款人工智能产品,但没有发现一条人工智能在智力方面会超过人的可行之路。我认为,工作岗位流失反倒会是个大问题,担心人工智能过于强大就好像担心人类会在火星过度殖民导致火星人口爆炸一样。我很希望数百年后我们能在火星生活,但目前甚至还没有人类登上过火星,我们为何要担心在火星过度殖民的问题呢?我希望我们能重视对这一问题的解决,而不是整天沉醉在那些科幻作品中才可能出现的场景里。”[2]


由此可见,在关于机器(AI)的智力能力能否超越人类的问题上,世界上最有影响力的人分成了两个对立的阵营,一个阵营里是著名的物理学家、企业家和投资人,另一个阵营里是计算机领域和人工智能领域的科学家。为什么会有这种巨大的争议?不得不说,问题的背后的确有着非常复杂的原因,但其中有三个难点是主要原因。


第一个难点是,智力或智能本身就是一个有着巨大争议的问题,无论在心理学领域还是人工智能领域,智力是争议最大的概念之一。智力被许多人用不同的表达方式进行了定义。据统计,目前有关智力的定义超过100种以上,但关于智力的明确定义依然处在争议和讨论中。智力概念出现如此混乱的情况与心理学家对智力的不同理解有关,同时大脑是人类最复杂的器官,如何认知智力本身就具有先天的复杂性。


美国著名心理学家和认知心理学家斯腾伯格(Sternberg)是智力三元理论的建构者,他注意到智力概念的变迁问题,指出不同时代的研究者虽然使用相同的术语,但新来者会不断赋予术语以新的意义,如在智力的内涵上,20世纪20年代的心理学研究者更重视期望,而20世纪80年代的研究者更重视文化因素。关于智力,研究者们有着数百种不同的定义[3],表1反映了部分研究者对智力的定义。


表1. 部分研究者对智力的定义


第二个难点是,没有统一的模型能反映机器、AI和人类的共同特征。我们知道,由于生命的多样性,人类、动物、植物甚至微生物在智能的表现上千差万别,如人类有更丰富的创造力和想象力,狗有更灵敏的鼻子,蝙蝠有更灵敏的耳朵,而老鹰有更敏锐的眼睛。


这种差异同样发生在机器人和AI系统上,如谷歌的阿尔法围棋在围棋上表现突出,已经多次战胜人类围棋冠军。IBM的沃森系统拥有更丰富的人类科技、文化、经济常识,其在2011年美国电视智力答题节目《危险边缘》(Jeopardy!)中击败两位人类选手;德国库卡、日本发那科公司的工业机器人在分拣货物和装配机器设备等领域,效率远远超过了人类。


当时间的列车驶入21世纪,人类在为机器(AI)能否超越人类的问题争论时,面临的一个重要难题是,需要有个模型能把计算机、AI和人类甚至其他生命(如蚂蚁、牛、羊)统一起来进行基本特征的描述。


第三个难点是,生命进化是否有方向。按照目前主流的观点,人类、动物、AI、机器人在进化方向上就不应该一样,那么如何将它们放在一起比较就是一个无法调和的问题,因为如果进化方向不一样,也就不存在谁超越谁的问题了。


例如,在百米比赛中,所有选手都要沿着同一个跑道向同一个终点冲刺。这样,才能根据选手到达终点的时间评判出名次。相反,如果比赛是在北京长安街的一个十字路口上开始,一些选手向西以西安作为终点,一些选手向东以青岛作为终点,一些选手向南以深圳作为终点,最后一些选手向北以哈尔滨作为终点,那么这样的比赛就不存在谁超越谁的问题。


本文经授权摘编自《崛起的超级智能》,标题为编者所加。

人工智能能否超越人类,你怎么看?

小赛将在留言区随机抽取三位读者,赠送《崛起的超级智能》一本


参考资料

[1] 李德毅, 于剑. 人工智能导论 [M].北京: 中国科学技术出版社, 2018. 

[2] http: / / tech. ifeng. com / a / 20170726 / 44655402_0. shtml. 

[3] 周泓, 张庆林. 斯腾伯格的智慧平衡理论述评 [J].心理科学, 2001.


参与讨论
0 条评论
评论
暂无评论内容
订阅Newsletter

我们会定期将电子期刊发送到您的邮箱

GO