科学家、社会学家、经济学家、码农辩论,谁赢了?-深度-知识分子

科学家、社会学家、经济学家、码农辩论,谁赢了?

2019/01/19
导读
“华山论道”

1919年1月15日,北大教授陈独秀用“赛先生”指称科学。百年纪念日,北大教授饶毅、谢宇,清华教授白重恩、吴国盛,上海纽约大学教授张峥同台讨论“科技对未来的影响”。这里我们刊发问答环节的内容。


整理 | 程莉


Q:未来十年生命科学的突破点在哪里?这方面的进展会给人类社会带来什么样的影响?


饶毅:这种问题非常难回答。如果作为正常的诚实的科学家,他一定是说未来的突破点全在我自己实验室,因为我如果不这样认为,我为什么做这些研究呢?我难道都希望让AI去做?这是不可能的事情。


Q:刚才提到的AI技术和基因编辑技术在未来如果真的给社会带来了一些新的风险或者造成了不平等,我们有没有一些方式能够避免或者纠正这些风险或者不平等呢?


谢宇:AI也好,基因编辑技术也好,都是非常复杂的社会问题,不仅仅是科学问题,也是伦理问题、法律问题、道德问题和人类未来生存的问题,这是非常非常大的命题,是一个很复杂的命题。既然复杂就不能简单回答。我很奇怪,很多学者在这方面并不是专家,但是他口很大,包括清华的一些教授,动不动就提出一个方案解决社会问题,回答一个重大的问题。可是社会问题很复杂,我越研究社会越发现我懂得少。我觉得我和他们有很大的差别,差别在哪?我发现希腊的文化哲学很好,苏格拉底是智慧的,他说我知道我的聪明就是我什么都不知道。


这个问题太复杂了,不是今天明天讨论就能解决的。既然复杂就要有长期的、全面的回答。比如说政府、法律是一个解决方法,但不是唯一的解决方法,我觉得什么都靠政府,这个社会就没救了。我们不仅要靠政府,还要靠自己。


张峥:也要靠AI。


谢宇:也要靠AI,要靠各个方面。比如说,社会需要一个行为道德标准,学者要有自己的尊严和标准,要对自己有约束。一个社会、一个名人、一个学者、一个官员、一个企业家,假如对自己没有标准,要靠人管是管不过来的。比如说现在大学里面查账这么厉害,动不动就去学习,有用吗?社会标准的制定要靠自身,也要自下而上的,而不是完全靠国家。我觉得饶毅讲的不错,需要法律、监管、国际交流,但是还需要全方面的,包括文化,包括自身的约束,科学家素质还有责任心。现在科学家里有那么多腐败、剽窃,那么不负责任的科学家怎么来的?要问这样的问题,才能回答你的问题,靠管可能管不过来。不仅仅是AI,也不仅仅是基因编辑,是腐败的文化已经蔓延到很多地方,包括科学界,所以需要全面地解决问题,而不是简单的。


吴国盛:我非常同意谢老师的看法。具体到高科技领域,主要的麻烦在于什么?高科技的发展过分迅速,立法、伦理跟不上,现在出了很多新问题,特别是基因技术带来的新问题,传统的伦理学没有碰到的问题,不知道怎么办。这种情况下应该唤起公众意识的觉醒,我想这也是知识分子举办这种公众讲演的意义所在。首先要让公众充分认识到问题的严重性,刻不容缓。由于公众无知形成不了社会舆论,刚才说科学家们偷偷摸摸,因为现在科学家有利益诉求了,不是过去象牙塔中纯粹的真理探索者了,本身已经是利益链条的一部分,像2018年那个事情(基因编辑婴儿)背后都有资本运作、利益纠缠的。今天我们要充分意识到这个问题的严峻性和特殊性,不是单纯的传统的问题,的确是新问题,首先要让大家认识到现在的科学技术带来的新的特异性。这个特异性在我看来主要是它的超前性,传统意义上问题出现和问题解决方案是同时浮现的,今天恰恰出现了问题远远超前于时代。因此形成公众对科技问题的可能后果的意识,以及可能采用方案的诉求是非常重要的。因此,现在非要让我们拿出方案我们拿不出,但是对答案迫切的需求,每个公众都应该有充分的意识。


饶毅:我不同意,我认为科学技术的进步带来的问题有一部分是非常清晰的。比如基因编辑,2015年我们《赛先生》连续发表了6篇文章,一再讲这个问题需要社会监控,那么有人就是不负责任。所以这个问题完全可以通过监管进行控制的,这个时候社会就得出来。有些问题,像AI的,是比较模糊的,那么这部分问题靠专家和社会政府互动。所以我觉得各有各的责任,不是说科学技术带来的东西都是社会的东西,没有政府的问题,所以说要分开来。其实你们心里也这样想,但是你想到别的事情去了。


谢宇:你刚才讲了(基因编辑)最早只是中国人做,而不是美国人或者西方文化。


饶毅:因为他们都知道这是有问题的,所以都不敢做。


谢宇:所以不敢也是一种自我的约束,没有自我的约束不行。


吴国盛:我觉得这正好是中国文化本身对高科技伦理部分不设防的体现,所以一定要提醒大家中国伦理底线很低,曾经被国际科学界利用,这是低伦理优势。


饶毅:我也对这个意见有一定程度的不同意,有这个问题,但是还有一部分不是这样的问题,是全民的希腊精神比较差。我要非常清楚地讲,我支持对农作物进行在监控下的转基因,也就是说,在总体上我支持转基因,我反对的是人类生殖细胞的基因编辑。我是比较少的最合理地知道什么该做什么不该做的一部分人,而不是简单地支持进步或者简单地反对进步。


白重恩:我这个主持人好像也有权利加入一下这个讨论。刚才谢老师问为什么中国人做,其实有很多不同的解释,但是我觉得科学发展的相对比较落后也是一个原因,比如我所在的学院,我们以前的学者从来没有认为有必要建立一个伦理审查委员会,因为我们以前的研究并没有触及伦理的问题。但是现在随着我们研究越来越接近前沿,我们认识到有这样的必要性,在学校里、学院里建立一个伦理审查委员会。我想慢慢的,各个层次,包括政府、法律,包括研究者的自律,都是在不断的进步。所以,可能不仅仅是中国人或者外国人的问题,而是在我们发展阶段,到这个转折点,会对伦理的问题更加重视。


饶毅:非常感谢白老师承认清华大学在这方面落后一点,我顺便告诉大家CRISPR/Cas9在中国运用最早的是他们隔壁的北京大学,远远早于这些人。


白重恩:清华大学经管学院是国内第一所经济管理学院里建立伦理审查委员会。我们也做实验,我们做实验的时候就要看这样的实验是不是符合伦理。你看你对清华还是很不了解的。



Q:大家知道我国正面临一定的经济下行压力,但是我们也知道通过科技创新寻求新的经济增长点,并实现经济高质量发展时间相对较长,而且还有一点远水解不了近渴的感觉。更不像传统的,比如投资、消费等提升经济增长那么直接,对此您怎么看?


白重恩:今天不是讲经济问题,刚才讲到我们面临一个转折点,其实经济也面临转折点,包括你说的投资和消费,我们过去的投资我个人认为结构不是那么合理,尤其2008年之后,我们受到了外部冲击以后采取了一些措施,这些措施使得我们制度上有了一些改变,比如对地方融资平台的容忍度在2008年以后加大了,这个变化产生了长远的影响,对我们现在的投资结构产生了不利的影响。所以我们都认识到需要改变这个投资结构让经济效率更加提升,问题是我们的金融体系并没有发展到那个阶段,就是说我们金融体系怎么来把资金有效地疏导到效率最高的地方,尤其是民间企业那去,还需要有很长的路要走。其实很多问题没有快速的解决方案,你刚才问的问题是有没有快速解决方案,很多问题没有快速解决方案,所以要有定力做一些影响长久的事儿,比如把金融体系变得更加有效,比如让制度环境变得更有利于企业等等,这些都是慢工出细活, 但是我们抄近道的日子过去了。

    

这边还有一个媒体的。


饶毅:你怎么知道他是媒体的?


白重恩:因为那是媒体区。


饶毅:我以为是清华的托儿。


Q:我想问饶毅老师一个问题,理论上来讲有没有比较优良的基因,如果有这样的基因人类一定会用它来造福自己,这种情况下对人类的基因编辑,您认为应该有哪些绝对的禁忌或者指导原则。我还想追加一个问题,现在民众热议的转基因食品的问题,我想知道基因编辑和转基因是什么关系?另外,转基因食品应该受到监督吗?


饶毅:理论上基因编辑的概念更广,包括转基因,原来转基因是转一个基因进去,现在基因编辑是把里面的东西也进行改变。对于农作物的转基因已经有监控措施,而且是有力有效的监控措施,可以保证安全性,所以我认为所有的转基因农作物在各国批准的情况下可以放心大胆吃,事实你可能吃过了,因为你吃过转基因的豆制品及其产物。

    

对于人类来说,是不是有一套基因是好的,其他是坏的?这就要回到达尔文的进化论,进化论的根本是我们要有足够的多样性,在某一时间和空间里选择最有利于生存和繁衍的条件,这就是对基因进行选择。因为时间、空间环境会变,所以不能用简单的一套“放之四海而皆准”的基因,比如瑞典做了两万多人的研究,发现什么基因的序列对于考分会增加0.2分,这是在瑞典的环境下,如果中国环境下同样那个基因可能就不对了,可能让你降掉5分。除了空间不一样,随着时间变化人类对基因的要求也不一样,例如绝大多数男性在20万年前谁打架厉害谁生孩子多,可是现在打架厉害的人是监狱里的犯人。所以在不同时间空间人选择的东西不一样,如果都把我们变成希特勒或者特朗普,我们就会面临极大的灾难,所以无法简单定义一套好的基因,原因是我们时间空间的环境在变化,包括女性选择男性的时候,以前是经常选择肌肉多的。最近两个星期science上有一篇文章,发现即使是鸟,雌鸟居然在选择聪明的雄鸟。选择聪明是很晚才发生的事情,以前不会选择聪明的男性,先选择会吃东西的。我们所有存在的都是被选择下来的,但是过一段时间又会有另外的选择。

   

我对AI(Artificial Intelligence)有想法,我以前对A字进行了曲解,是假的Intelligence,今天我要更正,A可以不动,I要动。目前的人工智能有很多进步和好事情,但是离人要差多了。你们听这几个老师说的,找一大堆廉价的人帮他做大数据,所以目前准确的名词应该叫artificial mediocrity,庸才的。


张峥:我纠正一下饶老师的看法,AI其实是两个,在有些地方完全可以超过你。在某些区域,特别跟人交互的,真正重复人的认知计算过程的,包括语言、文字、图象、理解,我们现在是远远不足,很多地方远远超过饶毅老师,也超过我。


饶毅:我相信很多人做的事情机器永远不会这么快会做,我们死以前不用担心。但是它不需要跟我们一样,正如飞机比鸟对我们更有用,人类曾经长期希望模拟鸟飞行,结果后来采取了不同的途径,采取了飞机,飞机对人有用多了,飞行能力、飞行速度和载重量,鸟完全做不到。


吴国盛:坐飞机不意味着你会飞。


饶毅:我们不用会飞,让张铮搞一大堆mediocrity(庸才)帮我们的忙。


谢宇:mediocrity是一个太负面的词。有人群就有差异,有差异就有mediocrity。AI至少能够包括95%的区间,你要回答的大部分问题就是在这95%,就应该从这里开始。


张峥:所以您的文章不要发,因为我们都知道这个事情。


白重恩:我觉得这是一个过程,现在还在初级阶段。


我现在找一个我熟悉的朋友,财新的王立伟问一个问题。


Q:我想问饶毅老师和张峥老师,刚才饶毅老师提到基因编辑有可能是大规模的危害,但是现实中很多人考虑自己的利益或者短期的效应,可能会认为是大规模的进步,人工智能世界带来一系列伦理问题,有一个可能是传统哲学家担心的电车问题,在无人驾驶车的世界可能会是很大的问题,传统司机在几秒内做决策没有人苛责,但是无人驾驶可能需要算法写进去,你是拯救自己还是拯救旁边的五个人?问张铮老师,人工智能践行者不顾一切往前冲的行为模式,这种问题上是不是依然适用?给饶毅老师,很多人认为存在即合理,我们这个世界好像很大程度上是商业驱动,把伦理等其他风险往后靠的情况下,您说知识分子是第一自媒体,包括FT、财新。


饶毅:科学第一自媒体。


王立伟:您觉得这样警示风险是否确定站在历史对的一边,如果确信,我们怎样能更好地影响特朗普驱动、商业利益驱动的世界?


饶毅:第二个问题我回答不出来,所以我让他回答,我可以回答第一个问题,非常容易回答,就是电车难题问题,各个国家就做个统计,你们国家有多少人是要撞死老人放了年轻人,那么你的汽车就随机地按照你们国家本来的比例让汽车的撞死谁和避免谁跟统计结果一样,这样就保证你们国家的文化没有改变。


吴国盛:恶劣的文化呢?


饶毅:本来就是恶劣的文化,那汽车加上就还是恶劣的,当然你可以都撞,碰上特朗普就往上撞,这当然最好,但美国人没那么友好。


白重恩:这是一个文化中性的问题,就是不让它改变文化。


饶毅:就是模拟当地的社会,因为你国家就是这么一个国家,你还想怎么办。


张峥:我觉得饶毅老师说的不对,所以我把第一和第二个问题都回答了。其实它是本身进化的过程——进化这个词不太好,这个问题抛出来以后,自动驾驶界一定要讨论。本身进化的过程跟你第二个问题相似,在商业环境里,它一定是闭环,闭环一定有制约力,比如自动驾驶的厂商的做法,有各种各样奇奇怪怪的做法,我不知道哪一种更好,比如车出厂后,假如撞人就完全是你的责任,你一定要上手驾驶三个月,三个月之后再出现问题的话可能是另外一套规则。我并不是说这是好方式。大家开始寻找好方式规避和防止这种问题。我听到一个解释,说这个问题在人身上不会出现,因为人不管是谁一下就踩刹车,谁都不会撞。


我想其他类似的技术也有同样的问题,技术本身是中性的,但是一旦用的话一定取代一些,既然它是革新,就会革掉一些工作,一定会有代价的,这里主要是一个闭环,包括政治、法律、商业,只要人参与就会杂,就会调整,从这个层面上来讲,一和二其实是一个问题。


吴国盛:其实是说伦理和道德规范,要不要做在AI设计里面,你跟他说技术中性肯定是太简单的问题,因为每一步的设计都蕴含一大堆意识形态。


张峥:刚才你说的这些问题,这些厂商觉得这个问题太难,试图规避,我给你出厂的模型你不能马上用,你马上用就立刻是你的问题了。


白重恩:但是如果三个月遇不到撞人的事儿,所以那个训练不够的。


张峥:然后就会出问题,然后再调整。


谢宇:我也表达一下,我和饶毅老师的意见不一样。自然科学家经常把社会的问题太简单化了,太理想化了。吴老师,你要找古希腊的哲学家理想主义者,饶毅就是其中之一,就在我们面前,他是个典型的柏拉图主义者,理想主义者。


社会问题是很复杂的,你讲的统计不存在的,首先这个类到底怎么定义?因为每一个事故,每一个危险都不一样,都是有差别的,你归不了类,就找不到样本,就做不了统计,这样的统计是没有的,所以你认为可以通过规范的统计来编程,我认为做不到,太理想了。


饶毅:人一共活八九十岁,碰到的事情有限的,所以可以算出来。


张峥:我听说可以活到150岁啊,500岁都有。


饶毅:那得改基因以后才能知道,现在还不行。


白重恩:因为今天线上还有很多听众,我们也要给他们机会问一个问题,其中有一个问题是问张老师的。


饶毅:你没有上线怎么知道线上的人问什么问题。


白重恩:中间的时候已经有人告诉我了。饶老师老是在这里挖坑。


饶毅:与其被别人看出来,不如我先说出来。


Q:张老师,问题是说人脑处理信息非常有效率的,但是我们人工智能通过深度学习的手段、处理信息是要消耗很多的,我们未来机器会像人脑一样有效率吗?


张峥:有的时候其实我们没有什么效率,现在我假如让你给高高矮矮的瓶子排序,人脑做这个事情很累。假如你光凭想象不去摆,其实这个过程就是你模拟计算机算法的一个过程。但是大自然给了我们上百万年的机会锤炼我们的大脑,所以在对我们生存必要的条件、环境等方面大脑是极其有效率的,但是这种效率是用其他的方法替代,比如对视觉图像的理解,假如高清的图像进来,整个比特率大概加起来是一个百科全书的量,几千万的像素最后看到一个东西,这是非常浪费的。人眼的视觉系统非常高效,因为它每次只看一点,它的代价是看一块这儿,看一块那儿,然后再细看,它是用注意力的方法把它变成一个串行的过程。机器是并行的过程,并行过程我自己认为肯定是低效的,这只是一个例子,语言各方面都有其他的例子。我认为关键的还是principle design,应该跟人脑的计算结构一样,没有特别多神秘的地方,我觉得是可以做的。


白重恩:让我们大家以热烈的掌声感谢我们几位科学家和社会科学家还有人文学者给我们带来的精彩的思想的碰撞。谢谢。


我们已经抽出5位《一场关于科学与未来的开年大戏的留言读者,获得新年福袋。

参与讨论
0 条评论
评论
暂无评论内容
《赛先生》微信公众号创刊于2014年7月,创始人为饶毅、鲁白、谢宇三位学者,成为国内首个由知名科学家创办并担任主编的科学传播新媒体平台,共同致力于让科学文化在中国本土扎根。
订阅Newsletter

我们会定期将电子期刊发送到您的邮箱

GO