来碗泪流满面 发表于 2019-7-9 11:31:56

近虑与远忧 赵汀阳谈人工智能的界限

人工智能能不能拥有自我意识?未来人工智能会不会影响人类的生存?人工智能发展到一定的程度,是不是应该“踩刹车”?7月5日上午,2019年第三场“艺术与人文高端讲座”在中国艺术研究院举行,中国社会科学院哲学研究所研究员赵汀阳主讲“人工智能的界限”,从哲学家的视角探讨人工智能的奇点、后果、用处、风险等问题。他指出,人工智能是人类必然的一个选择,讨论人工智能的种种问题,首先需要辨识问题是否有效,哪些属于近虑,哪些属于远忧,以及人工智能带来的后果哪些可以接受,哪些不能接受。目前我们对人工智能的恐惧是夸大的,但是未来的危险是一定的,可能性是存在的。赵汀阳认为,人工智能的社会有可能是一个新型的“专制社会”,因为人们为了获得技术提供的服务,会屈服于技术系统的控制;而这种新的“专制”是人们自愿选择的,不是被强加的。因为对人工智能无法自拔的依赖,人们会以市场选择或者民主选择的方式,自愿选择这种技术的新专制。https://p2.ifengimg.com/2019_28/BBE80066D15BA627888669EE170AF4572992BFD6_w550_h366.jpg艺术与人文高等研究院副院长梁治平主持讲座技术化和平等化会为“专制”创造更好的条件本次讲座由中国艺术研究院艺术与人文高等研究院主办,艺术与人文高等研究院副院长梁治平主持,中国科学院自动化研究所研究员、类脑智能研究中心副主任曾毅和中国社会科学院哲学研究所研究员段伟文应邀担任讨论嘉宾。https://p0.ifengimg.com/2019_28/39B3A6D7165D11437DF10C44C079132FAC40EE9D_w551_h384.png中国社会科学院哲学研究所研究员赵汀阳主讲“人工智能的界限”赵汀阳在讲座中说,人工智能涉及的问题包括两类,一类是比较近的问题,一类是远在天边的问题。近在眼前的问题很典型,不管我们愿意不愿意,我们马上就进入一个人工智能的社会,并且会遇到很多的社会问题,比如政治问题,生活问题等等,这些问题并不恐怖。远的问题真正有挑战性,一旦人工智能突破它的临界点(奇点),就有可能成为高于人类一种存在,进而统治人类。目前还不知道人工智能能不能达到这样的程度,但从理论上说应该有可能。赵汀阳表示,有一些人反对人工智能,从伦理上或者是情感上进行批判,但这是无效的问题。因为人们对它的兴趣远远大于阻力,只要有大资本和国家力量的存在,人工智能就一定会胜利。比如说我们指望以后会有智能的生产,智能的城市,智能的建筑,智能的服务系统,智能的医疗,智能的交通等等。这些发展,明显可以减少生产成本,交易成本,减少能源的消耗,增加生产力、管理能力、财富。另外,人工智能能够增加战争的能力,仅凭这一个诱惑就已经挡不住了,且不说前面还有那么多人人都想要的好处。但是,有所得就有所失,人工智能的系统服务更是如此。人工智能将会导致我们过着很类似的生活,因为我们得到的是很类似的服务,我们能够买的都是很类似的产品,所得到的也是非常类似的信息,大家能拥有的东西都差不多。所以,将来人的面目和思维都很类似,也就不可能有什么个性,而所谓与众不同的东西,或者说高品质的好东西,存在基础是等级制和差距。如果我们反对等级制,反对差距,就不会有什么“高质量”和“与众不同”,从这个意义上说,我们所追求的东西恰恰导致了我们人类命运的这种悖论性。如果追求一切事情的平等,那么这种技术化和平等化,事实上为专制创造了更好的条件。因为平等意味着卓越的精神要屈服于基本善,人们都可以分得平均线的好东西。这样,一切资源都会向平均好东西倾斜,卓越的精神就失去了生存的基础,而只有这种卓越的精神才是控制不了的自由。大家为了获得技术提供的服务,就只好屈服于技术系统的控制。这种新的专制,是人们自愿选择的,不是被强加的。因为人们会以市场化方式和民主的方式,自愿选择这种技术的新专制。https://p0.ifengimg.com/2019_28/BEE5BF598E19CE4E1F3A8F86D988D3982D4D8FFF_w550_h366.jpg讲座现场人工智能的真正危险是学会反思赵汀阳还谈到了人工智能的伦理问题。“拟人化的人工智能在我看来比较危险。如果在感情和价值观上真的很像人的话,我认为会出事。为什么?因为人的欲望和价值观就是一切冲突的根据。如果说我们把机器人变成跟人一样,那就是把机器人变成坏人,所以这是非常危险的。”赵汀阳说,比较严重但是遥远的问题,就是人工智能的临界点(奇点)在哪里?真正的危险是反思。也就是说,如果有一天,人工智能的思想对象是它自身,思想自身变成思想对象,比如提出这样的问题:我能够解释我自己吗?我是自由的吗?如果能够提出这些问题的话,那么人工智能也就达到了霍布斯、马克思这样的思维水平,马上就会引出“一切事情由谁说了算”这样的问题,那么,人工智能就会像人类一样要求修改规则。那就非常的危险。因此,必须为人工智能设置一个合理的限度,唯一的办法就是让人工智能的研究或者制造,停在一个高能力的水平上,但是又没有害,没有自我意识,然后就停步,不再往前走了。“你想想几十年一百年之后人工智能它在能力上也许几乎等于神,但是能力强不怕,就是刚才我论证的危险之处不在于能力,而在于自我意识。如果他没有自我意识,那么这种高能力根本不是一个危险。”最后,赵汀阳提出一个结论:目前我们对人工智能的恐惧是夸大的,但是未来的危险是一定的,可能性是存在的。https://p3.ifengimg.com/2019_28/63B8CF72A803719FCC02873E793C046A1FF681CB_w550_h288.jpg讲座讨论环节曾毅:人工智能目前最恐怖的,是犯了错误自己不知道“每次见面的时候,赵老师总跟我提起一件事情,万一人工智能真的达到了超级智能的阶段,你应该要保证赵汀阳是安全的!”https://p0.ifengimg.com/2019_28/FE31D368E1CBF1F49EDECE1061BCA9FFA805A77B_w550_h366.jpg中国科学院自动化研究所研究员、类脑智能研究中心副主任曾毅在讲座讨论环节发言讨论环节一开始,来自中科院的类脑人工智能及人工智能伦理研究专家曾毅开了个玩笑。他简要回顾了最近60年从简单机器人到人工智能研究的快速发展,但也指出,看似简单的事情,其实很难做,人工智能的现状还远没有想象的那么乐观,甚至连一个月大的小孩的智商都达不到。“因为你可以想象一个月的小孩的智商,他的智能水平远远超过现在的(人工智能)。很多人很乐观说,不对,因为很多公司号称自己做的大脑已经有两三岁的智能水平,还有已经号称有60岁的智慧。我经常这样回答,你可以想想你家里的小孩1岁可以做到的事情,有多少是现在人工智能可以做到的。实际上这个是人工智能的现状。”曾毅认为,人工智能的近忧在于,你以为计算机懂了,实际上它一点儿都不懂。比如说,我现在有点内急,我需要上厕所。然后对话系统告诉你,500米以外有一个肯德基,你听起来好像非常的智能,它甚至理解你、甚至能够分析肯德基里面有厕所。但实际过程是你用自然语言或者文本形式给它提出问题,它给你返还的是文本或声音,这是你对文本和声音的理解,而不是对它的思想的理解。所以它的行为上表现出来好像它明白,实际上并不是真正明白。曾毅说自己给学生经常举这样的例子,马路边上一个10岁的小孩,然后手里攥着一个海龟,如果计算机系统告诉你,10岁的小孩站在马路边上,手里拿着一个来复枪。如果它是一个完全自主的系统,未来真的有机器警察,这件事的社会后果是什么?所以,人工智能目前最恐怖,最可怕的不是通用智能和超级智能,而是当它犯错误的时候,它自己根本不知道。另外就是人类在设计这种模型时,你以为它会按照你规定的模式去工作,但实际上你的设计漏洞、你的建模等等一切有可能带来的隐患,人类目前并不能够完全避免。在曾毅看来,这是人工智能技术,对现代最大的冲击。对于远忧,他认为,如果人工智能系统有一定程度的自我意识,如果它完全不在意人类,完全不理解人类的情感,没有用情感跟人类交互的方式,它可能更危险。 “在我看来,具有一定程度的自我意识,比没有任何的自我观念的机器人,对于人类社会可能是更安全的。但是要达到反思的这个阶段,那么未来我们需要解决的问题就会更多。如果机器人真的有反思的话,那么它必须具有强大的利他之心。”https://p2.ifengimg.com/2019_28/F58BE6D34222D489D1906FFEBF6FCB7974F2842E_w550_h359.jpg中国社会科学院哲学研究所研究员段伟文在讲座讨论环节发言段伟文:哲学家应该思考人和机器智能结合的危险中国社会科学院哲学所的科技哲学专家段伟文,在讨论中回应了赵汀阳的担忧。“可能还不用等到赵老师说的,人工智能有自我反思意识的情况下就会出现问题,如果能够实现电信号和人的神经信号之间真正意义上的脑机结合,就有可能出现机器和人联合专制。前一段去南京开会,有一个公司的老板说,自己正在做通过人脸识别监测健康状况的研究。如果企业利用人脸识别看出来你不健康的话,就不录取你;如果你的健康状况比较差,保险公司要么给你开出的保费比较高,要么不卖保险给你。这样就打破了我们以往所说的‘无知之幕’”。段伟文认为,这时,人工智能实际上成为了一种用资本可以去买的认知工具。作为人的认知能力是非常有限的,现在人工智能有了无限的认知能力,主体和主体之间的关系就变成了一种对立的关系,有时候是零和博弈。包括我们找对象也要看你的基因是什么样,我的基因什么样。所以说,将来很重要的问题就是,每个人都像打仗一样,要知己知彼,不仅是要明白对方知道什么,还要知道对方不知道什么;不仅要知道自己知道什么,还要知道自己不知道什么,活得很累。所以将来的人可能都会成长为“戏精”,这里不是做道德的批判,而是说可能人的智商要提升。“哲学家在未来的时代可以做一些什么?我觉得实际上就是做这一个事情,不是上帝之眼,站在比较高的位置看人和机器的智能是什么关系。”面对人工智能的未来,段伟文说,哲学家要用一种智慧,来思考人和机器的智能怎么样整合在一起,也包括会出现什么样的风险和危险,哪些智能的组合会有些问题。https://p1.ifengimg.com/2019_28/10EA0EFFABF4C12D156FA79FD39C2FB124AA2F62_w550_h376.jpg中国艺术研究院院长韩子勇发表感言中国艺术研究院院长韩子勇全程听完了讲座,他在赵汀阳讲座和探讨环节之后发表了感言,认为这个话题非常具有挑战性,人的自我意识非常复杂,意识由人而生,但不是人能控制的。他说,对于人工智能要保持一个限度,“人类每一次技术进步都带来了盲目乐观,最后都要用更大的技术去防止这种损害,结果发现原先的损害被覆盖掉了,更大的损害来了。它可能是哲学问题。还有,人的自我意识,人的思考能力实际上是有限度的。再聪明的人,都受到思考能力的局限。对于机器来说,如果它具有主体性的自我意识和自我意志将会怎样?这始终是个深深的隐忧。”(文/张弘)【直播回顾】哲学家VS科学家|赵汀阳谈人工智能的界限【艺术与人文高端讲座】艺术与人文高端讲座,是中国艺术研究院艺术与人文高等研究院2018年面向大众推出的重磅人文讲座,旨在从艺术与人文切入,深度关切中国文化人文精神的回归与重构。作为该院的高级研究员,陈方正、林祥雄、李零、章新胜、王石,陈越光、陈嘉映、陈平原、白谦慎、王学典、黄一农、梁治平、赵汀阳、郑永年、任剑涛、余世存等十六位在国内外有影响力的学者专家、艺术家,以及众多杰出人文学者,将在此平台上分享他们的卓识睿见。
页: [1]
查看完整版本: 近虑与远忧 赵汀阳谈人工智能的界限