当前位置:首页 > 新闻资讯 > IT业界 > 新闻
AI传奇第十六回 AI的二十三条军规
  • 2017/6/14 9:46:39
  • 类型:原创
  • 来源:电脑报
  • 报纸编辑:电脑报
  • 作者:
【电脑报在线】AI是人类可靠的智能工具,也是亲密的朋友,未来美好家园里,永远不会出现终结人类的机器恶魔。

@陈宗周

AI是人类可靠的智能工具,也是亲密的朋友,未来美好家园里,永远不会出现终结人类的机器恶魔。

 

AI威胁论

      关于AI对人类社会影响的思考,不会只停留在未来工作岗位变化和消失的层面上。作为一场深刻的革命,AI正在给人类社会带来全面的冲击与影响。

      2017年5月23日,AlphaGo 来到中国浙江乌镇,与当今世界围棋第一强者柯洁对奕。结局是AlphaGo以3:0轻取。赛后,代表人类作最后顽强抵抗的柯洁有感而泣,称赞机器对手太完美了。

      柯洁宣布,这是自己与AlphaGo最后的比赛。DeepMind也同时宣布AlphaGo退役,今后不再与人类比赛。人机围棋大战,棋局已经结束,AlphaGo将进入更广泛更深入的AI领域。

 

乌镇一役已成AlphaGo与人类围棋对弈绝唱

      随着AI这一轮强劲复兴,在一个又一个领域里,AI的卓越表现让人惊艳,但新一轮的担忧又出现了:AI会超越人类智能吗?什么时候超越?AI会威胁人类吗?在一天天强大的AI面前,人类将何去何从?

      貌似能解答这些问题的人,一个一个适时出现了。2017年年初开始,牛津大学历史学博士、以色列希伯来大学历史系教授尤瓦尔·赫拉利(Yuval Harari)的一本新书中文版一纸风行,书名叫《未来简史》(Homo Deus: A Brief History of Tomorrow)。虽然冠以历史,但全书却是在描述人类未来,尤其是AI影响下的人类未来。书名中的拉丁文Homo Deus,意思是人神或神人,翻译者处理为智神。书中有一个关键的、极端的、当然也备受争议的观点,那就是在AI影响下,人类的大部分可能变成无用阶级,只有少数人进化成特质发生改变的智神(人神)。

      《未来简史》引起了广泛关注。尽管也广泛受到严厉批评,如英国《经济学人》杂志尖锐抨击《未来简史》是“一部肤浅、华而不实的作品。”但这些批评似乎没有影响书的热销,书中观点,如认为无机算法(机器算法)会超越有机算法(生物算法,即人类算法)、智人(今天人类)会失去统治力等等,都广为传播。

      而美国发明家、未来学家雷·库兹韦尔(Ray Kurzweil)在十多年前的《奇点临近》(The Singularity Is Near:When Humans Transcend Biology)一书中,不但预言AI会超过人类智能,还预言未来AI和人类会紧密结合,形成人机系统。他甚至敢预测具体时间,说21世纪40年代中期,这样人机融合的奇点(突变点)时刻就会来临。

      如果仔细阅读相关书籍,会发现名人及他们的畅销书其实也并不完全是在描述黑暗未来。2017年1月新华社记者采访尤瓦尔·赫拉利,直截了当问他,人类未来是悲观还是乐观?他的回答是——总体乐观,关键在于全球合作。对于人工智能可能带来的问题,最重要的是处理好人类和技术的关系,让技术服务人类,而非奴役人类。

      如果他是这样的认知,与多数人并不相左。但由于媒体的推波助澜,名人们对AI未来发展的各种负面分析和预言更加集中和突出,使AI威胁论形成舆论涟漪,一波接一波扩散。

  

这是一次新浪潮

      主流AI专家学者,坚持反对AI威胁论。脸书(Facebook )AI实验室主任、纽约大学(NYU)计算机科学教授杨立昆(Yann LeCun),是深度学习的主要奠基者之一,他非常反感AI威胁论。 2014年4月在接受IEEE 《Spectrum》采访时,他认为AI研究者在之前很长的一段时间都低估了制造智能机器的难度。AI的每一次新浪潮,都会带来这么一段从盲目乐观到不理智、最后到沮丧的阶段。

      今天出现AI威胁论的盲目悲观预言,很像是进入一片生机勃勃茂密森林的人,迷失了眼前的方向和路径。如果能登上森林之巅远望,回顾来路,远眺前方,那结论可能完全不同。

      今天的AI发展阶段,著名华裔女科学家李飞飞2017年5月在谷歌  I/O 2017 大会上,曾经有形象的描述。她这样说——过去的 60 年,我把它称为”in-vitro AI“,或者“AI in vitro”( in vitro即试管内、生物活体外)。这一阶段为 AI 研究的基础问题以及众多子学科打下了基石。后者包括机器人、计算机视觉、自然语言处理、语音处理、生物保护学等等。这同样是一个研究人员们不断理解数据、寻找工具集的过程。

 

李飞飞在谷歌  I/O 2017 大会上提出“AI in vivo”是一个 AI 技术向世界做出实际贡献的阶段

      而 2010 年左右是一个分水岭。这时,三个不同领域的进步终于达到了一个前所未有的里程碑高度:统计机器学习领域工具的成熟、互联网和传感器带来的大数据、摩尔定律预测的硬件计算性能提升。这三者的合力,把 AI 从 “in vitro”阶段,推上了一个被我称为 “in vivo” (in vivo即生物活体内,也可以理解为胚胎阶段)的全新阶段。

      “AI in vivo”,是一个 AI 技术向世界做出实际贡献的阶段。当下这个时间点,还仅仅只是个开头。在我眼里,这是一个历史性的时刻:AI 终于开始发挥现实影响力,改造无数个行业。

      我想要再强调一遍:一切刚刚开始。现在 AI 领域的工具和革命性技术,仅仅是广袤海洋中的几滴水。剩下的可探索空间,即我们能借助 AI 实现的事情,几乎是无限的,再怎么夸大也不为过。对此,如果你感到兴奋激动,或许是应该的——有许多工作等着我们去做,来实现 “AI in vivo”。

      李飞飞的上述描述非常准确和精彩。如果把AI比为试管婴儿,已经经历了60年漫长试管阶段,而放入生物体内成长的胚胎阶段才刚开始。这时的AI具有蓬勃生长的无限活力,但目前还是充满希望的胚胎。

      AI专家们比较一致的观点是,今天的AI在感知和认知方面已经取得了长足的进步,常常超过人类智能。而在情感和自主意识方面,AI与人类智能还有非常大的差距,甚至可以说还存在鸿沟。

      机器智能和人类智能的这道鸿沟,能不能填平和什么时候填平,也是人类长久探讨的问题。

 

乐观的开始

      即使在这样的阶段,人类也高度重视AI今天和未来的影响。工作岗位的变迁,当然是人们要关注的重大社会问题之一。

      关于AI影响工作岗位的研究报告一个接一个出台,以前的报告大多比较悲观,常常含有警示意义,提醒人们要高度重视这一问题。但是,乐观的报告也开始出现。2017年4月,瑞银财富管理推出了《亚洲前曕:人工智能如何塑造亚洲新面貌》研究报告。报告大胆预测,在AI驱动创新的潮流下,亚洲地区中长期将有3000万~5000万个工作岗位受到冲击。

      瑞银估计,至2030年AI每年为亚洲贡献的经济价值将高达1.8—3.0万亿美元。AI会影响大量的岗位,但不大可能导致就业危机。亚洲员工整体生产力会随着AI的崛起而显著提高,将有充分的机会来提升技能,并转向其他创造性领域,最终AI会在亚洲创造数百万个新的就业机会。

      瑞银的报告给人以启示,AI是会大量影响工作岗位,但如果应对得当,社会的整体就业情况反而会改善和可控。瑞银的研究报告,是否可以作为对尤瓦尔·赫拉利们的回应?

      工业革命以来的经验与事实也可以作为佐证,机器的广泛使用使农业和手工业工人大量减少,但全社会就业岗位却大量增加。信息技术革命也是如此,水银泻地般渗透进各行业的信息技术,影响了无数旧的工作岗位,但我们也亲眼目睹,新的岗位源源不断产生出来。有人曾经计算过,如果没有数字程控交换机,一半以上的美国妇女从事电话接线员工作还忙不过来。但今天她们在哪里?历史的镜子,可以照见AI的未来。

 

伦理与法律

      人类更重大的关注点是AI伦理与相关法律,这是关于AI的根本性问题。联合国教科文组织一直重视技术伦理的研究。2016年12月,教科文组织的顾问机构世界科学知识和技术伦理委员会(COMEST)新技术研究的一个工作小组,发布一份报告草案,报告审视了使用自动机器人及人机互动的相关伦理问题。报告指出,快速发展的高度智能自动机器人,很可能会挑战现有的道德划分标准。机器人行为即便再复杂、再智能、再自动化,仍然是由人类决定。由于设想未来机器人可能会变得更高级(可能达到能通过经验学习来设定自我的程度),因此,它们的规则系统会成为值得认真考虑和反思的伦理问题。报告还认为,如果机器人的自主性发展到有必要对其进行伦理制约的程度,可以通过将专门的伦理代码编程到系统中,来防止它们作出危害性行为(如威胁人类和环境)。考虑到当代机器人的复杂性,当机器人功能紊乱而伤害到人类的情况出现时,谁应该承担伦理和法律责任是一个新的研究领域。

      联合国教科文组织在研究和建立全球AI伦理方面责无旁贷,但这项工作也应该由全人类共同参与和担责。

      2017年1月,在美国加州Asilomar召开了“阿西洛马会议 ”(The 2017 Asilomar Conference)。特斯拉CEO伊隆·马斯克、DeepMind创始人戴米斯·哈萨比斯等844名AI和机器人领域的专家们基于对AI迅猛发展的深切关注,联合签署了“阿西洛马AI原则 ”(Asilomar AI Principles),这一文件也称为“阿西洛马宣言”。宣言呼吁全世界的AI工作者遵守这些原则,共同保障人类未来的利益和安全。

      “阿西洛马AI原则”分为三大类23条。第一类为科研问题,共5条,包括研究目标、经费、政策、文化及竞争等;第二类为伦理价值,共13条,包括AI开发中的安全、责任、价值观等;第三类为长期问题,共5条,应对AI造成的灾难性风险。这23条原则,也被称为“二十三条军规”。这样的比喻借用自美国著名作家约瑟夫•海勒的黑色幽默小说《第二十二条军规》书名,含义是为AI的不规范或非法行为设置不可逾越的障碍和禁区。

      与人们熟知的科幻作家阿西莫夫的 “机器人三法则”相比,“阿西洛马AI原则”意义重大,反映出人类AI应用日趋成熟的同时,面对的人机伦理问题更为复杂。因此,对AI今天和未来的思考更加成熟和周密,已经在伦理和法律上认真探讨和规范对AI的实际有效管控。

      上述的研究报告和宣言,也许是人类行动的第一步。对AI时代人机伦理的探讨与研究,以及相关法律的制定与完善,将是一项永不休止的基础性工作。尽管AI还在胚胎阶段,但人类对它的未来,已经未雨绸缪,作好周密的准备。

      所以,AI是人类可靠的智能工具,也是亲密的朋友,我们完全有信心和能力,让未来美好家园里,永远不会出现终结人类的机器恶魔。

 
本文出自2017-06-12出版的《电脑报》2017年第23期 A.新闻周刊
(网站编辑:pcw2013)


我来说两句(0人参与讨论)
发表给力评论!看新闻,说两句。
匿名 ctrl+enter快捷提交
读者活动
48小时点击排行
论坛热帖