- 2017/6/14 9:46:39
- 类型:原创
- 来源:电脑报
- 报纸编辑:电脑报
- 作者:
乐观的开始
即使在这样的阶段,人类也高度重视AI今天和未来的影响。工作岗位的变迁,当然是人们要关注的重大社会问题之一。
关于AI影响工作岗位的研究报告一个接一个出台,以前的报告大多比较悲观,常常含有警示意义,提醒人们要高度重视这一问题。但是,乐观的报告也开始出现。2017年4月,瑞银财富管理推出了《亚洲前曕:人工智能如何塑造亚洲新面貌》研究报告。报告大胆预测,在AI驱动创新的潮流下,亚洲地区中长期将有3000万~5000万个工作岗位受到冲击。
瑞银估计,至2030年AI每年为亚洲贡献的经济价值将高达1.8—3.0万亿美元。AI会影响大量的岗位,但不大可能导致就业危机。亚洲员工整体生产力会随着AI的崛起而显著提高,将有充分的机会来提升技能,并转向其他创造性领域,最终AI会在亚洲创造数百万个新的就业机会。
瑞银的报告给人以启示,AI是会大量影响工作岗位,但如果应对得当,社会的整体就业情况反而会改善和可控。瑞银的研究报告,是否可以作为对尤瓦尔·赫拉利们的回应?
工业革命以来的经验与事实也可以作为佐证,机器的广泛使用使农业和手工业工人大量减少,但全社会就业岗位却大量增加。信息技术革命也是如此,水银泻地般渗透进各行业的信息技术,影响了无数旧的工作岗位,但我们也亲眼目睹,新的岗位源源不断产生出来。有人曾经计算过,如果没有数字程控交换机,一半以上的美国妇女从事电话接线员工作还忙不过来。但今天她们在哪里?历史的镜子,可以照见AI的未来。
伦理与法律
人类更重大的关注点是AI伦理与相关法律,这是关于AI的根本性问题。联合国教科文组织一直重视技术伦理的研究。2016年12月,教科文组织的顾问机构世界科学知识和技术伦理委员会(COMEST)新技术研究的一个工作小组,发布一份报告草案,报告审视了使用自动机器人及人机互动的相关伦理问题。报告指出,快速发展的高度智能自动机器人,很可能会挑战现有的道德划分标准。机器人行为即便再复杂、再智能、再自动化,仍然是由人类决定。由于设想未来机器人可能会变得更高级(可能达到能通过经验学习来设定自我的程度),因此,它们的规则系统会成为值得认真考虑和反思的伦理问题。报告还认为,如果机器人的自主性发展到有必要对其进行伦理制约的程度,可以通过将专门的伦理代码编程到系统中,来防止它们作出危害性行为(如威胁人类和环境)。考虑到当代机器人的复杂性,当机器人功能紊乱而伤害到人类的情况出现时,谁应该承担伦理和法律责任是一个新的研究领域。
联合国教科文组织在研究和建立全球AI伦理方面责无旁贷,但这项工作也应该由全人类共同参与和担责。
2017年1月,在美国加州Asilomar召开了“阿西洛马会议 ”(The 2017 Asilomar Conference)。特斯拉CEO伊隆·马斯克、DeepMind创始人戴米斯·哈萨比斯等844名AI和机器人领域的专家们基于对AI迅猛发展的深切关注,联合签署了“阿西洛马AI原则 ”(Asilomar AI Principles),这一文件也称为“阿西洛马宣言”。宣言呼吁全世界的AI工作者遵守这些原则,共同保障人类未来的利益和安全。
“阿西洛马AI原则”分为三大类23条。第一类为科研问题,共5条,包括研究目标、经费、政策、文化及竞争等;第二类为伦理价值,共13条,包括AI开发中的安全、责任、价值观等;第三类为长期问题,共5条,应对AI造成的灾难性风险。这23条原则,也被称为“二十三条军规”。这样的比喻借用自美国著名作家约瑟夫•海勒的黑色幽默小说《第二十二条军规》书名,含义是为AI的不规范或非法行为设置不可逾越的障碍和禁区。
与人们熟知的科幻作家阿西莫夫的 “机器人三法则”相比,“阿西洛马AI原则”意义重大,反映出人类AI应用日趋成熟的同时,面对的人机伦理问题更为复杂。因此,对AI今天和未来的思考更加成熟和周密,已经在伦理和法律上认真探讨和规范对AI的实际有效管控。
上述的研究报告和宣言,也许是人类行动的第一步。对AI时代人机伦理的探讨与研究,以及相关法律的制定与完善,将是一项永不休止的基础性工作。尽管AI还在胚胎阶段,但人类对它的未来,已经未雨绸缪,作好周密的准备。
所以,AI是人类可靠的智能工具,也是亲密的朋友,我们完全有信心和能力,让未来美好家园里,永远不会出现终结人类的机器恶魔。
更多关于 AI传奇 的文章 |
报纸客服电话:4006677866 报纸客服信箱:pcw-advice@vip.sina.com 友情链接与合作:987349267(QQ) 广告与活动:675009(QQ) 网站联系信箱:cpcw@cpcw*.c*m
Copyright © 2006-2011 电脑报官方网站 版权所有 渝ICP备10009040号