随着人工智能技术的崛起,第四次工业革命的序幕已悄然拉开。人工智能技术已渗透到我们生活的方方面面:智能导航,可以帮助我们规划一条避免拥堵的路线;扫脸支付,让我们可以不用再带钱包出门;换脸软件,使我们瞬间实现了拍戏的梦想;甚至有一天,手机语音助手可能会成为“最懂你的人”……在我们享受这些便利和欢乐的同时,困扰也随之而来。Deepfake威胁、个人隐私暴露、大数据杀熟等等,人工智能技术的发展带来的伦理问题与社会挑战正吸引着全社会的目光。
2019年10月18日下午,CNCC2019分论坛之「人工智能开发的道德边界在哪里?」在苏州金鸡湖国际会议中心A206引发了与会嘉宾的激烈讨论。本论坛由CCF监事长、鹏城实验室党委书记杨士强教授担任论坛主席,由CCF YOCSEF深圳分论坛主席、鹏城实验室前沿学术中心副主任齐竹云担任共同主席,并由深圳云天励飞技术有限公司战略规划总监莫磊和南方科技大学助理研究员杨镕玮共同担任在线执行主席。
CCF监事长、鹏城实验室党委书记杨士强教授致开幕辞
本次论坛邀请了来自北京大学、中科院自动化所、腾讯公司、平安集团等业内专家学者,与现场近百名来自各行各业的观众共同探讨“人工智能开发的道德边界在哪里”,即讨论在人工智能算法研究及产品研发中,我们可以做什么?不可以做什么?如果要做,怎么做?特别地,论坛有幸邀请到了复旦大学应用伦理学研究中心主任王国豫教授,长期从事高科技伦理问题的基础理论和应用对策研究。她在CNCC2019大会第一天带来的演讲报告《人工智能伦理:从可能性推测走向可行性探索》,吸引了业界的关注。
与传统主题论坛不同,本论坛共分为三个阶段,每一阶段会有嘉宾的引导发言、特邀嘉宾发言和思辨环节,现场观众在思辨环节可以畅所欲言,各抒己见。本次论坛中,由北京大学讲席教授邓小铁、中科院自动化所研究员曾毅、CCF副理事长腾讯公司副总裁王巨宏分别在各阶段进行了引导发言。此外,论坛还邀请了三位特邀嘉宾分享他们对于人工智能开发的道德边界问题的见解和看法,他们分别是北京大学教授黄铁军、北京大学副教授吴天岳、平安集团信息化工作部总监姜桂林。
邓小铁:与AI交互的伦理挑战
北京大学讲席教授邓小铁作引导发言
第一架飞机、第一辆火车、Nobel的雷管……任何一项新技术的兴起,都会引发一系列的争议,AI也不例外。工业革命使得传统手工业定制被大机器工业批量生产而取代,而AI革命的到来让我们又可以回归到个性化定制的时代。那么当AI技术出现伦理风险时,如何界定AI与人的边界、如何与AI定契约至关重要。邓小铁教授指出,随着技术的发展,这里的边界不仅是人与AI的边界,还应包括AI与AI之间的边界。我们在与AI制定契约时需遵循三大最基本的要求:可执行、可验证、可持法。从算法、技术和实现角度来看,与AI交互有以下四个方面的挑战值得探讨深思:
– Code is Law?这句话在AI中适用么?如果真的适用,如何建立、遵循、改造这样的程序,由谁来操作?
– 谁能代表AI定合约?是AI的制造者么?当AI还在,但制造者消失了的时候,谁还能为AI负责?
– AI伦理设计的不可能三角。在为AI设计伦理时,人类的机制如何设计、AI如何执行、市场如何接受,这三者是不是构成不可能三角,不可能同时做到?
– 由AI来构造AI?当技术继续发展,在AI伦理的实现中,有人提出“Bootstrapping”——由AI来构造AI。这时,人类是否还有能力对AI实施管理和监测?
曾毅:人工智能伦理原则:全球景观、挑战与技术探索
中科院自动化所研究员曾毅作引导发言
曾毅指出,目前全世界发布的关于人工智能伦理原则至少有53个,但因为发布者的立场和视角不同,没有任何一个原则可以做到覆盖所有问题。而且,人工智能技术自身的局限性限制了人工智能开发对原则的遵循和贯彻。比如尊重隐私,当用户要求删除数据时,虽然数据本身可以删除,但是无法抹除在机器学习中的痕迹。还有机器学习的准确率,对某些场景的误判会带来严重后果。这些都是人工智能技术本身在学术上需要突破的难点问题。曾毅认为,人工智能伦理问题,并不仅仅在于有多少领域的人参与这个问题,而是有多少技术人员真正的重视这个问题。
2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。曾毅认为,人工智能的发展一定要有一个明确的方向。目前人工智能的发展,多数只关注对经济发展的推动,我们应当重视其对社会及生态的影响,推动经济、社会及生态可持续发展。同时,在人工智能的治理中,虽然各个国家、组织的视角不同、原则不同,但立足全人类,大家所关注的关键点大同小异,我们应当携手共建人类命运共同体。
曾毅总结到,人工智能伦理道德的问题都要进行技术落地,至于每一步怎么走都是举步维艰的。正如剑桥大学近期提出并正在进行的一项研究项目指出,不管你用任何途径实现通用人工智能,都会有风险。但不能因此而停止对通用人工智能的研究,而是应当对实现通用人工智能中潜在的社会风险与伦理挑战进行全方位战略性研究。
王巨宏:以科技向善迎接数字时代新挑战
腾讯公司副总裁王巨宏作引导发言
科技是一种能力,向善是一种选择。科技发展需遵从人类社会的进步与发展,才能称为科技的进步。因此,在2019年,马化腾宣布“科技向善”成为腾讯公司新的愿景和使命。而腾讯首席探索官David Wallerstein(网大为)在2018年腾讯WE大会上就曾率先提出,腾讯将打造“会救命的AI”并利用AI技术解决地球级挑战。科技的发展必须用于解决地球所面临的最大挑战。据王巨宏女士介绍,在腾讯内部,公司倡导并鼓励开发人员开发“有温度的科技产品”。同时,在人工智能开发中,腾讯提出并倡导“四可”理念:可知、可控、可用、可靠,研发人员需要致力于解决人工智能“黑盒”问题。如今,腾讯AI在寻人、医疗、农业等领域均已实现落地,并大力推进开源协同,都是腾讯践行企业“科技向善”理念的实际体现。
人工智能开发的道德边界能刻画出来么?
对人工智能开发的道德边界的探讨有必要么?特邀嘉宾北京大学副教授吴天岳认为,随着AI技术的快速发展,AI的制造者、使用者和一般民众对AI的未来都产生了一些道德恐慌。现在人们对AI的依赖性越来越高,在缺乏法律约束的情况下,AI的滥用可能会带来严重后果。因此,我们需要对AI所产生的道德问题进行探讨,引发人们对道德问题的关注,从而推动新的立法的产生。
那么,人工智能开发的道德边界能刻画出来么?来自上海的秦晓飞律师认为,现有的AI还不能作为一个道德主体,那么这里所讨论的道德边界指的还是对人的行为划定的边界。天津理工大学罗训教授指出,到底做什么是道德的,什么是不道德的?人类本身的道德边界就很难界定,很难静态去刻画。论坛特邀嘉宾平安集团姜桂林也认为,自古以来,人类道德边界随着时代的变迁也是在不断变化的。
特邀嘉宾平安集团信息化工作部总监姜桂林发言
综上来看,我们很难为人工智能开发准确地刻画出一个具体的边界。如特邀嘉宾吴天岳教授所言,尽管人们对于不少核心道德价值有基本的共识,但并没有一个清晰的、现成的道德法则可以直接挪用到AI的技术开发上。因此,人工智能开发的道德边界不应是一个静态的划定,而是一个动态的展开。
如何约束人工智能开发不越界?
当我们无法刻画人工智能开发的道德边界时,我们该如何保障人工智能开发不会越界?北京大学谢涛教授认为,对机器的道德约束可以用自然语言来描述,但我们需要通过算法设计等技术手段让自然语言真正的在AI开发中去实现、去验证。
特邀嘉宾北京大学副教授吴天岳发言
针对AI开发者而言,吴天岳教授认为,职业道德和职业伦理的缺乏,是我们现在很多社会问题的根源。技术作为一种手段是服务于某种特定目的的,而这个目的是一定有道德性可言的。所以我们需要强化AI开发者的伦理意识,而不是等产品出来后再去进行监管。AI开发者应当意识到,AI技术实现是为了一系列人类核心道德价值服务的,而不仅仅是为资本和权力服务。
对于人工智能开发的不越界,仅仅依靠企业或个人的自我约束是不够的,还需要外部监管。“外部监管很重要。”平安集团首席科学家肖京强调,并提出了自己的看法,“外部监管在制定一系列约束的同时,若能为企业提供更好地帮助,引导企业如何在保证“活下去”的基本要求下,合理地进行AI技术开发,就可以实现协同共赢”。
以更广阔的视野看道德边界
科技发展应坚持以人为本,探讨人工智能开发的道德边界,与“科技向善”的终极目标是一致的,就是追求至善。在人工智能开发中,如何恪守与贯彻道德底线,不仅仅是考虑如何弥补伦理失范的风险,可以从正面将“科技向善”的理念对科技企业、开发者及使用者进行熏陶、探索和反思,从而引导AI变得有道德。
特邀嘉宾北京大学教授黄铁军发言
此外,特邀嘉宾北京大学黄铁军教授指出,目前所指的人工智能是嵌入在人类社会的一种形态,人工智能开发应遵循人类整体基本的道德共识。但机器智能超越人类智能,这是一个未来进化的趋势。科技创新和发展不应被人类自身的局限性而限制,对人工智能的发展我们可以持有一个更开放的心态来对待。
在论坛接近尾声时,在线主席莫磊对本次论坛进行了总结发言,“意大利教育家蒙台梭利说‘建立在规则上的自由,才是真正的自由’。时光不止,探索不息,本次论坛中我们对人工智能开发道德边界的讨论仅仅是一个起点,我们希望借此可以更多地引发人们对人工智能伦理风险问题的关注及重视,引导人们对人工智能治理框架的思考,助力人工智能技术朝着向善的方向大步向前”。
「人工智能开发的道德边界在哪里?」论坛合影