当前位置: 首页 > 科技 > 人工智能 > 【太和时评】T20建言:构建人工智能治理的全球协调机制_

【太和时评】T20建言:构建人工智能治理的全球协调机制_

天乐
2020-06-11 01:34:06 第一视角

关注时代

On Times We Focus

本文作者:

托斯登·耶里尼克(Thorsten Jelinek)太和智库欧洲中心主任

温德尔·瓦拉赫(Wendell Wallach)耶鲁大学跨学科生物伦理学中心科技与伦理学科主任,黑斯廷斯中心高级顾问

丹尼尔·卡里米(Danil Kerimi)世界经济论坛第四次工业革命中心中国部主任

太和智库总第582篇原创文章,转载请注明出处。

正文4970字,读完约需11分钟。

点击右侧按钮收听

(图片来源:pixabay)

挑战:亟待建立人工智能治理的全球协调机制

人工智能治理亟须全球协调。决策自动化、对海量数据的重复利用和无处不在的数字化,驱动着全球经济发展和各国战略竞争力提升。然而,没有任何一个国家或利益攸关方能够仅仅依靠自身力量持续且有效地防范和化解不断变化并深入影响国际战略关系的信息物理(Cyber-Physical)[1]威胁与长期结构性风险。目前,建立人工智能治理的全球协调机制已成为一项亟待解决的议题:

首先,人工智能是一个多技术交叉融合的领域,在不同的应用、行业和地域中存在不同的风险,而且这些技术正在迅速发展并推广应用,最终将渗透到人类生活的方方面面。现有法规和传统监管方法难以应对这种复杂局面,也难以跟上人工智能的发展速度。其次,人工智能治理要求对人工智能伦理、规范、政策、行业标准、实验室实践和工程解决方案等多方面进行协调,同时,全球人工智能领导权的激烈竞争也不容忽视。竞争促进创新,但也会削弱责任意识,导致人工智能资源的集中和权力的失衡。最后,文化差异、政治利益斗争和政府体制差异会造成不同国家的人工智能治理规范框架和法规之间的冲突,从而加剧国家间的紧张关系,进一步破坏亟待实现的国际合作。

提议:对G20进行局部变革,以使CCGAI成为全球人工智能的元治理[2]主体

人工智能扩大了关于数字化和网络空间治理的讨论,而这些讨论已呈现出高度分散的“机制复合体(Regime Complex)[3]”态势。如果没有全球协调和联合干预,日益增长的对“数字主权”的需求可能转变为“技术民族主义”,并强化低信任度环境。人工智能存在固有的技术风险,但人类行为和对人工智能的使用才是固化人类目前发展轨迹的主要风险因素。而随着时代进入“有争议的多边主义”和“大国竞争”的恶性循环期,人工智能的负面影响将愈发凸显。全球分裂发展的趋势亟须全球协同响应。鉴于G20对国际政策协调和框架设计具有相当大的影响力,G20应当肩负起成立人工智能治理协调委员会(Coordinating Committee for the Governance of Artificial Intelligence,简称CCGAI)的重任。

在平衡创新、竞争和合作需求的同时,化解人工智能带来的风险和不良后果,是政府面临的巨大挑战。这一挑战源于人工智能赋能的数字化和机器人技术的双面性、不确定性和包罗万象的特性,还源于已经碎片化的网络治理机制复合体和日益严重的国际合作与信任缺失问题。因此,我们强烈建议成立CCGAI。2019年,G20根据经济合作与发展组织(OECD)的人工智能原则,就“以人为本的人工智能,促进创新和投资”形成了一套规范。G20应在此基础上进一步深化,并落实拟议的协调机制。G20可以借此机会积极主动地减少和化解人工智能带来的威胁和风险,同时通过实现一体化、一致性和尊重差异的协调机制来应对当今的碎片化发展问题。

人们普遍认为,G20自成立以来能够持续发展,原因在于它是一个非正式的审慎国际论坛组织,负责组织工作的秘书处采用轮换制,为国家和非国家行为体之间建立联系提供了便利。但同时,这种非正式性和灵活性也是G20的缺点和局限性。建立CCGAI需要G20在人工智能治理进程中实现某种集中化和规范化发展。我们认为,若要提升G20运行的有效性,以及发挥网络治理机制复合体在有效减少和化解人工智能和信息物理威胁和结构性风险方面的作用,集中化发展非常有必要。

国际社会最初应对新兴技术的方式是广泛建立非一体化或局部一体化的组织并制定国家和区域层面的规范和监管方法。分散、自发或多中心的治理方案已表现出明显优势,这些治理方案能有效识别广泛的不确定性,发现政策问题并因地制宜制定解决方案。例如,在区域层面上,欧盟委员会在遵循并参考现行欧盟规范框架和法律的基础上,成功地整合了各成员国的应对措施,且制定了人工智能与数据的预先监管战略。这种区域一体化有助于规避人工智能与数据风险并提高竞争力。然而,在全球范围内,网络空间和人工智能赋能的数字化发展本身的战略性和竞争性极大地强化了“回归单一民族国家”的发展态势。在自我保护与相互协作之间寻求平衡的“数字主权”需求可能会破坏多边主义并转变为技术民族主义,进而可能导致国际治理机制复合体功能失调,破坏地方和区域治理,削弱其作用或有效性。因此,只有在全球范围内进行全面协调,才能有效应对、化解未来的威胁与失衡状态。

我们并未将CCGAI定位为一个拥有直接执法权和完整的国际网络治理机制复合体的单一法律机构。考虑到G20不仅是一个非正式的、以危机应对为导向的机构,它还在全球统筹方面持续发挥着促进合作与协调的作用,CCGAI必须在这两种作用之间找到平衡点。建立CCGAI要求G20至少要根据以下四项机制特征,即协调、问责、前瞻和磋商,进行局部改革。在这些特征的作用下,CCGAI将会成为“元治理主体”(Metagovernor):

1.将全面协调作为一项“元治理”任务。其目的是建立CCGAI与G20机制内相关行为体(包括委员会、理事会、特别工作组和B20、C20和T20等团体)之间的联系,并形成相应的制度。其总体任务为协调、整合各项职权并下放职责和决策权。同样重要的是,这种强大的协调职能还需G20与更多的人工智能和网络治理机制复合体中的主要行为体之间正式建立多层级的稳定关联。在此过程中,CCGAI的目标并非与其他机构和机制竞争,而是促进合作,以实现一体化和一致性,并推进“负责任”的全球人工智能治理进程。此协调职能可用于国际协定和条约的制定与磋商,有助于G20发展成为一个活跃的行为体。

2.通过问责程序获得合法性与信任。成员国、职权、层级结构和网络治理之间的协调和决策过程有赖于透明、基于规则、合理且可制裁的程序。规范化具有重要意义,透明度也有助于提高CCGAI的有效性。协调工作还必须保持一定的灵活性,为非正式性处理方式留出空间。在当前碎片化发展背景下,共识并非常态,技术的不确定性问题也不时出现,因此CCGAI还必须遵循规范的程序来包容、管理分歧与冲突。CCGAI应当求同存异,为针对分歧的讨论提供便利,以期形成共识。

3.利用战略前瞻提高协调和决策的有效性。战略前瞻要求对人工智能及相关政策的发展与应用进行监测,加快政策响应,并就不断变化的人工智能威胁和风险提出预警和国际防治策略。在此过程中,CCGAI的主要作用并非推出新的治理工具,而是共享监督成果,并推动落实已经颁布或拟议的工具。CCGAI将分析如何整合现有治理和监管工具,发现其共同点以及有待解决的缺口和政策冲突。战略前瞻还应根据以下六项标准来衡量CCGAI自身的领导力和改进人工智能和网络治理机制复合体的能力。这六项标准分别为:一致性、问责制、有效性、确定性、可持续性和认知质量。这种前瞻性信息应纳入现有的G20数字政策知识库中。

4.建立公共磋商机制提高治理协调过程中的透明度、有效性、合法性和信任度。G20需要建立正式的磋商机制,将利益攸关方,特别是公民社会团体和非G20国家纳入秘书处,推动官方政策的讨论。公共磋商机制为提出关切、提供反馈和解决权力不对称等提供平台,也能够满足小国和公共服务不足的组织的需求。公共磋商机制应当推动实现包容性协调进程、促进自组织[4]和治理网络发展、并帮助适应治理的多层次、多学科和多中心环境。G20必须借此努力提供公平机会,而非优惠待遇。公共磋商是真正意义上的多方利益攸关方投入机制,有助于G20保持开放性、灵活性并保持反思。

全球协调的重点对象:人工智能的两类风险

为实现高效协调运行,需要明确人工智能全球协调所针对的对象,即人工智能规范、治理和工程的各个部门、维度和具体内容。协调工作和政策讨论的内容应至少包括对人工智能技术的统一定义、人工智能生态系统和人工智能风险状况。不同领域对人工智能技术的定义不一,这种情况有待改善,CCGAI需促进各方就其定义达成共识并予以实时修订。以下我们将重点考察人工智能风险的全面概况,这是构建国际协调机制并实现“以人为本”的人工智能发展的关键所在。人工智能可能会引发前所未有的风险,这些风险可以分为两大类:1.在特定领域遭遇的直接威胁;2.较长时期内出现的结构性风险。

1.直接威胁:人工智能技术的发展和应用影响着当前的网络安全威胁。恶意使用人工智能会极大地改变并加剧网络威胁。具体而言,现有威胁将会扩大,变得更明显且更具针对性,而且新型威胁将层出不穷。除蓄意攻击造成破坏、盗窃或间谍活动外,还会出现不可预测的事故和意外。人工智能安全问题已经成为国家安全和国家关键基础设施保护的重点。如果没有强有力的国际协调和责任承诺,人工智能安全问题可能会进一步加剧网络治理机制复合体的分裂和碎片化态势。

2.结构性风险:如果没有协调和干预,人工智能赋能的数字化风险或将面临严重的结构性失衡。结构性风险会导致更加难以预测和化解的长期后果,其影响范围也更广泛。技术是人类行为不可分割的一部分,人工智能的使用很有可能固化当前历史发展进程。结构性风险将影响人类社会的各个层面,包括经济、社会、政治、国际关系和地缘政治安全。经济方面,可能导致大规模劳动力转移、就业不足和去技能化,中低收入国家或成为最大的受害者。社会方面,尊严、隐私和价值的日益缺失将影响公民身心健康和社会凝聚力。政治方面,人工智能通过限制自治空间,加大了国家、经济和社会之间力量平衡点转移的结构性风险。对人工智能领导地位的全球激烈竞争可能会破坏现有国际关系,技术主权会转变为技术民族主义。最终,由人工智能赋能、具备攻击性的网络能力(尤其是致命性自主武器)将被扩散并可轻松获取,这可能会增加持续的不对称冲突。

CCGAI应监控并确定全部的直接威胁和结构性风险,并了解人工智能技术的运用与人类活动之间愈发紧密的互相依赖关系。安全问题通常不在G20的议题范畴之内,但是鉴于人工智能的发展可能加剧网络治理机制复合体的分裂和碎片化趋势,理应将其纳入讨论议题。对人工智能风险的全面监测不仅可以为政策讨论提供信息与指导,也可以协调和完善人工智能风险的国际防治战略、预警系统和危机响应预案。

(图片来源:pixabay)

受到人工智能影响的全球议题

1.数字主权:在数字和技术主权、多边主义以及全球竞争环境之间取得平衡的政策。

2.包容性数字经济:确保工作和社会的公正转型,同时促进人工智能和数据成为发展全球数字经济、推动创新和提升竞争力的驱动力。

3.市场力量失衡:通过能力建设和发展模式调整,满足发展中国家和公共服务不足的组织的需求。

4.国际安全:与具备攻击性的网络技术扩散相关的网络空间公约、职能、责任。

5.系统故障:最大限度减少和化解意外的系统故障风险和利用工程漏洞的风险。

6.人工智能为公共利益服务:利用技术为公共利益服务,包括脱碳发展、卫生和流行病、能源、粮食和不平等,等等。

7.协调架构:由于治理失败本身就是一种主要风险,因此必须将协调和治理机制纳入持续讨论与改革范围。

CCGAI的运行机制

G20人工智能协调机制应由协调委员会、顾问组、工作组、合作促进组、政策制定组和具有远见卓识和支持能力的监察组组成。协调委员会应是一个常设特许委员会,由每年轮换的联席主席领导,召集国家元首、政府首脑以及非国家代表参与。其成员必须就共同目标和规范达成一致,设计和实施协调机制,制定和遵守CCGAI的六大职能标准。协调委员会应鼓励并遵循包括上文所述四条特征在内的CCGAI机制特征。该委员会成员应致力于提出建议、形成共识,并就协调计划和行动达成一致,但仍需尊重分歧。CCGAI应不断改进,以成为全面、灵活和有合作精神的国际协调机制。

G20需要构建自身的协调和实施能力,以使CCGAI发挥其作用。G20应将其内部已完成的相关工作纳入CCGAI,并将CCGAI的职能与现有程序、宣言、原则和工具整合。需要注意的是,G20应重新修订《二十国集团数字经济发展与合作倡议》(中国,2016年)、《G20数字经济部长宣言》(德国,2017年)、《G20贸易和数字经济部长声明》及《G20人工智能原则》(日本,2019年),并充分利用G20数字政策知识库(阿根廷,2018年)。但是,CCGAI不能也不应该拥有并执行所有拟定的功能和议题,其中一些工作应由外部组织承担,但CCGAI仍应作为主要协调机构运作。有关元治理职能等议题,CCGAI应与联合国及现有的人工智能治理多边机构开展密切合作。

CCGAI面临的障碍

1.制度通常由实力最强的国家建立和维护。然而,出于对影响力和权力被削弱的担忧,大国之间的激烈竞争和日益高涨的民族主义,以及战后自由秩序的破坏,这种国际协调机制的建立可能会受到影响。

2.低信任度环境很可能会是一个长期问题,而激烈的竞争、政治及文化冲突会加剧利己主义和碎片化发展问题。

3.成立协调委员会或使大企业难以维持其在G20的特权和非正规进入渠道,因此可能会遭到私营部门的抵制。

4.长期以来,G20内部存在一股抵制力量,妨碍其自身变革为一个负责任的、基于规则的、缔结条约的且拥有常设秘书处的组织。

注释:

[1]信息物理(Cyber-Physical):计算资源、网络资源与物理环境的结合与协调。

[2]元治理(Metagovernance)即“治理的治理”,是指在对市场、国家、公民社会等治理形式、力量或机制进行一种宏观安排,重新组合治理机制。

[3]机制复合体(Regime Complex)是某一特定问题领域的一系列部分重叠且非等级化的机制组合。

[4]德国理论物理学家H. Haken认为,组织的进化形式可以分为两类:他组织和自组织。如果一个系统靠外部指令而形成组织,就是他组织;如果不存在外部指令,系统按照相互默契的某种规则,各尽其责而又协调地自动地形成有序结构,就是自组织。自组织现象无论在自然界还是在人类社会中都普遍存在。一个系统自组织属性愈强,其保持和产生新功能的能力也就愈强。

提示:支持键盘“← →”键翻页
为你推荐
加载更多
意见反馈
返回顶部