文/陈根
当前,大数据的快速发展正使算法融入并重塑人们的生活,算法作为机器可读的程序性指令,利用汇集人类行为的大规模数据集影响着人们方方面面的社会生活。比如,算法推荐新闻、推送广告、排名商品、安排专车,甚至经营工厂、驾驶飞机、评级信用。算法规训的社会日益成型。
不可否认,算法给人类的生活带来了诸多便利。然而,尽管算法在提高生产效率、社会福利、治理效能等方便发挥了重要作用,个体、社会和国家的发展都深受其益,但算法的应用也是一把双刃剑,带来了包括算法歧视、算法崩溃等新问题,也加剧了大数据时代以来的信息不对称、知识不对称以及信息茧房的问题。
算法赋能个体的同时,也增强了政府公权力和平台企业私权力的支配力、控制力和影响力,即算法权力。从一开始的“算法理性”再到后来的“算法暴政”,算法是否已经偏离造福人类的轨道?而算法社会中赋能后失衡的权力与权利关系又如何纠偏再平衡?
从有限人类理性到无限算法理性
作为一项当代科技,算法是一种有限、确定、有效并适合用计算机程序来实现的解决问题的方法,是计算机科学的基础。算法是理论中最纯粹的知识形式,在某种意义上,其可以看作是一种理性的计算工具。
由于有大数据和智能技术的支撑,因此,无论是在知识交流和知识共享方面,还是在学习既往经验方面,算法都远超过人类个体可以达到的程度。
以 Google 翻译为例,尽管其翻译的质量还有待提高,但其目前已经可以处理 108 种语言,而且其翻译的精度和可翻译语言的数量每年甚至每个月都在提升。而在人类中,只要会十余种外语,就会被视为语言天才。借助Google 翻译,一个人工智能可以运用的知识,是人类个体远远比不上的。
在学习既往经验方面,人工智能也远远超乎人类之上。比如,“人机大战”中打败人类围棋高手李世石的 AlphaGo。要知道,李世石在过去 15 年获得了十几个世界冠军头衔,总共下了 1 万盘围棋对弈,经过了 3 万个小时训练,每秒可以搜索 10 个走子。而诞生只有两年时间的 AlphaGo,差不多经历了 3 万小时的训练,每秒却可以搜索 10 万个走子。
可见,无论是在占有作为理性运用之基础的理论性知识方面,还是在占有关涉理性运用本身的实践性知识方面,算法都远远要超过人类。并且,作为无机生命,算法没有理性意志方面的弱点。
人是具有情感的动物,人类在做决定时很大程度上会带有主观色彩,而算法的运行则依靠着设计出的代码,本身没有情感可言,也就不存在理性意志薄弱的问题。与人类司机经常出现酒驾、不避让行人、闯红灯、疲劳驾驶等非理性行为相比,一个搭载智能算法的自动驾驶汽车可以避免这些问题。
换言之,人类常常因为情感或者欲望的限制,无法实施实践理性所要求的行为,从而导致“实践非理性”的出现,而没有感情的算法恰好可以做到完全的理性。算法就像是一个不知疲倦的“永动机”,只要有电源,只要机器运转正常,它就可以永远执行命令。正是这种“有理性、但又不会面临着人类理性意志薄弱困境”的特性,使得算法具有广阔的应用前景。
一方面,算法正在凭借着日益增强的计算能力,在海量数据的投喂以及机器学习中不断走向成熟。通过与互联网络的链接,开始逐步实现与整个社会的深度融合,实现权利赋能。算力的提高、算法技术自身的进步以及算法应用的多样化,赋予了各类私主体更多的权能和社会福利。
比如,算法应用的成熟拓宽了民众进行信息获取、知识获取、意见表达的渠道;政府可以通过相应的算法应用对民众所需信息、反应意见进行快速的归纳与分类;平台企业作为私主体,也可以结合其所提供的相关服务,有针对性地收集各类用户数据,促进算法技术的成长与成熟,再让成熟的算法应用反哺平台业务的发展。
另一方面,权力作为一种社会关系,是某个主体能够运用其拥有的资源,对他人发生强制性的影响力、控制力。而运用算法的主体可以通过算法进一步强化对其他主体的影响力和控制力,算法赋能权力由此而来。借由评级、分类、预测和数据处理,算法实际上是在作决断,选择某些方向、结果而不是另外的方向、结果。面对算法的强大支配力,人们正在失去选择的权力。
算法赋权走向失衡
相比传统权力形态,“智能化”的算法权力表现出更强大的控制力,可以深入社会、无远弗界,无孔不入,效能强大,但硬币的另一面则是算法对社会的异化。算法权力的作用直接表现为算法所产生的影响力与控制力,其深层次的影响在于对个体与社会之间关系的重塑,而重塑的结果却带来了权利与权力的格局失衡。
对于政府来说,当政府机关利用算法应用行使公权力时,其造成了治理的“算法化”与“去政治化”,人们必须普遍遵循政府机关所预设的算法规则。更进一步来看,算法已经与公权力紧密结合,在宏观调控、市场监管、公共服务、司法执法等各个领域得到深入应用。
在相当多场景下,算法已经取代了人的位置,直接做出具体行政行为。比如,公共区域遍布人脸识别的监控探头,人们须接受智慧交通系统所开出的交通罚单。这种无处不在的算法一方面便利了政府监管,另一方面也使得每个正常生活于现代社会的个人处于时刻被算法应用监听、监控、监督的状态,形成了一种控制型社会。
而对于企业来说,平台企业通过算法行使的私权力则更加具有针对性与特殊性。究其原因,算法权力作为一种“软权力”,有其自身的运行逻辑。智能算法的研发与使用依托于大型互联网企业,注定了算法权力以利益为导向,遵循商业逻辑,具有与生俱来的歧视性和偏好性。
在这个过程中,算法的研发和运行作为商业秘密,受到各个企业的保护,具有“黑箱”性质,资本可以轻易地将自身的利益诉求植入算法,利用技术的“伪中立性”帮助自身实现特定的诉求,实现平台的发展与扩张,追求利益最大化。
研发者的价值导向会内化在算法运行的过程中,进行意识形态的催化和导向。享有资本支持的算法技术能够享用更全面的数据样本,建立更优化的运行架构,强化对政府、公民、社会的影响力和控制力。
于是,在技术企业的层层包装下,“知情-同意”其实已经形同虚设,如在隐藏界面或者软件升级中设置“后门”,在软件下载使用过程中不设菜单式选择而只有概括式同意,隐私政策和用户协议有意用晦涩繁琐冗长的表述等方式,让用户“被知情”“被同意”。
并且,由于算法应用的广泛性,一旦拒绝使用或者由于能力所限不能使用,往往意味着正常生活受到影响。如不会使用二维码、智能手机的老年人、残疾人、贫困者,无法上网购物点餐、难以乘坐公共交通,不能扫码进出小区等。
要知道,权利是经由社会判断、协商和权衡后,得到公认受到保障的每个社会成员所应分配的合理利益。在法理学的视域下,权力是为权利而设置的,权利是对利益分配的处置。权力的根本是利益,既为特定的利益而存在,也以利益为基础和依托。
然而,算法权力的利益代表却是资本。这意味着,资本能够从事权利的界定及权衡,成为一种“公共机关”。并且,随着技术企业权力的不断壮大,国家与社会的二元结构被打破,形成了“公权力-私权力-私权利”的新权力格局,但权力与权利之间却出现了失衡。
一方面,公众源源不断地贡献了自己的数据,这成为了财富增长、权力实现的重要基础,而自己非但没能从中分享丝毫收益,反而还面临着隐私泄露、信息茧房、大数据杀熟等种种侵害,收益与风险远不成正比。另一方面,个人无时不刻地被算法定义、评级、处置,却因算法的不公开、不透明,其知情权、参与权、异议权、救济权等正当权利被架空。
以“数字人权”对抗“算法暴政”
从“算法理性”到“算法暴政”,算法仿佛偏离了轨道。但是亡羊补牢,从来都为时不晚。事实上,秩序的构建正是人类社会文明的本质,规制权力也是规制技术。技术的良性发展不仅取决于自身的创新,更取决于人的正确引导。
首先,社会发展是制度进步的元动力,法律制度也应随社会的进步而完善,逐步走向精细化和人文化。对算法权力进行法律规制时,既要坚持预防,又要考虑成本效益,增强算法技术本身的透明度和算法权力运行的公开程度。要进行具体法律条文的精细化修订,增强法的可解释性,并设置监管环节,不能以“技术中立”为借口,逃避意识形态和法律的责任。
其中,人工智能时代,不管算法如何向智能化阶段演进,均不能脱离大数据而单独存在。“技术只有透明才能获益”。因此,防御算法风险的首要举措即是对大数据的收集与利用进行立法规制。只有对大数据收集与利用环节进行有力规制,算法决策环节才有可能降低歧视风险的发生。
以算法歧视为例,目前,很多大数据学习算法在决策判断时,标准并不透明,这使得从技术层面跟踪代码违规,几乎是不可能实现。由于算法的复杂性,研究人员很难判断在哪一个环节导致算法带上歧视。因此,大数据公司应公布所使用的大数据算法的源码和所用的数据,一旦出现算法歧视,也能有迹可循。
其次,规制算法私权力,首先要发挥算法公权力的作用。无疑,算法的研发与运行需要投入巨大的资金和人力,资本为技术研发提供物质保障,成为算法运行中的把控者。强大的技术研发能力是算法权力发展的重要推动力,但任何一项技术的发展都不应离开政府的监管。
而政府干预的核心则是打破商业资本与技术之间强烈的依附性,避免商业利益成为权力的方向盘。人工智能时代,算法治理是大势所趋。政府要加大对算法技术的把控,建立透明的算法运行机制和协调的智能政务系统,设立算法技术研发和运行的标准,嵌入公共利益的价值观,平衡多元价值。
最后,规制算法私权力,还需要以“数字人权”对抗“算法暴政”。所谓“数字人权”,就是要明确技术的出发点必须是要以人为本,并将人权保障作为技术应用的尺度和标准。算法伦理的核心是保障人的价值和尊严,充分尊重个人权利。
也就是说,算法伦理要将人视为重要的、有权利的并且有价值的个体,体现技术关怀和以人为本的理念,尊重人的自由和人格。在实践中,一方面要对算法技术相关从业人员进行技能培训和伦理培训,在道德层面上进行自律;另一方面,要加强人工智能行业的伦理建设,加强行业标准的设立。
算法正在潜移默化的影响着当前的人们的生活以及人们做出的决定,但是这种微妙的操作并非不偏不倚。纠偏算法时代下权力与权利的失衡,更是项系统性工程。这需要紧抓算法权力的运行逻辑,加强对算法的立法规制与监管,更要转换制约权力的思维与方式,让算法助力社会治理,在治理中找回“人”的存在。