热彩网开户

汝绪华:算法政治:风险、发生逻辑与治理

选择字号:   本文共阅读 2093 次 更新时间:2019-08-27 00:37:48

进入专题: 算法政治     发生逻辑     算法偏见  

汝绪华  

   内容提要:作为一种新事物,人工智能算法不仅是一项新技术,更是新的权力形态。算法即权力。与其他领域相比,算法早已渗透政治领域的各个层面,人工智能算法的强大威力在证明自己的同时,也带给政治管理与政治传播模式以革命性变革。算法与政治的日益结合正在发展为一种潮流,算法政治已经成为一个不容忽视的议题。然而,算法的内在缺陷及其不当使用也给算法政治带来了诸多风险,备受批评,已经影响到其健康发展。算法政治不仅是一项技术问题,更是一个政治与道德问题。因此,明晰算法政治的风险及其发生逻辑,并善加治理,方可让其成为政治管理的好帮手,而不是“麻烦制造者”,这对于算法政治的健康发展具有十分重要的意义。

   关 键 词:算法政治  发生逻辑  算法偏见  后真相  algorithmic politics  occurrence logic  algorithmic bias  post-truth

  

   一、引言

  

   作为一种能够引发诸多领域产生颠覆性变革的前沿技术,人工智能的发展超乎想象,迅速席卷全球。人工智能(Artificial Intelligence)的浪潮也让机器学习(Machine Learning)、深度学习(Deep Learning)等生涩的专业词汇变得炙手可热。但很多人却不知晓三者之间的逻辑关系,实际上,机器学习是一种实现人工智能的普遍方法,其最基本的做法就是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测;深度学习则是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层(深度神经网络)对数据进行高层抽象的算法。因此,从本质上讲,它们都是一种算法。人工智能革命最终还是算法革命,谁能推出最优的算法,谁就能在未来AI市场上抢占先机。所谓算法(Algorithm)指的是解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。近年来,得益于大数据量的上涨与运算力的提升,语音技术、图像技术、视频技术、人机交互等不断创新,人工智能开始大爆发,基于算法的自主决策系统日益被广泛应用于数据挖掘、搜索引擎、自然语言处理、生物特征识别、医学诊断、新闻、教育、就业、保险、投资、广告、治安和机器人等领域。算法对于我们的生活来说越来越重要,它深刻地改变着人们的生活方式,改变着整个世界。

   现代人生活在算法时代,随着大型数据集和复杂模型越来越普及,算法替代人类做决策越来越多,算法正改变着全球政治经济与社会的运行和发展模式。与此相应,算法经济、[1]算法经济学、算法新闻、算法权力、算法权威、[2]算法伦理、算法战争等新名词、新概念、新理论框架甚至新学科不断脱颖而出。作为一种新事物,人工智能算法不仅是一项新技术,更是新的权力形态。算法即权力。[3]与其他领域相比,算法早已渗透政治领域的各个层面,算法与政治的日益结合正在发展为一种潮流,算法政治已经成为一个不容忽视的议题。所谓算法政治指的是AI算法在政治领域中的应用与影响。它主要涵盖两大主要领域:一是,基于算法自主决策系统的辅助政治决策领域,普遍应用于失业、救济、财政预算、税收风险管理、社会治安、公共安全等重要事项;二是,基于算法的政治传播领域,包括基于算法的信息传播对政治价值观、政治态度、政治心理、政治决策、政党竞争、政治人物以及国际政治等政治生态的作用与影响,其中,尤以智能推荐算法催生的假新闻泛滥对政治生态的影响最为显著。算法不仅把以前需要专家支持或因为复杂性无法完成的任务变为可能,节省了决策成本,极大提高了政治效率与决策的客观性、科学性;而且把个性化推荐与信息传播结合起来,大幅提升了政治传播的精准性。因此,基于算法的人工智能系统在政治领域被普遍应用,算法政治时代来临。

   由数学模型而非人来决定,利用算法重塑一个更加客观的现实世界,但事与愿违,改善问题的系统,却反过来使问题更严重,算法“黑箱”、难以审查等内在缺陷引发的偏见与歧视备受指责,社交媒体中的算法操纵、算法武器化催化的假新闻泛滥让民众忧虑不已,数据科学家凯茜·奥尼尔称之为“数学破坏的武器”。随着算法在政治领域的广泛应用,算法在给以政治系统便利与福利的同时,算法偏见、算法操纵对政治公平正义的侵蚀,极易触发意外未知风险。大量实例已经表明,算法偏见加剧现有不公平现象的问题已不容忽视——尤其当它们用在本就存在歧视的政治社会系统中时,模型支撑着幸运和惩罚,为民主创造了一杯“有毒鸡尾酒”。[4]这又进一步引发了公众对算法政治风险的担忧与焦虑。2017年10月,皮尤研究中心发布的一份报告显示:美国人对自动化忧虑多于乐观,其中,85%的美国人赞成出台政策,把机器的工作范围更多限制在对人类构成危险或有损健康的特定环境。[5]

  

   二、算法政治的风险

  

   从本质属性上讲,政治系统致力于“为一个社会权威性地分配价值”,[6]民主性、公平性、合法性、公开透明等是其重要特性,虽然行为主义政治学一再强调价值“祛除”,但实践证明,政治无法做到真正的“价值中立”。在解决政治问题的定量与定性两种方法的较量中,政治的定性方法始终未过时,很多时候,定量政治的最终目的还是为了服务于定性政治。人工智能算法虽然涉及计算机科学、心理学、哲学和语言学等多学科,横跨自然科学与人文科学,也无法实现绝对的价值中立,因而,那种认为完全定量化的算法政治可以为人类社会中的各种政治事务和政治决策工作带来完全客观性的认识是不现实的,必须高度重视其潜在的风险及衍生的次生灾害。理由在于:一是,由于数据采集的准确度与样本大小、算法技术发展限制、算法设计人员的偏见、区域特色与差异等因素的制约,定量化的算法容易带来算法偏见(Algorithmic Bias)和错误风险,而政治问题往往事关全局,不像产品生产容许一定的残次率,一旦算法出现问题,道德风险与政治代价是高昂的;二是,定量化的算法难以解决政治的非中立性和价值多元性,其不透明、难以审查等特征必然招致质疑与合法性危机;三是,当可以影响政治生态的算法完全且不受监管地由网络科技公司掌控,当追求最大利益的冲动超越政治利益与企业社会责任,必将对公民权利、政治生态造成极大伤害。2016年美国大选以来,由基于不当算法的社交媒体推送的假新闻祸乱全球就是明证,不仅撕裂社会,更成为政治极化的发酵剂。可见,算法政治的风险,既包括算法在政治领域应用时,由算法的内在缺陷触发的道德风险、决策风险、合法性危机以及算法失灵等引发的意外未知风险,也包括算法在政治传播领域的不当使用(尤以智能推荐算法催生的假新闻泛滥为甚)引发的安全风险。“技术上最伟大的胜利与最大的灾难几乎并列”,[7]科技是一把双刃剑。在算法政治时代,其风险已经成为一个需要高度正视的议题。

   1.算法偏见损害政治正义,潜藏的伦理后果与道德风险不容忽视。算法政治不仅是一项技术问题,更是一个政治与道德问题。政治正义是每一个公正合理的国家所必须建立的政治基础,其中,“权利的优先性理念是一个根本要素,而在公平正义中,该理念作为公平正义观点的一种形式具有其核心作用。”[8]AI算法依赖于大数据,而大数据并非客观中立的。“人类倾向于将固有价值注入规则。”[9]它们从现实社会中抽取,不可避免地带有社会固有的不平等、偏见与歧视的痕迹。2014年,美国白宫发布的大数据研究报告就关注了算法偏见问题,认为算法偏见有可能是无意的,也有可能是对弱势群体的蓄意剥削。2016年,美国白宫发布的《大数据报告:算法系统、机会和公民权利》,则重点考察了在信贷、就业、教育和刑事司法领域存在的算法偏见问题。普林斯顿大学的研究人员发现,被在线的普通人类语言训练的通用机器学习程序可以获得文字模式中嵌入的文化偏见。[10]所谓“算法偏见”指的是在看似客观中立、没有恶意的程序设计中,却带着开发者的偏见,或者因所采用的数据存在倾向性,或者因设计技术局限,在实际应用中导致了种族歧视、性别歧视、年龄歧视、阶层歧视、区域歧视、仇外思想等严重的政治后果。在机器学习和AI发展的关键时刻,算法偏见正在成为一个主要的政治与社会问题。如果算法内部存在偏见,这些偏差会使得更重要的决策变得无法识别和无法检查,那么它可能会产生严重的负面后果,特别是对于贫困社区和少数群体而言。[11]基于算法和统计学的歧视,可能导致弱势群体在住房、信贷、保险、就业招聘、甚至在执法上遭遇歧视,被数据探勘技术标记为“高风险群体”,在日常生活的每一个领域都持续遭遇各种歧视待遇,陷入“数据自我实现的怪圈”,换言之,那些运气较差的人可能会一直处于运气不好的际遇,并非出于纯粹是巧合的偶然性所致。

   2.算法的高科技面貌、责任主体模糊,往往使得算法决策陷入审查难、问责难的窘境,非但如此,算法“科学化”“客观化”“专业化”的幻觉也加重了官僚制中本已令人诟病的工具理性弊端,潜在的决策风险及其后遗症亟待正视。一是,算法虽然是辅助决策系统,但在扶贫、福利发放、政府补贴等需要大数据协助决策的领域起着重要作用,一旦出现失误,影响广泛。即使因算法缺陷导致决策失误,或者公众对算法决策的结果不满意,行政人员往往倾向于把责任诿过算法或算法开发公司,而对算法或算法开发公司又难以司法审查,责任主体模糊往往使得算法决策陷入审查难、问责难的窘境。例如,在英国女性乳腺癌筛查漏检丑闻中,关于“算法错误”究竟是怎么产生的,国家卫生医疗系统(NHS)、公共卫生局(PHE)以及负责维护软件维护的日立咨询公司三方互相踢皮球,然而最终结果很有可能是根本无法定论。二是,随着算法辅助决策系统在政治领域的广泛应用,形式合理化的算法的“科学化”“客观化”的幻觉把官僚制的工具理性弊端推向新高度。刻板、无弹性、按部就班办事的官员患上了“工具依赖症”,程式化地把选择、决策、信任、责任交给算法,把思考交给机器,官僚与算法的“辅助角色”换位。恰如韦伯所言:“官僚体制统治的顶峰不可避免地有一种至少是不纯粹官僚体制的因素。”[12]官僚制在功能主义与技术主义的工具理性追求中遗失了价值理性,形式合理性设计的严格纪律、僵化规则以及处事程序把人淹没在冷冰冰的技术主义之中,在实践过程中它促使官僚主义得以滋长和蔓延。他们已经习惯不质疑,刻板做事,算法的科学、客观、专业让他们觉得其更权威、“更安全”。尤其是在时间紧迫和资源有限的情况下,官员们可能更倾向于依赖所谓“专家系统”的决策而不是自己的思考。其后遗症更令人忧心,过分依赖算法不仅会加重官僚制的僵化,与公共服务人性化潮流背道而弛,也会妨碍行政人员的自主性、积极性以及制度创新。

3.算法黑箱①与正当性原则背道而驰,容易导致合法性危机。决策的公开透明是现代民主政治的重要标志,在正当程序中占有越来越重要的地位。合法性必须以正当性为基础,“这样,合法性信念就退缩成为一种正当性信念,满足于诉诸做出一种决定的正当程序。”[13]但算法政治中算法程序不透明、算法决策过程不公开、算法决策理由自我解释性差,看似把政治决策交由客观数据会提升决策的科学程度,实则不然,越是大数据时代,算法、数据及其分析方法的垄断性越高,因为高效能算法通常为强大的高科技公司所掌控,他们往往以算法是私人财产、商业机密为由拒绝公开,以致算法决策黑箱难以被打破。由私人掌控的算法黑箱来辅助政治决策,不仅可能出现被操纵或诱导,更违背正当性原则与政治民主理念。亚马逊公司已经开始在警用系统中应用图像识别软件Rekognition,但面部识别系统一直面临着女性和有色人种错误率的问题——错误率可以直接转化为更多边缘化群体受到阻碍和逮捕。(点击此处阅读下一页)

    进入专题: 算法政治     发生逻辑     算法偏见  

本文责编:陈冬冬
发信站:爱思想(http://www.service-manuals-pdf.com),栏目:天益学术 > 政治学 > 政治思想与思潮
本文链接:http://www.service-manuals-pdf.com/data/117906.html
文章来源:《厦门大学学报:哲学社会科学版》2018年 第6期

5 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(service-manuals-pdf.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by service-manuals-pdf.com Copyright © 2019 by service-manuals-pdf.com All Rights Reserved 爱思想 京ICP备12007865号 京公网安备11010602120014号.
姚记彩票开户 新天地娱乐投注 鸿途彩票开户 冠军彩票开户 全迅彩票开户 九号彩票开户 亿菲彩票开户 新世佳彩票开户 百分百彩票开户 王者彩票开户