老年歧视(Ageism),是指对老年人在观念认知、情感态度、行为对待与制度安排等方面的具有复杂结构特点的本质上的负面否定与系统性偏见[1]。它实际上是将特定年龄组同质化为具有或缺乏某些相同的特征、行为模式、外表与信仰等,而不是承认该年龄组内的任何多样性(Diversity)的歧视性评价[2]。这种根据老年人的年龄进行刻板印象定型化(Stereotype)评价的做法,错误地假设了一个根本不存在的同质性(Homogeny),并不适用于所有老年人[3]。算法(Algorithms)并非计算机时代的产物,但计算机却成了算法蓬勃发展的基石,所以信息化语境下的算法是计算机算法(Computational Algorithms)的同义语,是指运用算术运算的编程语言和数学对象(数字、数组、列表、图形、树等)进行任何定义明确的计算性指令[4]。算法并非完全中立的,它凭借其天然的复杂性、隐蔽性与网络效应广泛性等特点,将社会带有某种偏见的观点或瑕疵数据有意无意地嵌入算法代码中。因此,老年人算法歧视,是指嵌套着传统老年人社会歧视偏见与制度缺陷的算法决策系统(Algorithmic Decision-making Systems,ADmS)在深刻影响对老年人群体的市场规制与社会治理过程中形成的对老年人群体给予算法排斥或算法差别性不公平对待的新的歧视类型。
人口老龄化是人类社会发展与文明进步的重要体现,也是21世纪全世界共同面对的重大课题[5]。对我国而言,汹涌的人口老龄化与高龄化浪潮在21世纪将持续对我国社会生活的几乎所有领域带来不亚于过去的武力扩张、欧洲移民冲击波和城市演进等人类历史上任何一次伟大的社会革命所造成的影响[6]。消极老龄化制度立法不仅会增加社会保障费用、加重财政负担,也会对劳动力市场的短缺带来影响。能否科学处理好伴随21世纪始终的人口老龄化与高龄化这一时代挑战,将最终影响到社会主义现代化强国与中华民族伟大复兴中国梦奋斗进程的顺利实现。2018年修订的《中华人民共和国老年人权益保障法》第4条明确将“积极应对人口老龄化”作为国家的一项长期战略任务,中共中央、国务院2019年印发的《国家积极应对人口老龄化中长期规划》从顶层设计的角度正式将“积极应对人口老龄化”确定为国家战略,党的二十大报告再次明确并强调了要“实施积极应对人口老龄化国家战略”。
从我国现行法律制度与已有理论研究看,我国现行法律制度不仅存在对老年人在“健康”“参与”和“保障”权益保障方面的“积极性”立法内容不足①,而且有关老年人权利界定与保护方面存在以年龄为唯一界分标准的合理性与制度性“缺陷”。从已有理论研究看,鲜有因应算法时代出现的老年人算法歧视可能产生的网络效应化的制度性危机而专门进行法治化角度研究的成果。一个完全善意的算法(Well-intentioned Algorithm)很可能会无意中产生有偏见的结论从而歧视受保护的群体[7]183,老年人算法歧视的负面影响将远超过去任何一种老年人歧视行为,控制算法的主体通过充满老年人歧视偏见的算法过滤、算法错误与数据瑕疵的“算法黑箱”(Algorithm Black-box)[8],将对老年人治理的算法规则外化为一种制度化而不易察觉的“准公权力”[9]客观存在,进而将传统的显性歧视与隐性歧视迭代为新型的算法歧视,让老年人陷入算法规则驯化下无法自救的平权危机境地[10]。因此,从法治角度对老年人面临的新型算法歧视问题进行研究,不仅是因应数字经济时代推进“积极应对人口老龄化”国家战略发展的内在要求,也有利于我国积极应对21世纪人口老龄化的时代挑战,提升社会活力与社会福祉水平,保证共同富裕与包容性增长目标的高质量实现。
①目前,无论是《国家积极应对人口老龄化中长期规划》还是《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》都仅限于将“积极应对人口老龄化”作为国家战略与法律制度建设与发展的目标,即到2022年,我国积极应对人口老龄化的制度框架初步建立;到2035年,积极应对人口老龄化的制度安排更加科学有效;到21世纪中叶,与社会主义现代化强国相适应的应对人口老龄化制度安排成熟完备。
二、老年人算法歧视的三重解读随着我国互联网、大数据、人工智能、量子信息和区块链等数字化信息技术的快速发展,数字化服务在改变着人们日常生产与生活方式,让社会更加高效、便捷的同时,也让那些因无法及时跟进数字社会发展变化的边缘化老年人滞留在了“数字鸿沟”(Digital Divide)的彼岸,让部分老年人因此成为与算法脱节的算法场景外被排斥与歧视的数字化难民群体[11]。即使那些跟进融入算法场景的老年人,也被嵌套社会偏见与制度歧视且具有高度隐蔽性与控制性的“算法黑箱”驯化,导致个人隐私权被侵害并受到各种场景下的ADmS的歧视性对待。毫无疑问,对老年人的算法歧视已经成为信息化时代国家实施“积极应对人口老龄化”战略的重大阻碍。
(一) 技术迭代歧视下老年人的原子型与比特型群体分化所谓技术迭代,是指通过技术创新的方式实现新兴技术对传统技术的更迭。如果将人类历史上的每一次工业革命视为一轮大的技术迭代,那么今天以算法为核心的工业4.0时代则是新一轮的以计算机和算法作为主导的技术迭代时代[12]。迭代算法充分利用计算机计算速度快、适合重复计算的特点,可以在不断飙升的算力环境下动态迭代运行远超人脑反应速度的ADmS。然而,与我国技术迭代的日新月异形成鲜明对比的是包括老年人在内的网民数量现状十分不乐观。中国互联网络信息中心(CNNIC)2022年2月发布的第49次《中国互联网络发展状况统计报告》(The 49th Statistical Report on China’s Internet Development)对网民年龄结构的统计分析数据显示:我国60岁及以上老年网民规模达1.19亿[13],占全体网民数量(10.51亿)的11.3%。而第七次全国人口普查结果显示,我国60岁及以上人口为2.64亿人,占总人口的18.7%[14]。这就意味着,我国仍约有超过半数(54.9%)即1.45亿的60岁及以上老年人极少或没有接触互联网。从上述统计数据可以看出,比特(Bits)世界非线性技术迭代的快速发展正在将以线性发展为主要特征的原子(Atoms)世界[15]的老年人客观上歧视性地分化为原子型与比特型两类群体。
人类社会整体对科学技术的认知与驾驭能力始终落后于科学技术自身的迭代进化速度。在自由与民主推动技术迭代并将人类社会推向算法时代的同时,算法也将人们逐渐划分为三种不平等类型:完全不具备价值的类型、部分有价值的类型和不可或缺的类型[16]。也就是说,由于老年人个体之间存在的身心状况、经济状况、社会状况以及生活与居住环境等个体与社会不均衡差异现实,导致互联网与算法正在将老人群体粗化区分为两类:触网并受算法规制与驯化的老年人与未触网的老年人,或称为比特世界的老年人与原子世界的老年人。未触网的原子世界的老年人,自然属于典型的站在“数字鸿沟”[17]彼岸,与技术脱节的算法场景外客观上被技术排斥与歧视的数字化难民群体,这类老年人群体因没有用过或不会使用智能终端而导致在日常生产生活或享受社会公共服务时难以融入算法时代的社会场景与行为范式中。而且,随着“新摩尔定律”[18]支配下技术迭代速度的加快,必将有越来越多的老年数字原住民、数字移民群体因无法跟随算法迭代进化速度而加入到数字难民队伍并共存于动态“数字鸿沟”彼岸的原子世界。
(二) 算法控制歧视下老年人微粒化与标签化身份存在进入了被算法控制的比特世界场景的老年人,被算法用计算机语言解读为微粒化与标签化的数字符号身份存在。所谓微粒化,是对算法将人与物甚至人的身体、感觉、思想与状态等,以无差别的计算机语言的形式表达为元数据(Metadata),进而通过清洗、脱密或脱敏等加工环节后进行确定性信息的输入与输出并表现为分散的比特微粒即数字化存在形式的状态描述[19]184。所谓标签化,是指运用人工神经网络(Artificial Neural Networks)机理与模型将融入ADmS控制的比特世界的老年人的职业、经济状况、社会状况、位置、日常健康状况、行为表现、个人信誉、个人偏好与可信赖度等相关信息分解成更小的组件和搜索模式,按照超出人类个体认知与运算能力的机器人自我算法模式对采集后形成的大数据进行观察、监视、评价、评估与决定等逻辑层模型与机理的计算[7]187,最终给每一位老年人在比特世界塑造出一个与原子世界对应的“画像”并予以标签化的分析与加工过程。通过微粒化与标签化的计算机语言表达与算法重塑,使算法根据不同场景对老年人“画像”来予以智能化精准匹配与对待,最终形成了对老年人算法场景下的直接歧视与间接歧视两种歧视类型。
虽然国家相继出台了《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》和《互联网信息服务算法推荐管理规定》等法律法规对算法歧视进行规范与治理,但对于硬件设备、技术占有与黑箱前后台信息严重不对称的老年人来说,平台、APP或网页端在程序界面与规则设计中存在的难以理解与防不胜防的技术陷阱以及互联网相关领域“垄断性”地位的影响力,客观上强迫老年人在“非自愿”场景下完成了“点击即同意”放弃隐私信息的“自愿”选择动作②。无论是互联网电商平台、网页端还是各类APP,仍然存在典型的利用超级算法对基于过度采集占有的老年人群体隐私信息的大数据进行分析识别,为所有触网的老年人建立起比特世界“千人千面”虚拟画像库③。由于算法本身的偏见或算法所依赖的数据可能存在瑕疵,决定了算法对老年人进行数字化画像塑造的结果有意或无意地携带天然的数字化歧视基因。同时,“算法黑箱”利用超级算力在几乎感觉不到的微秒级时间内基于比特世界每位老年人的特定数字画像与价值标签将老年人动态识别为符合某种条件与不符合某种条件两种类型,实行针对性的差异化推荐营销或定价策略,导致老年人在不同场景被ADmS排斥或不公正对待的歧视性结果成为常态。这种算法对老年人微粒化进而标签化后利用ADmS进行直接歧视与间接歧视的行为不仅剥夺了老年人积极参与社会活动的某些权利,损害了老年人公平交易的权益,也破坏了市场公平交易的竞争秩序,与“积极应对人口老龄化”国家战略相背离。
② 中国互联网协会发布的《中国网民权益保护调查报告(2021)》显示,有超过6成网民的个人隐私即网上活动信息如年龄、职业、通话记录、IP地址、网站浏览痕迹、网络交易记录以及地理位置等被泄露。
③虽然《中华人民共和国个人信息保护法》《互联网信息服务算法推荐管理规定》和《生成式人工智能服务管理暂行办法》均在不同程度上要求算法开发与使用主体加强对互联网用户模型和标签的管理,但由于算法的技术复杂性,决定了目前立法并不能从根本上禁止和杜绝该类行为。
(三) 法律本质主义年龄歧视下的制度性“缺陷”1969年,罗伯特·巴特勒(Robert Butler)首次使用了“年龄歧视”④一词,他将年龄歧视描述为“一个年龄组对其他年龄组的偏见”[20]49,老龄化研究的核心概念之一是年龄本身的意义,年龄分化(Age Differentiation)、年龄分级(Age Grading)与年龄分层(Age Stratification)影响着一个人在不同年龄期间的不同行为和态度[21]。但《中华人民共和国老年人权益保障法》第2条却仍将老年人的法定年龄界定为60周岁及以上的公民,并以此为标准围绕老年人建构相应的社会保障制度体系。这种以年龄为认定标准的立法条款除将达到60岁及以上的人们打上老年人群体的社会与制度性歧视烙印外,也直接影响到了“超龄”个体最为重要的一项权益,即劳动法意义上劳动者的主体资格认定问题。这就意味着,人们只要达到60岁⑤即不再属于劳动法意义上的劳动者,其劳动权益不再受以《中华人民共和国劳动法》为核心的相关法律法规的保护。现行以年龄为权利界定标准的立法越来越暴露出与个体权利和社会实际相脱节的一面,衍生出客观年龄歧视老年人的负面法律效果与社会效果,不仅在法律的适用过程中不能起到切实保护老年人群体合法权益的作用,不符合退休制度在内的社会保障制度的创设初衷,也实质背离了“积极应对人口老龄化”国家战略。
④ 年龄歧视包括所有年龄组和所有可感知年龄的歧视问题,但鉴于针对老年人的年龄歧视与偏见问题更为明显,文中的年龄歧视专指老年人年龄歧视。
⑤《国务院关于工人退休、退职的暂行办法》《国务院关于安置老弱病残干部的暂行办法》以及公开的延迟退休方案内容显示,虽然现行暂行办法规定一般情况下男性60周岁、女性50周岁、女干部55周岁退休,但未来男女退休年龄将拉平为60周岁。
算法对老年人的歧视之所以引起社会各界的广泛关注和讨论,算法本身存在的时间复杂度与空间复杂度⑥叠加嵌套于算法中的各种组件、组合与层级嵌套形成的“算法黑箱”是重要原因之一。除此之外,如果现行法律法规存在内在瑕疵与缺陷,导致老年人面对算法歧视等形式上并不明显违法但实质上却不符合公平与正义的客观现实问题时,无法通过现行法律法规进行合法性权益主张的“法律失灵”现象也是不容否认的“制度缺陷”。如果不能及时纠正因“制度缺陷”带来的“法律失灵”现象,平台、APP与网页端就可以堂而皇之地利用互联网的规模效应与网络效应等将现行法律法规中存在的“年龄歧视”等立法不足或缺陷问题给予合法化“承认”并无限放大,必然实质有损于老年人的应然权利与权益,背离“积极应对人口老龄化”国家战略,不符合老年人行为能力的内在实质与《联合国老年人原则》提及的以“独立”和“参与”为核心的五大基本原则。
⑥ 时间复杂度是指不同函数下的算法运行速度,空间复杂度是指算法运行所需要的存储空间,二者共同决定了算法的运行效率。
三、老年人算法歧视的危机本质根据前述老年人算法歧视的三重解读,对老年人算法歧视危机背后的本质原因进行理性分析,不仅有助于针对性地完善老年人社会保障法律制度体系,而且有助于完善符合数字经济时代一般规律的数字化治理体系。
(一) “前喻文化”与数字鸿沟视角下的老年人差异化针对老年人群体算法歧视的出现不仅具有必然性,也具有现实客观性。享有“人类学之母”盛誉的美国学者玛格丽特·米徳(Margaret Mead)根据代际文化与知识学习方向的不同将文化划分为后喻文化(Postfigurative)、并喻文化(Cofigurative)和前喻文化(Prefigurative)三种[22]1。工业革命以后,随着传统社会共同体结构的分解与新的社会共同体结构的逐渐形成[23],年轻人开始从向长辈学习转到了向同辈学习的并喻文化时期,随着工业社会进程的不断加快,作为过渡的并喻文化模式快速切换到了长辈向年轻人学习的前喻文化时期。而且,由于老年人之间在个体身心状况、居住环境、家庭状况、健康与生活质量以及医疗状况等方面存在巨大的数字发展起步线差异,这种社会发展与现实差异导致的知识鸿沟使部分老年人群体因接受能力不足而慢慢地被年轻人甩在身后并逐渐成为被孤立起来的代际群体,闭环系统的社会必须让位于开放系统的社会[22]61。
工业革命的不断深入发展使得以核心家庭(Nuclear Family)、大家庭(Extended Family)与当地的核心社群(Local Intimate Community)为传统社会表征的三大核心框架逐渐解体,国家(政府)与市场取代了核心家庭与大家庭大部分的经济与政治作用,国家与市场塑造出“想象的社群(共同体)”(Imagined Communities)替代传统的地方社群以满足成员间的情感需求,社会结构与社会秩序在被工业文明带来危机的同时也展现出其不断变革的活力与进步[24]。对于老年人而言,伴随着传统社会结构的瓦解[25],其不仅丧失了原有后喻文化时期的知识与文化传授权威地位,而且在从并喻文化模式切换到前喻文化模式之后,知识与文化的学习与交流环境也发生了很大的变化。由于青年人大都加入了工业化与城镇化的发展进程,老年人的居住与生活环境决定了他们已经失去了像传统社会那种朝夕相处的可以向青年人及时学习的社会条件。而且,以大数据、云计算、人工智能和区块链为代表的工业4.0时期信息技术的快速发展与迭代,也让越来越多的老年人既跟不上这一发展速度,也越来越难以理解和掌握信息技术的基础性内容。因此,面对信息技术发展迭代下的平台、APP或网页端操作,越来越多的老年人不仅在操作方面存在现实技能障碍,而且他们在嵌套了先天偏见与复杂层级的高度隐蔽的“算法黑箱”面前,除了“自愿”接受,没有任何讨价还价的余地。当然,由于老年人之间存在个体身心状况、经济与社会状况等方面的巨大现实差异,导致面对这样一种工业4.0时代算法场景,老年人的差异化群体现状必然出现并持续存在。因此,国家既要从权利本体的角度对算法场景内比特世界的老年人给予应有的市场角度公平对待,又要对算法场景外原子世界的老年人同步建构与完善公平、合理的社会保障制度,最终赋权所有老年人应有的社会参与权与社会福利待遇以应对社会发展的负效应[26]。
(二) “算法黑箱”下的老年人画像与场景歧视对老年人比特世界的画像塑造与管理的算法是建立在从真实社会中抽取的各类数据基础上,叠加编程者偏见形成的嵌套各种组合与复杂层级结构的程序性指令。老年人画像的形成是指程序终端控制主体通过算法对老年人的工作与生活表现、个人或家庭经济状况、所在位置、日常健康状况、行为表现、个人信誉、个人偏好与可信赖度等进行数据采集(利用移动终端的相机、麦克风、设备信息和终端软件Cookie或第三方SDK进行敏感数据收集)、数据整理(标注、清洗、脱密、脱敏等)、数据聚合(数据传输、存储与汇聚)与数据分析(对实际占有的数据进行目的性研究分析)后,对老年人的角色(Persona)与属性(Profile)进行识别,形成老年人个人数字化身份性质的数据画像(Profiling)[27]26-37。因此,进入算法场景的老年人首先可能遭遇的歧视,就是受制于嵌套偏见与复杂规则的算法塑造的老年人画像本身可能存在的比特世界身份定位歧视。另外,从微粒化的角度分析,算法通过模型全生命周期运行完成了对人与物的差异化革命、智能革命与控制革命三个阶段[19]XI-XV。平台、APP或网页端利用ADmS根据不同场景对老年人数据画像作出排斥或不公平对待的各种数字化决定,形成了“算法黑箱”下老年人场景歧视的直接歧视和间接歧视两类歧视类型。
算法利用老年人数据画像进行主体排斥的直接歧视与不平等对待的间接歧视的差异化自动化决策计算,本质上是算法控制主体利用信息平台矩阵对老年人进行各种精准化信息投放与喂养后,通过过滤气泡与回声室效应在老年人的线上世界形成信息茧房的数据画像塑造,进而利用算法天然的“算法黑箱”模型与机理制造出普通人难以察觉、难以发现也难以证实的自动化、智能化、批量化、系统化“偏见代理”“特征选择”与“大数据杀熟”[28]等算法歧视类型。以百万粉丝网红“俄罗斯娜娜”和“保尔·柯察铁”为代表的黑产团伙,以及利用AI换脸与算法信息流投喂,将中老年人作为收割对象的大量的爆款鸡汤、反智谣言、精神荼毒、误导消费和“杀猪盘”等各类层出不穷的互联网陷阱与骗局几乎将所有进入算法场景的老年人打上被算法歧视的数字化标签与烙印的情形仍然如火如荼、方兴未艾。同时,在没有数字化法治强力介入的情况下,由老年人微粒单体构成的高度解析化的比特世界共同体将会形成一种“完全的竞争社会”秩序,老年人个体差异越大,竞争就越激烈;而竞争越激烈,差异就越大[19]42-43。因此,在我国现有法律法规尚不能完全监管、规制与治理的制度场景下,算法可以根据老年人线上数字化身份画像进行直接歧视,即拒绝老年人参与相关领域如平台灵活用工的排斥性决策,也可以根据老年人线上数字化身份画像进行间接歧视,如偏见性甚至垄断性竞价排名、差异化对待与忽略社会责任的不公平市场交易决策等。
(三) 年龄歧视“法律失灵”的法理透视年龄歧视是一种与种族或性别歧视具有同样性质的歧视类型,这种因循传统社会话语建构的老年人群体可能具有的某些共同属性或特征去否定所有人的做法是错误的[20]47。虽然从科学的角度看,年龄的变老与身体的虚弱之间大概率呈正比例关系,但变老是一个积极、健康、快乐的过程,且个体的健康受多种因素影响而具有明显的差异性[29],用“年龄”这一单一指标对所有达到某个年龄标准的群体进行同质化定义,并因此固化其社会角色进而给予制度性限制、歧视或排斥显然是不合理、不科学的。年龄歧视也因此成为联合国与世界卫生组织“积极老龄化”战略框架[30]努力消除的老年人歧视核心目标。我国现行法律法规与司法实践在对待公民个体的平等社会参与权方面均未突破以年龄为界分标准的内在固有歧视理念,对尚具有与“非老人”相同的完全行为能力的“老年人”进行区别化对待。不仅对“老年人”应然的平等社会参与权给予了“法定排斥”,与“积极应对人口老龄化的”国家战略相冲突,也为算法歧视老年人提供了公然的合法化制度场景,造成了“法律失灵”的法律效果与社会效果。
以老年人社会参与权中最核心的劳动权为例,从老年人群体迭代的历时性宏观层面看,现行《国务院关于工人退休、退职的暂行办法》有关公民退休、退职的年龄规定形成于20世纪70年代。而国家卫健委发布的《2019年我国卫生健康事业发展统计公报》显示:现代居民人均预期寿命达77.3岁,比1981年居民人均预期寿命增加了近10岁,而且这一数字还在不断增长中。然而,颁布于1978年的《国务院关于工人退休、退职的暂行办法》所规定的工人退休年龄标准并未跟随老年人群体迭代发展过程中人均预期寿命的增长而同步改变,不符合劳动者个体与现实社会发展的实际情况。将部分身体、智力与精神状况与其他非老年人无实质性差别且具有强烈就业意愿的老年人“一刀切”地制度性否定其“劳动法上的劳动者”权利与资格,不仅实质上剥夺了这部分老年人的劳动就业权,否定了老年人个体就业自主权,与劳动法立法的基本原则相矛盾,而且客观上也是对老龄劳动者的一种间接歧视,不符合劳动法全面、平等保护劳动者合法权益的基本原则。从承担风险分散功能的社会保障法[31]的角度看,以年龄为界分点将达到法定年龄的老年人默认为已经“丧失劳动者资格”,进而将之归入社会保障法律制度体系中,享受国家和社会提供的社会保障待遇,既不符合国家宏观经济与财政预算积极与健康运行的要求,也完全不符合社会保障法的功能设计与本质要求。因此,以“年龄”作为区分是否为老年人的标准,进而将之“强制性”地从劳动法领域推入社会保障法领域,必然导致两大法律制度体系之间产生明显的价值冲突,背离“积极应对人口老龄化”国家战略的要求,导致现行与之有关的老年人法律制度呈现“失灵”状态。
四、老年人算法歧视的法治应对路径选择以数字化转型驱动社会生产与生活方式和国家治理方式的变革,是中国未来数字经济发展方向的必然面对与选择。如果道德、法律、伦理与公共事务等问题被带有偏见可能的简单的ADmS技术所控制,我们该如何应对?对此,科技互联网专家叶夫根尼·莫罗佐夫(Evgeny Morozov)认为:只要有足够多的应用程序(Apps),人类所有的错误(Bugs)都是不足为惧(Shallow)的。技术可以让我们更好,也能够让我们更好[32]。因此,面对老年人算法歧视新问题的产生与加剧,必须从科学规制老年人歧视的“算法黑箱”、老年人群体分层主体权利回归与“积极应对人口老龄化”制度有效衔接角度,在立法与监管层面完善老年人数字化治理法律制度体系,不断提升国家治理体系与治理能力现代化水平。
(一) 用分层理论完善老年人法律制度以纠正“法律失灵”对算法歧视的老年人进行研究的分层理论,虽源于社会学中的社会分层理论,但社会分层本质上是指各群体对社会资源的占有分布,以不同的包括生产资料资源、财产或收入资源、市场资源、职业或就业资源、政治权力资源、公民权利资源和人力资源等资源占有分布为标准可以将社会群体分为不同的阶层[33],而算法歧视下的老年人分层是以老年人自身行为能力和驾驭信息技术能力为标准进行的差异化分层。
应对老年人年龄歧视的最有效手段是从制度上消除老年人年龄歧视,并禁止个人对老年人的年龄歧视[34]3-4。以老年人自身行为能力为标准对老年人进行分层,本质上是对联合国与世界卫生组织消除“年龄歧视”战略框架方案的践行,是落实我国“积极应对人口老龄化”战略的核心与理论基石。因此,未来立法应淡化或消除“年龄歧视”、纠正“法律失灵”,在参照《老年人能力评估规范》国家标准中的自理能力、运动能力、精神状态、感知觉与社会参与一级指标并辅以二级指标认定标准与框架基础上重构老年人行为能力划分体系,根据当事人或用人单位的申请将老年人区分为完全无行为能力人、限制行为能力人与完全行为能力人三类,建构以老年人实质行为能力为核心标准、年龄为辅助标准的划分体系,从立法角度加大对完全无行为能力老年人的社会保障力度,赋予限制行为能力老年人自主选择权,给予完全行为能力老年人非“年龄歧视”的无差别平等社会参与权。国家互联网信息办公室发布的《生成式人工智能服务管理暂行办法》第4条,以及其发布的《移动互联网未成年人模式建设指南(征求意见稿)》对移动智能终端、应用程序与应用程序分发平台根据不同年龄阶段的未成年人进行“分龄”的未成年人模式设计要求,都为以年龄为维度的老年人算法歧视与算法诱导的分层规制制度设计提供了基础性法理支撑。
以老年人驾驭信息技术能力为标准,是以老年人驾驭信息沟通技术(Information and Communication Technologies,ICTs)的能力为维度对老年人数字不平等现状进行的一种客观描述。老年人驾驭ICTs的能力受制于主观与客观两个方面,主观上主要是个人的智力程度、知识占有与个人对算法社会的接纳程度,客观上主要是自身的身心状况、经济状况、家庭与社会居住环境及硬件条件占有等。ICTs维度标准结合老年人的主客观条件可以将老年人分为算法场景外的老年人群体与算法场景内的老年人群体,同时,由于比特世界并未消弭原子世界的社会差异,所以算法场景内的老年人群体叠加原子世界社会分层标准再现比特世界后几乎复制了原子世界个体间的差异,并被ADmS重塑为更为复杂的分层数字化存在。因此,未来立法应以ICTs维度标准为参照,对算法场景外的老年人因循和保留传统社会参与的基础条件与设施外,合理安排老年人在原子世界与比特世界之间必要的过渡如教育培训等,以提升算法素养,努力建构友好型人机协同与相互感知(Affective)[35]新范式;同时,强化对算法场景内老年人的反数字歧视监管与治理,以保障老年人的数字平等参与权和数字安全交易权。
(二) 建立数字孪生法律制度嵌套规制老年人歧视“算法黑箱”数字孪生法律制度是因应算法时代对老年人歧视的数字化规制内在要求,按照“以算治算”的理念,用算法与区块链技术将以公平与正义为核心的法律价值理念嵌套其中,实现对老年人算法歧视进行追溯、评估、审计与规制的数字化法律制度。“算法黑箱”的不透明、模糊与瑕疵决定了数字孪生法律制度以提高算法的透明度、确定性与完美度为追求目标,但建构数字孪生法律制度规制老年人歧视“算法黑箱”是为了对控制算法的主体或关联主体实现问责等目的的技术性手段,规制的范式必须严格区分公权力与公权力以及公权力与私权利之间的界限,防止监管权力被滥用后给用户隐私、企业商业秘密或政府机密信息等带来不确定性风险,同时,数字化监控须协调好市场与行政效率之间的关系。
对老年人算法歧视的法律规制应坚持分层、分级、分场景的治理理念,强化数字化协同治理体系的建构。当前,我国政府为反对老年人算法歧视和推动互联网适老化进程,已经采取相关措施以加强对老年人的算法保护。2020年以来,国务院及相关部委先后发布了《关于切实解决老年人运用智能技术困难的实施方案》《关于进一步抓好互联网应用适老化及无障碍改造专项行动实施工作的通知》《关于切实解决老年人运用智能技术困难便利老年人使用智能化产品和服务的通知》《互联网网站适老化通用设计规范》和《移动互联网应用(APP)适老化通用设计规范》等一系列规范性文件,为老年网民更加深入地融入算法场景生活、共享算法时代红利创造便利条件[36]。
但目前对老年人算法歧视的法律规制工作大都聚焦于对算法场景外老年人的互联网适老化算法素养的强化方面,应进一步加强算法场景内反对老年人算法歧视的法律规制力度。2022年3月1日起施行的《互联网信息服务算法推荐管理规定》第19条有关智能化适老服务的规定,以及《生成式人工智能服务管理暂行办法》提出的分类分级监管等原则即是对包括未成年人与老年人群体在内的算法场景内群体践行算法模型运行全过程数字孪生法律制度分层、分级、分场景算法规制理念的数字化协同治理体系的重要依循。从算法大模型设计与训练的可解释性角度看,由于机器学习与深度学习中算法的高度复杂性,决定了对算法歧视老年人问题的法律规制须从强化算法主体的自我治理与完善算法问责法律制度两方面入手,前者需要参照联合国教科文组织通过的全球首个AI伦理协议《人工智能伦理建议书》(Recommendation on the Ethics of Artificial Intelligence)提出的“透明性与可解释性”原则,加强人工智能与算法的可解释性(Explainable Artificial Intelligence,XAI),后者可参照欧盟《数字服务法案》(Digital Services Act,DSA)、《数字市场法案》(Digital Markets Act,DMA)、《人工智能法案》(Artificial Intelligence Act,AIA)与《通用数据保护条例》(General Data Protection Regulation,GDPR)等,区分AI与算法的风险等级,在现行立法基础上,从AI与算法全周期即事前、事中与事后的全过程全链条监管的角度进行实时、动态监管,建构起既符合技术发展与算法动态变化场景要求,又能保证时效性、灵活性和安全保障性的数字孪生法律监管与协同治理制度体系。
(三) 赋予老年人算法自决权以推动“积极应对人口老龄化”国家战略不同国家的年龄歧视立法目的并非完全相同。欧盟与英国强调反对年龄歧视的目的是为了将老年工人纳入劳动力队伍以提高社会的生产效率优势。也有国家认为,可以通过避免偏见和排斥老年工人而在专业知识和经验方面受益。这种工具性方法与以反歧视为目的的立法均强调保护个人尊严与尊重老年人的自决权[37]。为转变年老必衰的陈旧观念,让有劳动能力与意愿的老年人平等参与社会各项工作,让需要照顾的体弱或特殊情况老年人得到应有的帮助,联合国大会在1991年以第46/91号决议通过的《联合国老年人原则》中将“独立、参与、照顾、自我充实与尊严”确定为老年人五大基本原则。该五大原则本质上与上述分层理论标准下积极老龄化的理念一致,如果说“照顾”“自我充实”与“尊严”三大原则是在传统养老保障制度价值基础上的抽象与完善,那么“独立”与“参与”则是对“积极应对人口老龄化”战略的突出强调与目标追求,“独立”是“参与”的前提,“参与”是“独立”的具体体现,二者相辅相成、互为补充。
“没有我们的参与,一切对我们都没有意义”(Nothing About Us Without Us)这句口号原为残疾人权利运动(Disability Rights Movement,DRM)提出,因为社会各方面对残疾人的压迫与歧视,DRM通过提出这一口号表达对政府控制残疾人权利与发声治理模式的反抗。DRM代表人物Ed Roberts认为,当别人为你说话时,你就输了[38]。从本质上看,DRM的权利主张体现了一种群体自决权,这一群体自决权同样也适用于老年人这一特殊群体,在算法场景下则表现为一种算法自决权。所谓算法自决权不仅指老年人有权选择在算法场景内自主决定其“独立”与“参与”社会的行为内容,而且包括拒绝进入算法场景、在算法场景外即传统社会场景“独立”与“参与”社会的权利。因此,建立和完善规制老年人算法歧视问题的法律制度体系须赋予老年人参与规则制定自决权、ADmS场景选择自决权及算法时代社会参与的自决权三项核心自决权。
算法时代老年人自决权的赋予与回归并非否定政府对老年人算法歧视规制的“守门人”角色。由于算法天然的复杂性、隐蔽性与专业性等特点,导致被赋予算法自决权的老年人不可能完全了解和掌握算法可能存在的风险,因此,应参照欧盟GDPR、AIA、DSA和DMA等法律制度中有关AI与算法伦理和法律治理框架,将不同应用场景下的算法风险进行等级划分[39],对不可接受的风险严格禁止,对高风险严格监管,将老年人的算法自决权限定在有限风险或最小风险类场景内,以充分保证在老年人基本人权与社会安全均不受AI与算法明显威胁的前提下,推动算法时代“积极应对人口老龄化”这一国家战略得到健康有效执行。
结语大数据、云计算、移动互联网、人工智能、区块链、虚拟/增强/混合现实等一系列新技术的涌现与迭代发展,让以算法为支撑的信息技术应用深度融入了人们的各种工作与生活场景。算法在推动科技发展和给社会带来便捷与高效的同时,也将老年人推入了算法外与算法内双重场景并行歧视的新的危机境地。与传统老年人歧视不同的是,老年人算法歧视不仅将传统社会歧视与法律制度内在的对老年人的歧视理念与规则嵌套于复杂且隐蔽的算法中,而且由于其叠加了大数据的碎片化存储、深度学习算法的“隐层”黑箱以及互联网的双边效应与扩大效应[40],使得老年人算法歧视的影响与负面危害远远超过了传统老年人歧视的影响。
对老年人算法歧视的法治应对并非独立于其他算法规制的法律制度而存在,而是算法时代法律制度体系的重要组成部分,算法时代对AI与算法的科技伦理治理与法律规制的框架逻辑基本一致。因此,对老年人算法歧视的法律规制应在努力提升老年人算法素养基础上[41],赋予老年人算法自决权,对算法场景外原子世界的老年人,重点应该放在因循原有社会保障制度以及人机协同场景的适老化衔接方面,对算法场景内比特世界的老年人算法歧视的规制重点则须放到提升算法的透明性与可解释性、算法监管、算法影响评估[42]与算法治理等方面。算法天然的复杂性、专业的隐蔽性与互联网效应影响的广泛性决定了单靠国家监管机构无法完成有效监管,须得主导监管机构(Lead Supervisory Authority)[27]31与决策者、行业人士、学术专家、从业人员、社会公共机构,以及公众等多元主体一同参与到AI与算法的技术治理中,科学处理好创新发展与公平竞争、便捷效率与监管控制,以及算法主体自主灵活与个人隐私和社会公共安全之间的关系,建立起社会各界广泛参与和跨学科研究的新的协同共治新范式。在规范与老年人有关的算法开发与控制主体对算法的可解释性原则、方法与方案以及加强对技术发展的可能风险与防范进行预警性思考(Precautionary Thinking)的前提下,完善对AI与算法的监督与问责法律制度,以确保科技向善和算法造福老年人。
[1] |
姜兆萍, 周宗奎. 老年歧视的特点、机制与干预[J]. 心理科学进展, 2012(10): 1642-1650. |
[2] |
SARGEANT M. Age discrimination and diversity: Multiple discrimination from an age perspective[M]. New York: Cambridge University Press, 2011: 1.
|
[3] |
WIENER R, WILLBORN S. Disability and aging discrimination: Perspectives in law and psychology[M]. New York: Springer, 2011: 37-38.
|
[4] |
PORTUESE A. Algorithmic antitrust[M]. Switzerland: Springer, 2022: 4-5.
|
[5] |
卢守亭, 贾金玲. 人口老龄化与养老服务体系建设[M]. 北京: 社会科学文献出版社, 2018: 1.
|
[6] |
ALAN P, BRONTE L. Our aging society, paradox and promise[M]. New York: W.W: Norton and Company, Inc., 1986: 3.
|
[7] |
BARFIELD W. The Cambridge handbook of the law of algorithms[M]. New York: Cambridge University Press, 2021.
|
[8] |
EBERS M, NAVAS S. Algorithms and law[M]. London: Cambridge University Press, 2020: 48.
|
[9] |
崔靖梓. 算法歧视挑战下平等权保护的危机与应对[J]. 法律科学(西北政法大学学报), 2019(3): 29-42. |
[10] |
孙瑜晨. 老年人数字成瘾的体系化治理[J]. 中国特色社会主义研究, 2023(1): 69-80. |
[11] |
刘文灵. "数字难民"的非数字化困境[J]. 传媒观察, 2021(3): 20-25. |
[12] |
王舒曦, 孙叶青. 技术迭代背景下领导干部创新思维的生成逻辑、运作机理及实践要求[J]. 中共中央党校(国家行政学院)学报, 2021(2): 127-136. |
[13] |
中国互联网络信息中心. 第49次中国互联网络发展状况统计报告[R]. 2022.
|
[14] |
尹琨. 老年阅读: 不只是加大字号那么简单[N]. 中国新闻出版广电报, 2022-01-10(002).
|
[15] |
NEGROPONTE N. Being digital[M]. London: Hodder & Stoughton, 1995: 11-17.
|
[16] |
HARARI Y N. Homo Deus: A brief history of tomorrow[M]. Toronto: Signal, 2016: 300-305.
|
[17] |
鲁迎春, 唐亚林. 数字治理时代养老服务供给的互动服务模式: 特质、问题及其优化之策[J]. 南京社会科学, 2020(7): 51-59. |
[18] |
龚翔. "摩尔定律"与"新摩尔定律"[J]. 航空计算技术, 2001(1): 25. |
[19] |
库克里克. 微粒社会[M]. 黄昆, 夏柯, 译. 北京: 中信出版集团, 2017.
|
[20] |
SARGEANT M. Discrimination and the law[M]. New York: Routledge, 2018.
|
[21] |
MOODY H R, SASSER J R. Aging: Concepts and controversies[M]. California: SAGE, 2018: 36.
|
[22] |
MEAD M. Culture and commitment: A study of the generation gap[M]. New York: Natural History Press/Doubleday & Company, Inc, 1970.
|
[23] |
拉德布鲁赫. 社会主义文化论[M]. 米健, 译. 北京: 法律出版社, 2006: 63-64.
|
[24] |
HARARI Y N. A brief history ofhumankind[M]. Toronto: McClelland & Stewart Limited, 2014: 294-303.
|
[25] |
李志强, 刘光华. 现代法治语境下的孝道制度建构[J]. 中州学刊, 2014(3): 103-108. |
[26] |
郑尚元. 社会保障法[M]. 北京: 高等教育出版社, 2019: 27.
|
[27] |
京东法律研究院. 欧盟数据宪章: 一般数据保护条例GDPR评述及实务指引[M]. 北京: 法律出版社, 2018.
|
[28] |
郑智航, 徐昭曦. 大数据时代算法歧视的法律规制与司法审查: 以美国法律实践为例[J]. 比较法研究, 2019(4): 111-122. |
[29] |
PRENDERGAST D, GARATTINI C. Aging and the digital life course[M]. New York, Oxford: Berghahn Books, 2015: 4-7.
|
[30] |
World Health Organization. Active ageing: A policy framework[R]. 2002.
|
[31] |
李珍. 社会保障理论[M]. 北京: 中国劳动社会保障出版社, 2013: 5.
|
[32] |
EVGENY M. To save everything, click here: Smart machines, dumb humans, and the myth of technological perfectionism[M]. New York: Perseus Books, Public Affairs, 2013: X.
|
[33] |
李强. 社会分层十讲[M]. 北京: 社会科学文献出版社, 2011: 12-22.
|
[34] |
SARGEANT M. Age discrimination in employment[M]. Hampshire: Gower, 2006: 3-4.
|
[35] |
矢野和男. 人生新算法[M]. 范欣欣, 译. 南昌: 江西人民出版社, 2018: 270.
|
[36] |
中国互联网络信息中心. 第48次中国互联网络发展状况统计报告[R]. 2021.
|
[37] |
FREDMAN S. Discrimination law[M]. New York: Oxford University Press, 2011: 105.
|
[38] |
CHARLTON J. Nothing about us without us: Disability oppression and empowerment[M]. California: University of California Press, 2000: 3-4.
|
[39] |
KOP M. EU Artificial Intelligence Act: The European approach to AI[J]. Stanford-Vienna Transatlantic Technology Law Forum, Transatlantic Antitrust and IPR Developments, Stanford University, 2021(2): 1-11. |
[40] |
赵万里, 谢榕. 数字不平等与社会分层: 信息沟通技术的社会不平等效应探析[J]. 科学与社会, 2020(1): 32-45. |
[41] |
刘晓娟, 谢瑞婷. 欧洲老年人数字素养项目的实践经验与启示[J]. 图书情报知识, 2023(2): 117-130. |
[42] |
EUROPEAN PARLIAMENTARY RESEARCH SERVICE. A governance framework for algorithmic accountability and transparency[R]. 2019.
|