文章快速检索    
  重庆大学学报(社会科学版)  2022, Vol. 28Issue (3): 230-241  DOI: 10.11835/j.issn.1008-5831.fx.2022.01.002 RIS(文献管理工具)
0

引用本文 

胡瑾. 技术不确定性下算法推荐新闻的伦理风险及其法律规制[J]. 重庆大学学报(社会科学版), 2022, 28(3): 230-241. DOI: 10.11835/j.issn.1008-5831.fx.2022.01.002
HU Jin. Ethical risk and legal regulation of algorithm recommendation newsfrom the perspective of technological uncertainty[J]. Journal of Chongqing University(Social Science Edition), 2022, 28(3): 230-241. DOI: 10.11835/j.issn.1008-5831.fx.2022.01.002

作者简介

胡瑾, 重庆师范大学新闻与传媒学院, Email: 935392308@qq.com

文章历史

技术不确定性下算法推荐新闻的伦理风险及其法律规制
胡瑾     
重庆师范大学 新闻与传媒学院, 重庆 401331
摘要: 大数据、人工智能、算法推荐技术等信息技术的快速迭代, 推动了传统社会的数字化转型, 传统新闻业同样在开展数字化转型升级。在此背景下, 随着新闻信息过载的不断加剧, 由大数据衍生出的算法推荐新闻迅速崛起, 算法信任、数据优势与新闻媒介的数字化客观上为算法推荐新闻的应用和发展奠定了基础。毋庸置疑, 算法推荐新闻对于实现新闻准确分发、增强新闻受众黏性具有重要意义, 智慧化、瞬时性的算法推荐新闻具有精准、高效、个性化优势, 但同时算法作为一种复杂性、不确定性技术, 带来了多层面、多环节、多领域的风险挑战和制度掣肘, 算法推荐新闻同样引发了"算法黑箱" "算法偏差" "技术霸权""责任缺口"与"信息泄露"等多种伦理风险。当前, 学界对于算法推荐技术本身是否真的成熟, 以及算法推荐新闻可能引发的伦理危机研判明显不足。对此, 从技术不确定性理论所内嵌的技术本身不确定性、技术认知不确定性与技术制度不确定性三个向度, 可以为算法推荐新闻的伦理风险提供适当的分析框架, 在此基础上厘清算法推荐新闻伦理风险发生的根源, 可将其归纳为技术本身不确定性向度的数学洗脑与主体性缺失、技术认知不确定性向度的能力不足与底线失守以及技术制度不确定性向度的法律规范与伦理体系的不完善。具言之, 算法推荐新闻作为一种新兴技术, 已有伦理形态与法律规范逐渐无法有效规制其伦理风险, 亟需建构专业化、制度化的算法推荐新闻伦理风险规制体系。算法推荐新闻伦理风险的法律规制应当奉行何种原则是规制路径建构的前提性、方向性议题, 分析认为技术不确定性下算法推荐新闻伦理风险的法律规制需坚持新闻透明原则、价值中立原则和德法共治原则。当然, 随着算法推荐技术、云计算等新兴技术的不断进化, 新闻透明原则亦需与时俱进, 对算法推荐新闻的新兴伦理风险予以有效规制, 新闻从业者、算法推荐新闻分发平台等要坚持以价值中立原则为指导, 强化算法推荐新闻中"人"的主体性地位, 并在德法共治原则指导下明确算法推荐新闻伦理风险的法律规制范式。从以上原则出发, 算法推荐新闻伦理风险的法律规制, 应当针对不同类型的伦理风险进行有针对性的制度建构, 即在技术本身不确定性向度加强算法公开与算法解释权、数据权利等保障, 在技术认知不确定性向度推动新闻从业者计算思维的培养及伦理约束, 在技术制度不确定性向度采取伦理结构化与法律问责等规制对策。
关键词: 算法推荐新闻    技术不确定性    新闻业伦理风险    新闻业法律规制体系的重构    
Ethical risk and legal regulation of algorithm recommendation newsfrom the perspective of technological uncertainty
HU Jin     
School of Journalism and Communication, Chongqing Normal University, Chongqing 401331, P. R. China
Abstract: The rapid iteration of information technology, such as big data, artificial intelligence and algorithm recommendation technology, has promoted the digital transformation of traditional society, and traditional journalism is also carrying out digital transformation and upgrading. In this context, as the overload of news information continues to intensify, algorithm recommendation news derived from big data has risen rapidly. Algorithm trust, data dominance, and the digitization of news media objectively lay the foundation for the application and development of algorithm recommendation news. Undoubtedly, algorithm recommendation news is of great significance for realizing the accurate distribution of news and enhancing the stickiness of news audiences. Intelligent, instantaneous algorithm recommendation news has the advantages of accuracy, efficiency, and individualization, but at the same time, as a complex and uncertain technology, algorithm brings multi-level, multi-link, multi-field risk challenges and institutional constraints. Algorithm recommendation news has also caused various ethical risks such as "algorithm black box" "algorithm deviation" "technical hegemony""responsibility gap" and "information leakage". At present, the academic circles are obviously insufficient in research and judgment on whether the algorithm recommendation technology itself is really mature, and on the ethical crisis that may be caused by algorithm recommendation news. In this regard, the three dimensions of the theory of technological uncertainty, including technological uncertainty, technological cognitive uncertainty, and technological institutional uncertainty, can provide an appropriate analysis framework for the ethical risks of algorithm recommendation news. From this framework, the root causes of the ethical risk of algorithm recommendation news can be clarified, which can be summarized as mathwashing and main body dispel in the dimension of technological uncertainty, the lack of ability and bottom line loss in the dimension of technological cognitive uncertainty, and the imperfection of legal norms and ethical system in the dimension of technological institutional uncertainty. Specifically, as an emerging technology, the existing ethical forms and legal norms are gradually unable to effectively regulate the ethical risk of algorithm recommendation news, and it is urgent to establish a professional and institutionalized regulatory system of ethical risk of algorithm recommendation news. What kind of principles should be followed in the legal regulation of ethical risk of algorithm recommendation news is the prerequisite and directional issue for the construction of the regulatory path. The analysis believes that the legal regulation of the ethical risk of algorithm recommendation news under technological uncertainty needs to adhere to the principle of news transparency, value neutrality, and rule of law with virtue. Of course, with the continuous evolution of algorithm recommendation technology, cloud computing and other emerging technologies, news transparency principle also need to keep pace with the times and effectively regulate the emerging ethical risks of algorithm recommendation news. News practitioners and algorithm recommended news distribution platforms must adhere to the principle of value neutrality to strengthen the subjectivity of "people" in algorithm recommendation news. And under the guidance of the principle of rule of law with virtue, the legal regulation paradigm of algorithm recommendation news ethical risk should be clarified. Proceeding from the above principles, the legal regulation of algorithm recommendation news ethical risks should target at different types of ethical risks, that is, to strengthen the protection of algorithm disclosure and algorithm interpretation rights, data rights, etc., in the dimension of technological uncertainty, to promote the cultivation of computational thinking and ethical constraints of news practitioners in the dimension of technological cognition uncertainty, and to adopt regulatory measures such as ethical structuring and legal accountability in the dimension of technological institutional uncertainty.
Key words: algorithm recommendation news    technological uncertainty    ethical risk of journalism    reconstruction of the legal regulation system of journalism    

2021年9月,国家互联网信息办公室、中央宣传部等九部委联合印发的《关于加强互联网信息服务算法综合治理的指导意见》(以下简称《意见》)指出,算法的不合理应用影响正常的传播秩序、市场秩序和社会秩序,给维护意识形态安全、社会公平公正和网民合法权益带来挑战。《意见》中有关“算法的不合理应用影响正常的传播秩序”的表述是本文再谈算法推荐新闻(algorithm recommendation news)伦理风险规制的出发点和支撑点。

一、技术不确定性下算法推荐新闻及其伦理风险向度

讨论算法推荐新闻的伦理风险,首先应当明确三个基本概念:信息过载、技术创新与算法推荐新闻。一般认为,信息过载是算法推荐新闻产生的重要原因。从传播者、传播渠道来看,信息过载是指大量复杂且不断增加的信息在传播渠道中流动,这必然会导致“过载”;从信息接受者的角度来看,新闻受众在将信息转化为自我认识的过程中也会出现“瓶颈”障碍,在信息接受方面出现“信息疲劳”现象[1]。在此背景下,算法推荐新闻逐渐兴起,提升了人工新闻编辑和新闻推送的效率,进而使新闻业的整体效率得以提高。当然,算法推荐新闻的快速发展也与公众的阅读载体从传统纸媒迁移到移动媒体密切相关,同时互联网技术、大数据和云计算技术的发展及产业化也发挥了举足轻重的作用。可以说,在算法推荐新闻时代,新闻受众获得了更大意义上的自主权,实现了“以受众为导向”的价值回归。但与此同时,算法推荐新闻引发的伦理风险不容忽视。对于算法推荐新闻的伦理风险,可在技术不确定性框架下分出以下三个向度。

(一) 本体论视角

算法推荐新闻中算法本身的不确定性可能引发伦理风险。随着算法内部结构和功能日趋复杂,影响因素增多,愈发难以确定算法自身带来的伦理影响[2]。算法作为一门新技术,涉及模糊复杂的技术知识和科学基础。算法推荐新闻在底层算法、技术工程、受众认知乃至市场环境等方面的不确定性,都可能引发伦理风险。

(二) 认识论视角

技术产生不确定性的来源不仅是外部的,也是内部的,这与人们自身意识形态框架中的偏见和局限有关[3],这种偏见和局限使算法推荐新闻可能带来伦理风险。虽然技术伦理问题近年来被广泛讨论,但是在“技术拜物教”的助推之下,算法应用正在“狂飙突进”,只注重技术对人类的“再启蒙”,而忽视了这种“再启蒙”带来的社会伦理问题[4]。同时,在算法的设计和应用中,我们更多地关注技术的效益价值,而忽略了其伦理内涵。此外,由于缺乏深入了解算法推荐新闻本身的知识和能力,以及无法及时获得与算法推荐新闻相关的必要信息,可能导致算法推荐技术在新闻领域的应用带来认知不确定性下的伦理风险。

(三) 制度论视角

法律规范和伦理体系的不完善使算法推荐新闻的伦理风险及其规制处于无序状态。囿于技术本身不确定性和技术认知不确定性,学界对于算法推荐新闻伦理风险的规章制度存在争议,难以形成统一行动,以此导致技术制度不确定性的出现,技术制度不确定性又加剧了技术本身不确定性和技术认知不确定性带来的伦理风险。

申言之,基于技术不确定性下算法推荐新闻的伦理风险向度,需具体风险具体分析,在厘清风险表现、风险根源的基础上,加快算法伦理建构,并推动其实现。

二、技术不确定性下算法推荐新闻伦理风险的表征梳理 (一) 技术本身不确定性下算法推荐新闻的伦理风险

算法作为一种尚未成熟且具有颠覆性影响的技术,本身面临着道德、法律等诸多层面的风险挑战,其在新闻领域的应用也引发了诸多类型的伦理风险。技术本身不确定性下算法推荐新闻的伦理风险主要表现在以下几个方面:一是算法推荐新闻本身存在伦理风险。算法推荐新闻分发平台不遵守道德要求和法律规范,使人的意志因素融入算法和算法推荐新闻的技术中,导致算法面临不可避免的偏差和黑箱,增加算法运行的不可控因素[5]。例如,2016年3月23日,微软公司发布了人工智能(AI)聊天机器人Tay,但不到一天,Tay在与人类的互动中将好坏学了个遍,变成了一个种族歧视者,微软公司不得不将其“下岗”。Tay的故事凸显了机器学习程序开发者面临的一个障碍:算法偏差[6]。二是算法在部分领域的应用引发了极大的伦理争议。如今,算法被应用在大数据精准营销中,包括搜狗用户画像挖掘、用户评分预测、机场客流量分布预测等诸多领域,但算法在多场域的应用并非没有负面影响,例如在百度在线网络技术(北京)有限公司等与北京字节跳动科技有限公司不正当竞争纠纷一案中,字节跳动公司主张本文引言所述人民网文章仅是针对算法推荐,并未专门针对今日头条。人民网算法推荐文章是否针对今日头条暂且不论,但这无疑是给有关主体带来了伦理风险和不良后果。三是算法推荐新闻带来信息数据保护风险。在新闻行业,基于算法的新闻分发平台,如Google News等主导着新闻受众获取新闻的数量、类型和偏好,越来越集中且具有垄断性的新闻平台控制着大量新闻受众的个人信息数据,这也使侵犯新闻受众隐私的事件层出不穷,但被侵犯群体却难以获得有效赔偿[7]。例如,西班牙公民冈萨雷斯(González)要求发布者删除与他有关的任何个人信息,或改变算法搜索结果保护他的隐私,该案是“被遗忘权”的经典案例。此外,新闻受众对信息数据的主导权也逐渐被转移到掌握用户特性、标签等的算法推荐新闻分发平台手中。四是算法推荐新闻的负外部性逐渐凸显。有学者指出,人工智能算法的负外部性表现在影响现有社会秩序的秩序性、连续性和确定性方面,从而引发社会道德危机,加剧人类社会未来发展的不确定性[8]。实际上,算法推荐新闻的负外部性也有相同表现,例如算法规则程序,过程的不透明、不公开等技术黑箱缺陷,对社会公平形成挑战,这种不平等将进一步加大层级间的智能鸿沟,非智能社会人群向后退却,成为技术哲学意义上的“准人类”甚至“非社会人”[9]

① 参见:北京知识产权法院(2019)京73民终1908号民事判决书。

(二) 技术认知不确定性下算法推荐新闻的伦理风险

目前,算法推荐新闻仍处于弱算法阶段,其伦理风险问题尚未被充分重视。但是,随着技术进步,算法推荐新闻将迈入强算法阶段,且极有可能全面超越人类认知,这将使算法推荐新闻可能因失去伦理约束而陷入技术霸权的奴役之下。正如有学者指出,“人往往陷入被自然‘座架’指引的解蔽之路而无法脱身境地,解蔽此过程的方法暗藏危险,因为人逐渐被技术绑架:人即技术,技术即人”[10]。具体而言,囿于技术认知能力不足等困境,使新闻从业者对算法推荐新闻的伦理风险缺乏清晰认知,更遑论对其进行有效规制,但算法推荐新闻缺乏约束必然会带来严重的伦理风险。例如,有学者指出,深度学习算法可能连设计者都不知道它是如何决策,那么要在系统中发现是否存在歧视、偏见以及探究其根源,在技术上比较困难[11]。英国杜伦郡警察等运用算法开发了评估工具“HART”,以预测嫌疑人继续犯罪的风险。然而,该工具将邮政编码作为预测因子区别对待穷人、富人,被认为“涉嫌”歧视穷人[12],这无疑是警方在开发之初难以预见到的。随着智能化水平的提升,算法推荐技术将具备更强的自主学习和自动决策能力,自动驾驶系统等已经在特定场景中部分或全部代替了人类的决策和行动,这将进一步加剧对算法及算法推荐新闻认知的不确定性。当算法推荐新闻分发平台自动默认将新奇、低俗作为新闻分发偏好,并基于此进行个性化推荐时,算法推荐新闻就会成为滋生谣言的帮凶。此外,算法推荐新闻分发平台和新闻从业者可能存在经济动机,致使人们对算法推荐新闻的认知出现不确定性,由此进一步引发伦理风险。例如,用户访问google.com以查找有关病症的专家建议时可能会同时收到疾病控制中心和Google Health的建议。然而,观察发现Google将其提供的(不一定是最好的)服务置于Google搜索结果的顶部。由此可见,技术认知不确定性引发的伦理风险之根源既有客观能力的局限,也有主观伦理底线的失守。

(三) 技术制度不确定性下算法推荐新闻的伦理风险

法律规范和伦理体系的不完善使算法推荐新闻的伦理风险进一步加剧,算法推荐新闻将不断侵蚀作为“人”的主体性。其一,现有规制算法推荐新闻伦理风险的制度存在失灵。例如,美国联邦贸易委员会(Federal Trade Commission,FTC)要求Everalbum公司删除客户数据以及算法,Everalbum使用面部识别技术将用户照片自动分组,在默认情况下为所有用户启用了面部识别,且无法手动关闭。FTC与Paravision达成协议:该公司违反了《联邦贸易委员会法案》(Federal Trade Commission Act)第5a条中关于禁止不公平或欺骗性行为和惯例的规定,Everalbum同意对内容进行删除。但是,该公司在应用关闭之前还在推销产品,声称其口罩人脸识别算法在美国国家标准技术研究所(NIST)的人脸识别算法测试(FRVT)中获得了准确率第二的好成绩[13]。由此可见,现有规制算法推荐新闻伦理风险的有关制度存在失灵和威慑力不足等掣肘。其二,伦理规范体系的不完善使算法推荐新闻引发的伦理风险缺乏明确的规制手段和方向。与我国相比,域外规制算法伦理风险的制度体系较为完备。例如,《关于算法透明性和可问责性的声明》(Statement on Algorithmic Transparency and Accountability)、《人工智能时代:确立以人为本的欧洲战略》(The Age of Artificial Intelligence: Towards a European Strategy for Human-Centric Machines)、《可信人工智能伦理指南》(Draft Ethics Guidelines for Trustworthy AI)等,欧盟《单一数字市场版权指令》要求脸书、You Tube等平台加强版权审核。就我国而言,针对算法推荐新闻可能引发的“技术霸权”“责任缺口”等伦理风险,仅有《意见》作为规范依据。

三、技术不确定性下算法推荐新闻伦理风险的原因探析 (一) 技术本身不确定性向度:“数学洗脑”与主体性缺失

技术本身不确定性下算法推荐新闻伦理风险生成之根源,既包括算法本身的风险暴露不足,也包括“数学洗脑”(mathwashing)带来的技术依赖。目前算法推荐新闻是按照新闻从业者的意愿编辑生成,体现为算法推荐新闻对人类需求的满足,但这也使人们容易被“洗脑”。Kickstarter众筹公司的数据副总裁Fred Benenson创造了“数学洗脑”这一名词,这个合成词的灵感来自“pinkwashing”“greenwashing”或“whitewashing”等,其核心要义在于批驳使用数学术语(算法、模型等)来掩盖主观现实,不能因使用了数学,就忽视了数据的内在主观性,使用数据构建的任何东西都将反映收集数据时的偏见和决定[14]。进一步看,在强人工智能技术时代,算法可能形成与人主体相平行的新主体类型(平行主体),生成强人工智能主体的主体性,而在超强人工智能技术时代,算法可能形成超越人主体的全新主体(超主体),但这是人主体无法理解的超人主体性[15]。实际上,实践已经为此作了证成。2017年3月,欧洲议会投票接受了法律事务委员会提交的关于机器人、人工智能的报告,该报告创新性地提出应该开发适用于机器人和超级人工智能的“电子人格”[16]。沙特阿拉伯还授予香港汉森机器人公司开发的表情机器人索菲亚以“公民身份”。可以说,算法的语言和思维将不断接近智能发展的“奇点”,甚至可能具有哥德尔反思能力,从而接近人类,给“人”的主体性带来挑战[17]。对此,无论是古希腊时期普罗太戈拉提出的“人是万物的尺度”的判定,还是苏格拉底“认识你自己”的命题,都在强调人类自我意识和自身价值[18]。因此,算法推荐新闻遵循何种伦理,需要及时以制度形式明确下来,而这种制度无疑需要具有主体性的“人”来建构。

(二) 技术认知不确定性向度:能力不足与底线失守

技术认知不确定性下算法推荐新闻的伦理风险除与新闻从业者的客观认知能力不足有关外,也与相关新闻从业者的主观伦理底线失守密切相关。一方面,智能时代新闻从业者所具备的新闻专业性、技术能力、新闻伦理和社会责任意识等能力存在诸多不足。例如,新闻网站REDDIT曾经向一些专家透露过它的排名算法,但研究人员发现专家们经常对算法的工作原理持不同意见,很难完全理解它的工作原理[19]。专家尚且如此,对于普通人而言,认知能力不足将使算法公开更无实质意义。但是,规制算法推荐新闻伦理风险需要算法本身满足可解释性的要求,这使新闻从业者在认知能力等方面将面临更大的挑战。理由在于,算法技术本身分为多种形态,简单算法解释具有可行性,但是深度学习算法是一种具有自主学习能力的动态算法,其会不断吸收新的信息,构建更复杂的算法模型[20],故很难对其进行有效、深入、及时的解释。另一方面,算法推荐新闻分发平台和新闻从业者可能存在伦理底线失守情形。例如抖音是算法推荐机制,即平台只会推荐用户喜欢和关注的内容,相关主体如引路灯公司的KPI考核指标也是按照这个规则来进行的,假如用户有不喜欢的内容,就很难实现完播,没有实现完播就不会计入流量池里。在此种营利模式下,有关主体很可能从营利动机出发应用算法技术,这无疑将加剧算法推荐新闻引发的伦理风险,也使得全面认知算法推荐新闻的伦理风险及其规制理路面临更大挑战,这种挑战在专业的算法推荐新闻分发平台那里将更为突出。算法推荐新闻分发平台加速了所谓的“新闻民主化”改革,实现了新闻生产主导权的下移,这种转变很容易引发新闻无序竞争的问题,造成新闻价值选择与流量偏向的整体失衡[21]

② 参见:福建省厦门市思明区人民法院(2020)闽0203民初19500号民事判决书。

(三) 技术制度不确定性向度:法律规范与伦理体系不完善

在算法推荐技术已经广泛应用到传播实践的当下,用什么标准判断算法推荐新闻的个性化推荐是否恰当?如存在不当之处,应当以何标准来约束和规范这种不恰当的现象?就此而言,从宏观视角来看,《中华人民共和国民法典》《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)等对算法推荐新闻的伦理风险规制具有一定作用。从微观视角来看,可以从移动互联网应用程序(application program,App)的算法应用和算法推荐新闻分发平台两个视角进行梳理:有关App算法应用的法律规范,如《常见类型移动互联网应用程序必要个人信息范围规定》第4条规定App不得因为用户不同意提供非必要个人信息而拒绝用户使用其基本功能服务,此规定为App的算法应用提供了参照适用规范;有关算法推荐新闻分发平台的法律规范,如《网络信息内容生态治理规定》第12条规定网络信息平台采用算法推荐技术推送信息的,应当建立健全人工干预、用户自主选择等机制,同时《意见》规定应当建立算法安全责任和科技伦理审查制度,以及对算法应用的结果负主体责任等。以上法律规范和已有的技术伦理、新闻伦理等伦理规范能够对算法推荐新闻的伦理风险进行初步规制,但算法推荐新闻的新颖性使得已有伦理形态难以有效满足算法推荐新闻的伦理规范需要,这也是算法推荐新闻伦理风险生成的制度不确定性根源。申言之,算法推荐新闻作为一种新兴技术,已有伦理形态逐渐无法有效规制其伦理风险问题,亟需建构算法推荐新闻的伦理规范体系。

四、技术不确定性下算法推荐新闻伦理风险的规制原则 (一) 技术本身不确定性向度:新闻透明原则

新闻透明原则是新闻基本原则之一,也是算法推荐新闻伦理风险规制需要遵循的基本原则。2001年,比尔·科瓦齐和汤姆·罗森斯蒂尔在《新闻的十大基本原则:新闻从业者须知和公众的期待》(The Elements of Journalism: What Newspeople Should Know and the Public Should Expect)中较早系统性地提出“透明性原则”(rule of transparency)。从未来新闻学视角来看,算法、大数据给传统新闻模式带来了颠覆性挑战,作为新闻基本原则的新闻透明原则需与时俱进,对新模式、新技术、新业态予以规范和指引,正如有学者沿着“技术道德化”的思路,认为应当将新闻透明原则纳入算法设计的“套路”[22]。在算法推荐新闻时代,已经规范化、制度化的算法透明原则能够为新闻透明原则的实现提供范式支撑和法律基础,例如《个人信息保护法》第24条已经明确规定了算法透明原则,《新一代人工智能伦理规范》同样规定要提升算法透明性。换言之,建立在“可见”和“可知”基础上的新闻透明原则,在数字时代不仅包含内容透明,还应当涉及平台透明和算法透明[23]。因此,需要把新闻透明原则这一伦理规范植入算法设计中,以算法透明推动新闻透明。2010年,迈克尔·卡尔森将透明性划分为“公开式透明”(disclosure transparency)和“参与式透明”(participatory transparency),前者指新闻从业者解释、公开新闻选择和生产方式,后者意为邀请新闻受众参与新闻制作过程[24]。由此,在技术本身不确定性下算法推荐新闻伦理风险的规制方面,应当坚持以下两个方面的规制思路:其一,公开式透明。新闻透明原则要求算法首先实现透明,以保证其可以实现被检验和被监督[25]。公开式透明是规制算法推荐新闻伦理风险的重要手段之一,算法透明度不仅包括程序公开,还包括数据公开和算法开源等。需要指出的是,公开式透明并不是无限度的,其需要以确保公信力、消除偏见、保护公共利益和实现最小伤害等作为评价算法透明度是否“适度”的重要标准[26]。其二,参与式透明。参与式透明意在将算法透明原则建立在新闻受众充分参与基础之上,对于算法推荐新闻的相关伦理风险进行预估和监督。此外,参与式透明还需要严格制定新闻从业者的职业道德标准,增强新闻从业者的责任感,提高识别和分析算法推荐新闻伦理风险的能力,避免使其陷入算法推荐新闻的“技术拜物教”之中。

(二) 技术认知不确定性向度:价值中立原则

技术认知不确定性下算法推荐新闻伦理风险的规制需要新闻从业者等秉持价值中立原则。技术是否中立本质上是价值是否中立,技术无法左右人类,最终的结果都是人类自己的选择[27]。在1984年环球影业诉索尼一案中形成了“索尼规则”,也即技术中立原则,认为只要符合“实质性非侵权使用”的标准,技术产品就不构成辅助侵权,无论该技术用于何种目的[28]。实际上,技术中立的本质在于价值是否中立,算法推荐新闻取决于它的经验(数据)和价值观(机器学习算法),经验难免有偏误,价值观也免不了有所偏好,算法背后充斥着人类价值的介入,致使算法推荐新闻的价值非中立性难以绝对消除。因此,我们需要努力将算法价值非中立性带来的影响限制在可接受的范围之内,型构安全、公平、透明的算法价值体系。当下,在规制算法推荐新闻伦理风险的问题上,对于新闻从业者在行业内的自我约束和认知能力提升等方面的论述和分析仍显不足,这可能是由算法推荐新闻的商业逻辑决定的,算法技术毕竟不是抽象的数学,里面必然包含着价值观的嵌入,如“利用技术的‘伪中立性’帮助自身实现特定的诉求”[29]。但是,如果新闻从业者等仅仅秉承商业逻辑,依赖算法的自主设定,不仅会使新闻生产失去独立性,还会冲击传统新闻的价值中立观,导致算法推荐新闻的价值纠缠[30]。质言之,算法推荐新闻在提高新闻采集、生产效率的同时对新闻从业者等的技术观、新闻观带来冲击,这要求新闻从业者等要坚持以价值中立原则为指导,确立“人”的主体性地位,避免新闻从业者等成为技术附庸和金钱奴隶。此外,价值中立原则的实现还需要有媒介素养的新闻受众的有力监督,新闻受众对违背伦理的现象进行批评和监督,对防范和规制算法推荐新闻的伦理风险同样重要。

(三) 技术制度不确定性向度:德法共治原则

2020年12月,中共中央印发的《法治社会建设实施纲要(2020-2025年)》明确提出,要“坚持依法治网和以德润网相结合”。其中,法治着重于在社会分化中确立秩序,而德治则努力弥合社会分化中的感情疏远和价值裂痕,二者发挥相互补充的作用[31]。囿于算法推荐新闻及其伦理风险规制的伦理规范体系不完善的现状,现阶段亟需加快算法推荐新闻伦理规范体系和法律问责制度的完善,坚持德法共治,并发挥二者的协同作用。目前,我们应当同时从两个方面着手:其一,加快省思正在变革中的新闻伦理、技术伦理,以及重构新的算法推荐新闻伦理体系;其二,针对算法推荐新闻的伦理风险,建立完整、有效的法律规制体系,筑牢算法推荐新闻伦理风险规制的最后屏障。

五、技术不确定性下算法推荐新闻伦理风险的法律规制进路 (一) 技术本身不确定性向度:算法公开与权利保障

一方面,有限度的算法公开是技术本身不确定性下算法推荐新闻伦理风险规制的重要范式。算法公开应该是一个有意义的公共系统和决策系统,而非指机械性的算法架构或源代码的公开,机械性的算法公开可能是无意义的,这种公开不能为相关主体提供有意义的决策参考[32]。同时,新闻受众可能难以有效阅读、理解有关信息,造成“透明谬误”。因此,算法推荐新闻的算法公开应当具体问题具体分析。第一,在公开信息的范围上具体问题具体分析。例如,算法涉及银行贷款、保护专有信息或合法商业利益以及如金融和医疗保健等隐私信息时,公开这些信息可能受到相关法律法规的限制。那么,对于此类信息的公开要进行分类研判,审慎对待。第二,在算法公开的解释方法上具体问题具体分析。算法解释方法主要包括模型中心解释(model centric explanations,MCEs)和主体中心解释(subject centric explanations,SCEs)两种,其中模型中心解释主要涵括相关参数、性能指标等,针对的主要是算法技术本身的信息;主体中心解释是建立在输入记录的基础上所作的解释,此种方法对寻求个人救济的数据主体来说可能更有优势,但其质量也可能因算法系统的多角度性质及多样化个人数据类型等因素而降低,正如有学者指出MCEs和SCEs远非完美的解决方案[33]。本文认为,算法推荐新闻的解释方法需要结合二者之优势,在实践理性指引下寻找创新的解释和公开模式及路径。

另一方面,算法解释权、数据权利等保障能够对技术本身不确定性下算法推荐新闻伦理风险规制发挥重要作用。算法解释权意图直观地打开“算法黑箱”并提高问责制,其是指认为自身利益可能被算法的机器学习和自动决策影响的人,有权知道个人数据自动处理的逻辑,并要求改正算法错误[34]。同时,算法推荐新闻伦理风险规制需要以算法规制思维协调受众数据权利与数据治理的关系,如果说加强身份数据采集、挖掘和算法标准的伦理规制是一种软规制的话,安全嵌入设计程序的规制则是一种硬规制,通过加密、反追踪和自动销毁等程序,防止滥用受众数字身份及其相关数据[35]。除了算法解释权、数据权利之外,在《通用数据保护条例》(General Data Protection Regulation,GDPR)中还包括其他与算法治理相关的权利规定,例如被遗忘权和数据可携性等,还有学者指出算法治理中的新兴权利主要有个人数据保护的相关权利、算法解释权、免受自动化决策权、有意义的人类控制权及事后的人工审核权[36]。以上权利分类对算法推荐新闻伦理风险规制问题的研究具有重要意义,但最重要的还是通过制度建构来保障这些权利的行使。

(二) 技术认知不确定性向度:计算思维与伦理坚守

新闻从业者“计算思维”的养成是规制技术认知不确定性下算法推荐新闻伦理风险的重要方面。美国卡内基·梅隆大学的周以真(Jeannette M Wing)教授于2006年首次提出了“计算思维”的概念,其是指运用计算机科学的基础概念进行问题求解、系统设计以及人类行为理解等涵盖计算机科学的一系列思维活动[37]。现阶段,新闻从业者的计算思维需要加快进化到3.0阶段,即计算思维在不同个体参与的人机交互过程中体现出的问题解决能力,并依据有关计算的流程与模型或者针对所面对的问题,参与构建适合问题解决的计算模型来创新性地解决问题[38]。实际上,国内外已有多项政策文件强调了计算思维和技术能力的重要性。由此可见,新闻从业者计算思维的养成是算法推荐新闻伦理风险规制的重要方面。此外,新闻受众也需要提高知识素养、数字素养,提高正确分辨、选择和评价算法推荐新闻内容的能力,这对于规制技术认知不确定性下算法推荐新闻的伦理风险同样重要。

③ 例如,2018年9月17日发布《教育部中共中央宣传部关于提高高校新闻传播人才培养能力实施卓越新闻传播人才教育培养计划2.0的意见》,指出要形成遵循新闻传播规律和人才成长规律的全媒化复合型专家型新闻传播人才培养体系。同时,联合国教科文组织在2019年发布《教育中的人工智能:可持续发展的机遇和挑战》中同样指出,学习者是否拥有创造开发与数字解码新技术等新技能,成为AI时代衡量人才的新标准。

伦理,需要依靠自律。除了计算思维的养成,新闻从业者的伦理坚守是规制技术认知不确定性下算法推荐新闻伦理风险的防线。新闻从业者应当加强自律,将公共利益置于经济利益之上,坚持正确的新闻价值观,充分发挥在新闻传播中的主体性作用,维护算法推荐新闻在新闻实践中的伦理合规。同时,算法推荐新闻分发平台需要在设计算法规则时分配更多的权重在公共价值和人文关怀方面,增加对公平、正义、人性尊严的考量。必要时,行政、法律力量需要介入打破技术与资本的垄断,以达到平衡工具理性与价值理性之间关系的目的[39]。总之,在算法推荐新闻时代要加强对新闻从业者和算法推荐新闻分发平台的伦理约束,正确处理、规制技术给新闻领域带来的伦理风险。

(三) 技术制度不确定性向度:伦理结构化与法律问责

推动算法推荐新闻伦理结构化是技术制度不确定性下伦理风险防控的最后屏障和有力保障。伦理结构化过程是指规范化、制度化、系统化的逻辑构成,具有科学性和同一性的评价标准和方法,并逐步推动伦理规范的制度化和规范化[40]

首先,规范构造是规制算法推荐新闻伦理风险的前提性条件。法律和伦理规范能够为规制算法推荐新闻伦理风险指明方向,需要在算法推荐新闻的生成伊始设定其伦理要求。正如《意见》指出要健全算法安全治理政策法规,加快制定算法管理规定,并制定标准、指南等配套文件。但与法律不同的是,伦理规范是规制算法推荐新闻伦理风险的直接标准,不具有法律的强制性。当人工智能算法发展到比人类决策更准确、更少歧视的阶段时,算法伦理规范的设定可能需要设计超越人类伦理的双重标准。换言之,当算法真正具有哥德尔反思能力抑或“公民身份”时,算法推荐新闻的伦理规范可能需要重构与现有人类伦理、新闻伦理不同的伦理规范体系,以此填补可能出现的“责任缺口”。

其次,加强算法推荐新闻的伦理标准化、算法备案与算法审计。伦理标准化是指将算法推荐新闻相关的伦理因素如透明度、可解释性、新闻受众态度等各种指标纳入伦理规范设计过程之中,推动算法推荐新闻伦理标准的制度化、体系化。如此,规制算法推荐新闻的伦理风险就具有现实可行性,同时在伦理标准制度化、体系化之后,算法备案和算法审计就有了用武之地。算法备案是规范算法应用的事前规制手段,对于App的算法备案,可参照适用《移动互联网应用程序信息服务管理规定》第5条的规定,要求移动互联网应用程序(App)的算法应用应当依法取得相关资质、履行备案手续;对于算法推荐新闻分发平台的算法备案,国家互联网信息办公室发布的《互联网信息服务算法推荐管理规定(征求意见稿)》第20条进行了明确规定,即具有舆论属性或者社会动员能力的算法推荐服务提供者应当履行备案手续。就算法审计而言,有学者区分的代码审计、非侵入式用户审计、抓取式审计、马甲审计、协同或众包审计等五种算法审计方式能够实现对App算法应用的审计和算法推荐新闻分发平台的算法审计。具体而言,对App算法应用的算法审计,可采用非侵入式用户审计等方式,在用户同意的情况下获取用户的搜索和查询结果进行推断;对于算法推荐新闻分发平台的算法审计可采用代码审计等方式。由此可见,在伦理标准化基础上多样化的算法审计机制能够对算法推荐新闻伦理风险的规制发挥重要作用。

最后,设立算法推荐新闻的监管机构并强化问责法律制度。就监管机构设立而言,欧洲科学和新技术伦理小组、英国上议院人工智能委员会等专门监管机构在人员构成上主要包括负责立法的议会成员、国家数据保护机构成员、学者和公民等,能够监控、维护算法系统的负责任秩序,对算法推荐新闻伦理风险的规制具有重要作用。2019年澳大利亚竞争与消费者委员会宣布计划设立专门分支机构,以监管算法运行。在我国,中国消费者协会曾建议国家设立算法伦理专门机构。本文认为,由国家互联网信息办公室、中央宣传部等部委、学者、公民代表等组建算法伦理的专门监管机构以规制算法推荐新闻伦理风险具有必要性和可行性。监管机构需根据《意见》要求构建算法风险监测、算法安全评估、科技伦理审查、算法备案管理和违规行为处置一体化的监管体系。就算法问责体系而言,对App算法应用的问责,2021年4月,工业和信息化部信息通信管理局发布的《移动互联网应用程序个人信息保护管理暂行规定(征求意见稿)》第8条明确规定了移动互联网应用程序(App)与第三方服务(算法推荐服务)承担连带责任的情形;对算法推荐新闻分发平台的问责,主要包括算法说明责任和算法安全评估责任等,具体而言,《个人信息保护法》第24条的规定为算法推荐新闻分发平台设定了算法说明责任;国家互联网信息办公室关于《互联网信息服务算法推荐管理规定(征求意见稿)》第14条的规定为算法推荐新闻分发平台设定了算法安全评估责任。下一步,需加强算法问责的可操作性,制定责任清单、厘清责任边界,推动主体责任的充分落实。

六、结语

算法推荐新闻的衍生有其社会基础,但也引发了多方面、多层次的伦理危机,目前有关规制其伦理风险的探索仍不深入。本文转换视角,在技术不确定性下对算法推荐新闻的伦理风险及其法律规制问题进行了初步探讨,旨在不断夯实算法推荐新闻的伦理根基,将有关伦理风险约束在伦理尤其是约束在法律的框架之中,以法治手段寻求大数据时代算法推荐新闻的技术不确定性问题的解决方案,使算法推荐新闻逐步迈向更大程度的“确定性”,从而更接近算法推荐新闻的正义目标。

参考文献
[1]
孙旭培, 吴麟. "信息疲劳"与传播控制[J]. 新闻大学, 2006(3): 34-38. DOI:10.3969/j.issn.1006-1460.2006.03.007
[2]
汪德飞. 算法伦理争论的六重维度及其走向[J]. 科学技术哲学研究, 2021(4): 59-65.
[3]
李仕明, 李平, 肖磊. 新兴技术变革及其战略资源观[J]. 管理学报, 2005(3): 304-306, 361. DOI:10.3969/j.issn.1672-884X.2005.03.010
[4]
胡键. 算法治理及其伦理[J]. 行政论坛, 2021, 28(4): 41-49. DOI:10.3969/j.issn.1005-460X.2021.04.007
[5]
胡小伟. 人工智能时代算法风险的法律规制论纲[J]. 湖北大学学报(哲学社会科学版), 2021(2): 120-131. DOI:10.3969/j.issn.1001-4799.2021.02.015
[6]
JOHNSON G M. Algorithmic bias: On the implicit biases of social technology[J]. Synthese, 2021, 198(10): 9941-9961. DOI:10.1007/s11229-020-02696-y
[7]
张文祥, 杨林. 新闻聚合平台的算法规制与隐私保护[J]. 现代传播(中国传媒大学学报), 2020(4): 140-144, 154.
[8]
胡元聪, 廖娟. 人工智能的负外部性及其经济法规制[J]. 大连理工大学学报(社会科学版), 2020(3): 71-79.
[9]
杜骏飞. 定义"智能鸿沟"[J]. 当代传播, 2020(5): 1.
[10]
谭九生, 杨建武. 人工智能技术的伦理风险及其协同治理[J]. 中国行政管理, 2019(10): 44-50.
[11]
莫宏伟. 强人工智能与弱人工智能的伦理问题思考[J]. 科学与社会, 2018(1): 14-24.
[12]
谭九生, 杨建武. 人工智能嵌入政府治理的伦理风险及其防控[J]. 探索, 2021(2): 126-138.
[13]
机器之心. 算法模型会泄露隐私吗?别听他们怎么说, 看他们怎么做[EB/OL]. (2021-01-22)[2021-10-06]. https://www.bilibili.com/read/cv9415815/.
[14]
WOODS T. "Mathwashing", Facebook and the zeitgeist of data worship[EB/OL]. (2016-06-08)[2021-10-01]. https://technical.ly/brooklyn/2016/06/08/fred-benenson-mathwashing-facebook-data-worship/.
[15]
杨保军. 再论"人工智能新闻生产体"的主体性[J]. 新闻界, 2021(8): 21-27, 37.
[16]
文远竹. 智能传播的伦理问题: 失范现象、伦理主体及其规制[J]. 中国编辑, 2021(9): 64-70.
[17]
郑智航. 人工智能算法的伦理危机与法律规制[J]. 法律科学(西北政法大学学报), 2021(1): 14-26.
[18]
王敏芝. 算法时代传播主体性的虚置与复归[J]. 苏州大学学报(哲学社会科学版), 2021(2): 166-175.
[19]
SANDVIG C. Auditing algorithms: Research methods for detecting discrimination on internet platforms[EB/OL]. (2014-11-17)[2021-10-02]. http://cmds.ceu.edu/events/2014-11-17/auditing-algorithms-research-methods-detecting-discrimination-internet-platforms.
[20]
辛巧巧. 算法解释权质疑[J]. 求是学刊, 2021(3): 100-109.
[21]
陈莹. 算法新闻分发平台对新闻业态的影响[J]. 传媒, 2021(17): 50-52. DOI:10.3969/j.issn.1009-9263.2021.17.022
[22]
毛湛文, 孙曌闻. 从"算法神话"到"算法调节": 新闻透明性原则在算法分发平台的实践限度研究[J]. 国际新闻界, 2020(7): 6-25.
[23]
吴静, 陈堂发. 新闻透明性: 内涵、逻辑与价值反思[J]. 新闻大学, 2021(4): 28-41, 120.
[24]
KARLSSON M. Rituals of transparency[J]. Journalism Studies, 2010, 11(4): 535-545. DOI:10.1080/14616701003638400
[25]
王仕勇, 樊文波. 向善向上: 基于良性互动的算法新闻治理伦理研究[J]. 重庆大学学报(社会科学版), 2021(2): 225-236.
[26]
张超. "后台"前置: 新闻透明性的兴起、争议及其"适度"标准[J]. 国际新闻界, 2020(8): 88-109.
[27]
吴璟薇, 许若文. 基因编辑与后人类时代的科学伦理: 专访哲学家罗西·布拉伊多蒂[J]. 国际新闻界, 2019(4): 49-67.
[28]
陈洪兵. 论技术中立行为的犯罪边界[J]. 南通大学学报(社会科学版), 2019(1): 58-65. DOI:10.3969/j.issn.1673-2359.2019.01.009
[29]
张爱军, 李圆. 人工智能时代的算法权力: 逻辑、风险及规制[J]. 河海大学学报(哲学社会科学版), 2019(6): 18-24, 109.
[30]
刘海明. 媒体算法的价值纠缠与伦理误区[J]. 湖南师范大学社会科学学报, 2019(1): 32-41.
[31]
郭忠. 德法合治探源: 从社会共同体与人性的角度切入[J/OL]. 重庆大学学报(社会科学版): 1-13[2021-10-12]. https://kns.cnki.net/kcms/detail/detail.aspx?dbcode=CAPJ&dbname=CAPJLAST&filename=CDSK20210728001&uniplatform=NZKPT&v=tq_pSMDZi_-pDhDHwd49oKRCfuqpkwAnQo5xNhfR-iaD5e50QU88Mt0YMqC6-sO9.
[32]
丁晓东. 论算法的法律规制[J]. 中国社会科学, 2020(12): 138-159, 203.
[33]
EDWARDS L, VEALE M. Slave to the algorithm?Why a "right to an explanation" is probably not the remedy you are looking for[J]. Duke Law and Technology Review, 2017, 16: 18-84.
[34]
张凌寒. 风险防范下算法的监管路径研究[J]. 交大法学, 2018(4): 49-62.
[35]
郑智航. 数字资本运作逻辑下的数据权利保护[J]. 求是学刊, 2021(4): 113-126.
[36]
蔡星月. 算法决策权的异化及其矫正[J]. 政法论坛, 2021(5): 25-37.
[37]
WING J M. Computational thinking[J]. Communications of the ACM, 2006, 49(3): 33-35.
[38]
陈赞安, 李宁宇, 尹以晴, 等. 从算法到参与构建计算模型: 人机协同视域下计算思维的内涵演进与能力结构[J]. 远程教育杂志, 2021(4): 34-41.
[39]
匡文波. 对个性化算法推荐技术的伦理反思[J]. 上海师范大学学报(哲学社会科学版), 2021(5): 14-23.
[40]
张旺. 伦理结构化: 算法风险治理的逻辑与路径[J]. 湖湘论坛, 2021(2): 121-128.