2025年6月23日 周一

论算法与法律行为的关系:制度影响与法律回应

基金项目

国家社会科学基金一般项目“数字时代中算法消费者的公私协同保护体系研究”24BFX076

中图分类号:

G90-052

文献标识码:

A

作者简介

刘颖,法学博士,同济大学法学院副教授,硕士研究生导师,Email:liuyingtju@tongji.edu.cn

编辑

责任编辑:刘琦

欢迎按以下格式引用

刘颖. 论算法与法律行为的关系:制度影响与法律回应[J]. 重庆大学学报(社会科学版),2025(2): 253-266. Doi: 10.11835/j.issn.1008-5831.fx.2021.11.004.

On the relationship between algorithms and legal acts: Institutional influence and legal response

Citation Format:

LIU Ying. On the relationship between algorithms and legal acts: Institutional influence and legal response[J]. Journal of Chongqing University (Social Science Edition), 2025(2):253-266. Doi: 10.11835/j.issn.1008-5831.fx.2021.11.004.

重庆大学学报(社会科学版)    第31卷    第2期    253-266
Journal of Chongqing University (Social Science Edition)    Vol.31    No.2 : 253-266
Doi10.11835/j.issn.1008-5831.fx.2021.11.004
法学研究 >> 大数据法律规制研究专题

论算法与法律行为的关系:制度影响与法律回应

  • 刘颖
同济大学 法学院上海 200092
显示更多

摘要

大数据和人工智能的发展深刻地影响着人类的社会生活,改变了我们的生产和生活方式,也给法律规制带来了新的问题。我们从互联网社会走向算法社会,算法正在通过不同形式,不同程度地介入合同、侵权行为、公司治理、保险合同、证券交易等整个私法领域。在人工智能场景的算法社会中,形成了算法消费者群体。讨论算法如何影响法律行为效力的前提在于算法是否会影响行为人的意思表示。算法是针对数据的一系列程序逻辑,该程序逻辑是在自然语言基础上建构起来的。尽管算法具有一定的学习能力,可以通过大数据不断地进行深度学习,但这并不是认知层面的学习,不完全等同于人类学习。算法的本相是一种基于布尔代数的程序性“弹珠迷宫游戏”,其不符合民法中意思表示结构。通过自动化决策的算法系统作出的意思表示,仍是人类意思表示的延伸。算法使用者基于大数据和算法鸿沟形成了算法权力,对意思表示制度造成影响。算法不会对法律行为效力制度造成根本性挑战,但在错误、欺诈制度的具体构成要件中需要进行重新解释。在解释时,需要区分算法的使用人是表意方还是相对人的不同场景。在算法社会中,消费者向算法消费者演进,并作为一种消费者的新类型。为回应现有私法框架对于算法消费者保护不足的问题,应当调整《保险法》中如实告知义务的模式,《消费者权益保护法》需重塑经营者与消费者之间的权利义务;在商事金融领域,利用算法的金融机构将被赋予更高的注意义务。算法消费者保护应当考虑多维度的因素,一方面从个人信息保护体系和将信息信义义务作为企业社会责任等方面进行;另一方面构建算法透明度制度、算法备案制、算法伦理等规制算法的全方位监督体系。通过法律规制算法的实质是监管算法使用人(如算法型企业或平台)在网络交易或经营过程中如何规范与合理地使用算法。当前关于人工智能的研究,应回归学术理性,避免玄幻主义似的盲目跟风式。算法社会中算法消费者保护的核心与关键在于如何在个人信息保护、规制算法和算法企业发展之间寻求利益平衡点。

关键词

人工智能;法律行为;算法消费者;信息信义义务;算法规制;

On the relationship between algorithms and legal acts: Institutional influence and legal response

  • LIU Ying
School of Law, Tongji University, Shanghai 200092, P. R. China
Show more

Abstract

The development of big data and artificial intelligence has profoundly influenced the social life of human beings, changed our production and life style and led to a number of challenges for the law. We are moving from the internet society to the algorithmic society, with algorithms intervening in the overall private law field including contracts, torts, corporate governance, insurance contracts, and securities transactions in different forms and latitudes. In the algorithmic society of artificial intelligence, the group of algorithmic consumers formed. The premise for discussing how algorithms affect the effectiveness of legal acts is whether they affect person's intention manifestation. Algorithms are series of digital program logic constructed on the basis of natural language. Algorithms have a certain degree of learning ability, which can learn continuously and deeply through big data. However, it is neither learning in cognitive level nor human learning. The essence of algorithms is a kind of procedural Marble Maze Game based on Boolean algebra, which does not conform to the structure of intention manifestation in civil law. The intention manifestation made by the algorithmic system of automated decision-making is still an extension of human intention manifestation. Algorithm users form algorithm power based on big data and algorithm divide, which will affect the system of intention manifestation. Algorithm will not pose a fundamental challenge to the effectiveness system of legal acts, but it needs to be reinterpreted in the specific constitutive elements of mistake and fraud. When it comes to interpretation, a distinction needs to be made between different scenes where the user of algorithms is the actor or his counterpart in discussion. In the algorithmic society, consumers evolve to a new type of consumers: algorithmic consumers. In response to the inadequate algorithmic consumer protection in the existing private law framework, the mode of truly disclosure obligation in the Insurance Law should be adjusted, and the Consumer Law should reshape the rights and obligations between operators and consumers. In commercial and financial field, financial institutions using algorithms will have a higher duty of care. Multi-dimensional factors should be considered in algorithmic consumer protection. On the one hand, it is necessary to build a personal information protection system and take information fiduciary duty as corporate social responsibility. On the other hand, we should build the algorithmic transparency system, algorithmic audit system, algorithmic ethics and other comprehensive supervision systems to regulate algorithm. The essence of regulating algorithms through laws and rules is to regulate how algorithmic users (such as algorithmic businesses or platforms) use algorithms regularly and reasonably in the process of online transactions or operations. The present research on artificial intelligence should return to academic rationality and avoid blindly following the trend of fantastic jurisprudence. The core and key of algorithmic consumer protection in the algorithmic era lies in how to strike a balance between personal information protection, algorithm regulation and algorithmic enterprise development.

Keywords

artificial intelligence; legal act; algorithmic consumer; informational fiduciary duty; algorithmic regulation;



一、    问题的提出:人工智能时代的疑问

自2016年AlphaGo接连战胜人类围棋高手之后,全世界刮起了一阵“人工智能”风潮,人工智能(AI)在各个行业、产业和环节得以广泛运用。甚至有学者断言,大数据和人工智能的发展深刻地影响着我们的社会生活,改变了我们的生产和生活方式,也深刻地影响了社会的方方面面,我们已经进入人工智能的新时代[

1]。但是,人工智能时代也面临许多隐忧,例如在当今生活中层出不穷的“大数据杀熟”、网络评分数据抄袭、广告精准推荐、无人驾驶等新问题。目前人工智能处于何种阶段,值得思考。在探讨人工智能法律关系所产生的影响或面临的问题时,必须掌握人工智能的核心与本质。当前的人工智能本质是算法和数据,“数据+算法”被视为人工智能技术开发的核心[2],也有学者指出,人工智能是能使计算机学习、分析和决策的算法[3]。我们需要以算法为分析着力点回归到法律框架下进行讨论。

二、    算法在私法领域中的作用及其本质

(一)    私法领域下算法的应用

算法在当前网络环境下运用非常普遍,通常情况下,网络服务商等企业利用算法,为用户消费者提供“个人定制”交易。如网络服务商通过算法收集用户在脸书、推特、微博或知乎等社交媒体网站,或文本博客和其他在线购物网站上留下的网络浏览痕迹等数据来预测消费者的偏好,进行精准广告推送和个性化产品推荐,甚至实施诱导消费的行为。上述有的算法帮助消费者做出市场交易决策。也还有的算法可以自动识别需求,搜索最佳购买决策并执行交易[

4]。除上述的一般民事交易外,算法在商事领域也发挥着重要作用。

(1)算法逐渐参与公司决策管理过程。2014年5月,香港创投公司(DKV)任命了一套名为Vital的算法作为董事会成员,Vital会根据候选公司的财务状况、临床试验和知识产权等大量资料进行分析,并据此为公司提出投资建议[

5]。Vital被公认为“全球首家人工智能公司董事”,但严格说,Vital并没有获得香港公司法中公司董事的地位,公司的董事会成员将其简单地视为“具有观察员地位的董事会成员”[6]

(2)算法在保险领域逐渐盛行。2018年9月19日,美国历史最悠久的寿险公司之一约翰·汉考克(John Hancock)作出了根本性的改变:它停止提供按年龄、健康史、性别和就业历史等传统人口统计数据来定价的寿险,转而开始通过可穿戴医疗设备、智能手机应用程序和网站,根据与投保人的互动程度来定价[

7]。

(3)人工智能在金融法和证券法领域的创新。在商事金融交易行为中,从金融科技到科技金融的转变,体现出科技在金融交易中的主导地位。算法很早就开始介入金融交易行为,如荐股软件等智能投顾系统(Robo-Adviser)。目前智能投顾系统可以做到根据服务对象的特征或偏好,给出个性化的投资建议,但不进行交易;也可以为服务对象提供交易服务,包括完全自动交易、人工投资顾问协助交易和执行交易[

8]。又如,在证券市场电子化交易背景下出现了与一般程式化交易更为复杂的“算法交易(Algorithmic Trading)”,即在程序化交易的基础上,加入特殊的算法交易策略,该算法交易实际上是将交易经验、交易策略、对市场环境的适应等知识和智慧固化到算法交易程序之中,从而降低大单交易的市场冲击成本,在整个交易中获得最优的成交价格[9]。无论是智能投顾系统,还是证券交易中的算法交易,都可能存在被滥用或操纵的风险,此时需要界定算法在其中扮演何种角色。

基于此,算法已经在不同形式和不同程度地介入合同、侵权行为、公司治理、保险合同、证券交易等整个私法领域。算法不仅被网络服务商所利用,有时候也可能帮助消费者作出消费决策,甚至可以在消费者授权或设置参数和偏好的情况下通过算法程序直接进行交易。以上的线上行为在法律上表现为“算法合同”(Algorithmic Contracts),从而形成了算法消费者(Algorithmic Consumers)群体。可见,探究算法在私法领域中的功用十分重要。

(二)    回归算法的本原:弹珠迷宫游戏

人工智能的本质是算法和数据,算法是对数据的一系列程序逻辑,该程序逻辑建立在自然语言基础之上。自然语言是一种上下文相关的信息表达和传递方式,人工智能机器的运作是将自然语言用算法逻辑来实现,但并不是通过电脑模拟人脑。人工智能(计算机)的自然语言处理,是为自然语言这种上下文相关的特性建立数学模型,亦即统计语言模型,这是当今将人工智能广泛应用在机器翻译、语音识别、人脸识别、图像识别等领域的基础[

10]15-39。人工智能的应用并不是简单地模拟人脑,而是通过数学模型对自然语言进行处理,以算法的方式运行的程序。当今人工智能的成功也不是仿生学的成功,是依靠数学和算法的紧密运用而获取的成功。即使是当今所谓的“人工神经网络”和基于深度学习的Google大脑,也只是使用了一些与生物学相关的名词。除此之外,人工神经网络和人脑没有任何关系,本质上是一种有向图(贝叶斯网络),是基于数学模型的算法而已[10]254-271。算法的基础是基于布尔代数进行的,也就是0和1的二进制。布尔代数虽然非常简单,但它将逻辑和数学合二为一,开创了今天的数字化时代[10]82-88。因此,无论多复杂的算法,都能分解为三种逻辑运算:且、或、非。

算法具有一定的学习能力,可以通过大数据不断地进行深度学习,但算法学习会受大数据的影响。符合学派的算法可以得出确定答案,可以变成自主决策系统[

3]。算法的逻辑结构就是“且”“或”“非”。即使是自主决策系统,也只是在“且”“或”“非”三种逻辑结构中程式化、模块化地作出决定,就像弹珠迷宫游戏一样。弹珠之所以能够走出迷宫,是因为弹珠是在预设的各种程序(线路)中进行,算法就是弹珠迷宫游戏的规则(线路)。即使是被授予沙特公民的索菲亚也一样,其本质在于算法和数据的处理,只是其物理的外形表现为人形,但其仅仅是一个由算法主导的硬件系统,其工作的逻辑主要是通过传感器以及语音识别系统,将人类的自然语言以及外界的感知转换成机器语言传达到控制系统,控制系统通过高速计算处理,将信息传达到驱动系统,从而输出语言和特定的指令动作。算法并不是认知层面的学习,尤其不是指人类学习。相反,算法可以视为一种能在未来接收更多数据时调整行为以获得更佳表现的学习方式[11]。机器学习涉及许多以不同方式在代码中得以具象化的模型,当前盛行的机器学习包括神经网络、决策树、贝叶斯和逻辑回归等算法[12]。所谓算法中的自由意志,不过是算法的“目标是实现几乎最优概率决策”[13]297,现有的算法既不是完全确定也不是完全随机的。所以,“当今的AI系统绝对不是任何有意义的智能思维机器。相反,人工智能系统通常能够在没有智能的情况下产生有用的智能结果。这些系统在很大程度上通过启发式方法来实现这一目的,方法是检测数据中的模式,并使用人们专门编码的知识、规则和信息,将其编码为可以由计算机处理的形式”[14]

综上,算法与法律行为之间的关系,并非是算法系统自主作出法律行为。作为自动化决策的算法系统,此种意思表示仍是人类意思表示的延伸。因为在电子数据交换等所谓自动化意思的情形,表示信息虽经由计算机等工具发出,但因其程序系由表意人为特定目的而设计或设定,仍属表意人的意思表示[

15]。即使是无限强大的计算机,也仅仅是人类意志的延伸。因为每一种算法都是由表示方法、评估和优化三个部分组成,所有的人工智能系统都具备前三个组成部分。这些人工智能系统或者算法可以多样化作出内容和惊人的计划,但都仅仅服务于我们人类设定给他们的目标[16]

三、    算法与法律行为的制度影响

算法对私法领域中的法律行为造成深远影响,正如美国著名信息法权威巴尔金(Balkin)教授所说,当机器人和人工智能载体创造利益或造成他人损害时,法律的关键问题是如何在人类之间重新分配权利和义务[

17]。

(一)    算法与法律行为效力的新解

法律行为的效力受行为能力、意思表示、公序良俗与强制性规定三方面因素影响。在算法介入法律行为的场合,算法不能对当事人行为能力、行为内容是否违法悖俗造成任何影响,因为这些要素与行为人紧密相关。以智能合约为例,智能合约本质上并未超越传统法学范畴,实质上是依托新技术的电子合同,也受《中华人民共和国民法典》合同编(以下简称《民法典》合同编)调整[

18]。智能合约本质上是将算法视为自然人意思表示的延伸,作为自然人的要约或者承诺予以认定。因此,讨论算法如何影响法律行为效力的前提,关键在于算法是否会影响行为人的意思表示。算法并不具备意思表示和思考能力,故不存在意思表示故意不一致的情形,只需考察算法对于意思表示偶尔不一致和意思表示不自由领域的影响即可。

其一,在传统民法中的意思表示偶尔不一致主要是错误。错误制度既需要保护表意人意思表示自由,又要顾及相对人的信赖保护和保障交易安全等利益平衡问题。(1)算法的使用人作为表意人时,则须讨论算法错误是否构成意思表示中的错误,并如何进行归责?首先,算法错误构成意思表示的错误。复杂的计算机设备仅执行被给予的指令,这些指令仍由人发出,所以电子设备的“表示”仍可回溯到人的意思,基于电子设备所产生的错误,尤其是使用不正确的信息或软件时,一如人之大脑从事意思决定时的思考所生的错误[

19]。如布洛克斯所说,“当网络上错误的标价是由数据传递软件的瑕疵所导致时,同样存在表示错误。因为无论这个错误是由表意人打错字还是软件瑕疵所致,都没有区别”[20]250。退而言之,传达错误也属于意思表达错误,因为表意人为了传达其表示使用了某人(传达人)或者某机构,意思表示被“该人或者该机构不实传达”。表示的不实传达与表示错误以同样的方式处理,在表示不实传达的情况下,表意人使用了一个传达人或者机构作为表示工具,该工具的错误运行须归责于表意人[20]251。算法的运行只是构成表意人意思表示的传达设施(工具),并非表意人的代理人,效果上依旧可适用错误表达的内容。但是,此时作为算法使用人的表意人是否享有撤销权呢?在学说上,对关于表意人过失是否影响撤销权的行使问题有所争议,以网站标价错误的情形为例,有学者认为“出卖人为企业经营者,上网买者为消费者,出卖人内部决定标价过程稍加注意即可避免,竟然标错价格,显有重大过失,原则上自不允许撤销其要约之意思表示,盖其标错之出卖品,究为新成品或存货,消费者无从知悉”[21]。经营者咎由自取,不得行使撤销权。有学者建议改造重大误解制度,“电子商务合同中的重大误解应类型化为系统故障与人为错误,系统故障型重大误解认定中应倾向于以及时补救原则作为缓和的表示主义立场,而人为错误型重大误解认定中应倾向于严格的表示主义立场,限制错误方的撤销权,因为错误方的可归责性更强”[22]。但该观点存在两个问题:第一,无法区分“系统故障”和“人为错误”,在当事人通过算法缔结法律行为的场景下,算法是人为编写的一种程序性代码,实质上是人为控制的工具,此时算法错误是“系统故障”还是“人为错误”?第二,算法是技术性非常强的程序规则或数学模型,一般普通人无法读懂算法规则。因为对于普通人而言,算法的代码简直就是外星文字,是一系列符号的组合。(2)算法使用人为相对人时,则须讨论如果相对人通过算法的使用,诱使表意人(未使用算法的一方)陷于错误,是否影响表意人的撤销权的行使。有学者认为,“无论相对人对重大误解有无过错或有无诱因,均不影响重大误解的构成,不影响表意人行使撤销权”[23],在实证法上,《最高人民法院关于适用〈中华人民共和国民法典〉总则编若干问题的解释》第19条并未将相对人的因素作为重大误解认定的构成要件。

其二,在传统民法中,根据行为人干扰表意人的意思表示程度不同,可区分为意思表示胁迫和欺诈等制度,并设置了相应的构成要件。即使在消费者保护法领域(食品药品等领域除外)的退一赔三的惩罚性赔偿制度,其对于欺诈也严格按照传统民法的欺诈构成要件予以认定。但在算法介入的法律行为中,对于欺诈的认定是否仍需严格要件,需要进一步讨论。

其三,算法也可能对商事特别领域的欺诈有所影响,需要对保险欺诈中的权利义务重新配置。在人工智能场景中的保险领域,不同的算法在不同的保险场景中得以运用。例如,在保险精准营销场景有聚类(K-means)、分类(决策树算法或贝叶斯算法)和关联(关联规则算法)等三类算法的运用,协助保险人对投保人进行精准推送或营销;在反欺诈领域,保险人运用知识图谱、随机森林和规则引擎的复合模型对客户的个人信息、数据等进行分析。在英国保险业中的Brolly是一款私人保险助手,负责提供被保险人及保险公司之间的互动与档案管理,并将目前市面上的保险政策全部汇总到一起,对保险政策进行分析,从中选择出最适合用户的那款保险产品[

24]。当保险公司掌握了更多有关消费者的个人数据时,则保险公司逃避其合同义务的状况会进一步恶化(exacerbated)[25]。故而,保险科技公司将不同算法运用在不同保险场景中,改变了保险人和投保人之间的事实状态,致使保险法告知义务框架失衡。

(二)    算法与经营者告知义务(消费者知情权)的重塑

私法体系中的告知义务体系由《民法典》合同编通则编的附随义务、典型合同编中的特别告知义务,以及民事特别法上的告知义务,如《中华人民共和国消费者权益保护法》(以下简称《消费者权益保护法》)和《中华人民共和国电子商务法》(以下简称《电子商务法》)等组成。《民法典》合同编与民事特别法上的告知义务在告知内容和程度上有所区别,前者仅作一般规定,后者在内容和程度上要求更为具体或严格。

经营者告知义务和消费者知情权是消费者保护的一体两面。大数据杀熟本质上是价格歧视,其通过算法搜集消费者的行为偏好,加剧了消费者与经营者之间的信息不对称,故而加大了欺诈认定的难度。在算法介入法律行为的场景中,“服务和信息的个性化和针对性的提高可能会减少用户的选择,并妨碍他们找到他们认为有意义的信息以做出明智决定的能力。个人对这些技术做出明智决定的依赖性越大,他们做出真正选择的可能性就越小”[

26]。通过赋权解决信息不对称以保护消费者,是经营者和消费者之间权利义务平衡的主要考虑因素。为此,现行《消费者权益保护法》科以经营者告知义务和赋予消费者知情权。《消费者权益保护法》中第8条和第20条规定了经营者真实全面的信息披露义务,但告知义务的范围并非漫无边际,实际上采“实质性保护规则”[27],即“经营者披露可能影响消费者人身健康、安全或一定财产利益的全部重要信息”。根据请求权基础理论判断,《消费者权益保护法》第8条和第20条也不属于请求权基础规范。在现行框架下,消费者针对算法价格歧视的问题难以得到保护。由此引发的问题是,企业者和经营者通过算法的介入搜集个人网络痕迹等信息,增强了其信息优势地位并形成算法鸿沟,需要对经营者告知义务科以更高的义务标准。

(三)    算法与商事金融行为的革新

算法在商事金融中的智能投顾服务中扮演着工具的角色,本质上是人类意志的延伸。如何在现行法框架下对智能投顾系统的法律关系作出解释?有学者认为,“智能投资顾问服务是智能投顾运营者将智能投顾作为辅助工具向投资者提供投资顾问服务的合同法律关系。智能投顾运营者与研发者之间系委托开发合同,与投资者之间系委托合同”[

28]。那么,智能投顾系统是否可被赋予信义义务呢?算法只是行为人意思的延伸或传达工具,并非是具有法律资格的主体。一般受托人信义义务的基础在于能够成为受托人和代理人,而不考虑基础关系是信托关系,或者是代理关系,抑或是委任关系。据上分析,智能投顾系统不能成为受托人和代理人,也无法被赋予信义义务。此时,智能投资顾问是运营者(投资咨询机构)延伸出去开展业务的长臂,运营者及其内部智能投资顾问的监管者应当被识别为受托人,从而承担信义义务和合规义务[29]

但现行法应对智能投顾的措施比较滞后,在法律层面并未对此作出回应。目前涉及的规定唯有《关于加强对利用“荐股软件”从事证券投资咨询业务监管的暂行规定》(证监会公告〔2012〕40号)。该暂行规定将“荐股软件”界定为,“是指具备下列一项或多项证券投资咨询服务功能的软件产品、软件工具或者终端设备”。可见,智能投顾在我国现有规范中认定为“荐股软件”。该暂行规定要求利用“荐股软件”从事证券投资咨询业务的证券投资咨询机构应当遵守诚信原则,也必须遵守《中华人民共和国证券法》《证券、期货投资咨询管理暂行办法》《证券投资顾问业务暂行规定》(证监会公告〔2010〕27号)等法律法规和中国证监会的有关规定

。证监会在《证券投资顾问业务暂行规定》中规定了投资顾问服务机构的信义义务,负有“勤勉、审慎义务”和“忠实客户利益,不得损害客户利益”的义务。《全国法院民商事审判工作会议纪要》(法〔2019〕254号)中关于金融消费者权益保护纠纷案件的相关规则,主要对适当性义务规则(第72条)、法律适用规则(第73条)、举证责任分配倒置(第75条)和告知说明义务(第76条)等作出新规定。以上规则主要有两个问题:(1)上述规则仅在规范性文件中规定,性质上为部门监管文件,规则效力层级低;(2)上述规则均以普通消费者和金融消费者为区分视角进行监管,并没有从普通消费者和算法消费者角度重构权利义务规则。总之,在算法介入下的商事金融行为面临革新的局面。

四、    私法领域中法律行为制度对于算法的法律回应

(一)    消费者类型化的细分:从消费者向算法消费者演进

1.    私法框架下算法与法律行为法教义学阐释的不足

在人工智能场景中的算法等智能系统对于法律行为产生的影响:(1)线上网络等智能场景所形成的智能合同(Smart Contract)等是否为合同的形式;(2)如何从法律行为角度解释定价算法、应用生成合成类算法、个性化推送类算法、排序精选类算法等算法技术对法律行为效力产生影响。

对于影响一,《中华人民共和国民法典》(以下简称《民法典》)第135条规定了民事法律行为可以采用“书面形式”“口头形式”“其他形式”等三种方式。该条的“其他方式”为智能合同提供了解释空间,智能合同可以作为民事法律行为的方式之一。

对于影响二,民法典在法律行为效力制度中并无直接回应算法等智能系统影响的规范。笔者认为,算法在法律行为的错误制度中的影响,可以从错误制度的本质角度予以解释。例如,在算法使用人的表意人有过失情形,尤其是算法使用人为企业经营者时,对于重大误解的要件应当采取表意人过失情形作为消极要件,即算法使用人基于算法错误而陷于错误,此时表意人有过失时不可行使撤销权。其次,算法在运行过程中发生故障,还可从意思表示到达障碍制度予以解释。意思表示到达障碍理论认为,到达受阻的意思表示没有到达,但到达受阻可归责于受领人的除外[

30]。在交易过程中如果发生算法错误,并且受领人对于到达受阻并无可归责性,那么作为表意人的算法使用人应该对发生算法错误造成到达受阻承担风险,即意思表示没有到达受领人的风险。在欺诈认定上,行为人可通过算法对表意人的意思表示造成影响,甚至通过算法分析行为人的网络轨迹以窥探表意人的内心意思(购买意愿),对于行为人的欺诈认定也应当遵循民法上欺诈的要件,但可以在举证责任上进行降低要求甚至采取举证责任倒置的方式,只要算法行为人(使用人)有欺诈的行为即可推定构成欺诈,以保护算法消费者。例如,2019年5月欧盟发布2019/770号指令,针对电子数据和电子服务以及消费者买卖合同作出新规定,该规定除了规定适约性外,在其第12条明确规定了经营者承担举证责任的倒置。随着大数据和算法的深度发展,作为法律行为效果意思形成前提的信息获取变得相对容易,继而造成表意人和相对人在信息地位上的失衡,特别是拥有大数据且又拥有算法能力的大公司,将极大地左右意思自治的空间[31]。但此时并不会对传统民法上欺诈的构成要件造成根本性冲击,仅需在认定算法等人工智能载体是否构成欺诈时,在某个要件作特殊性处理即可。

即使可据此作出上述法教义学解释,却有种螺蛳壳里做道场之困境。在法律行为制度外投保人告知义务和商事金融行为等商事领域中,难以从既定私法框架下通过法教义学阐释和回应算法的影响。

2.    算法消费者作为消费者新类型的解决方案

随着科学技术和社会生活的发展,近代私法中民事主体的构建是从抽象人格逐渐到具象人格变迁的一个过程。现代民法中逐渐出现了劳动者、消费者等具象人格。一方面保持了原有民法的制度框架,另一方面通过特别法对具象人格予以规范和保护。基于算法对法律行为制度的影响,纯粹从法教义学角度阐释其影响及其变化,颇有削足适履之感。因此,在保持既定民法典下的基本制度结构,将算法消费者作为消费者的一种新类型[

32],并且从特别法中予以解释或建构可能是稳妥和合适的方案。

(1)保险法中告知义务模式的调整。为了解决投保人和保险人之间的信息不对称问题,保险法一方面为防止投保欺诈规定了投保人的告知义务;另一方面为防止引诱投保设定了保险人的说明义务。我国关于保险欺诈认定的主要规范为《中华人民共和国保险法》(以下简称《保险法》)第16条,该条基于最大诚信原则和对价平衡原则对投保人和保险人的权利义务在不同场景下进行了利益平衡,一方面为防止投保欺诈而科以投保人告知义务;另一方面为了保护投保人而限制了保险人的保险合同撤销权和解除权。投保人的告知义务内容是与保险标的有关的信息、情况,且限于重要事实,如人身保险中被保险人的健康情况、财产保险中保险标的的用途等[

33]。上述信息都是投保人经保险人询问后必须告知的;但在人工智能场景中,保险科技公司基于算法的介入,得以收集和分析投保人的数据,保险人只要通过住院记录、社保卡购买记录等数据的接入,甚至无需投保人主动告知,即可准确知晓被保险人的身体状况或者财产状况。保险人通过算法和大数据的利用,处于信息的绝对优势地位。即便存在投保人故意虚假告知,保险人也完全有能力识别该信息的真伪。有必要对《保险法》第16条中的告知义务模式予以调整,通过加重保险人的核查义务,降低投保人的如实告知义务,或者重新限制保险人的解除权。

(2)科以金融机构等算法金融平台更高的披露和信义义务。智能投顾作为算法的载体,其背后仍然是人类的活动或者协助人类的活动,本身并不独立实施行为。智能投顾的出现和运用并不免除人类在相关行业的作用,人类设计、建模、编程、实施和营销这些自动咨询系统,这些自动咨询系统在幕后协助客户与消费者的活动[

34]。面对互联网金融与科技的深度融合,互联网金融借助大数据、算法等科技手段使互联网金融科技变得更加复杂,在形态上向智能金融转变。智能金融给人中立的感觉,算法科学的外表容易误导投资者,使其作出错误的决策,导致投资者保护问题更加突出[29]。金融科技为消费者带来便利的同时,也可能面临算法不完备的风险,即“算法有效性风险、透明度风险的出现,使得技术不对称成为金融市场上信息不对称的重要肇因”[35]。据此,有学者建议应当从金融消费者权益保护角度“增加科技信息披露的内容和规定互联网金融机构承担‘获得最低科技标准的义务’”[36]

算法消费者与金融消费者有显著差异,金融消费者是在金融领域缺乏专业知识的消费者,本质上依旧属于传统消费者范畴;但算法消费者不同,其在行为方式等各方面与传统消费者有着显著区别,如其受大数据和算法支配,或被算法剥削;算法消费者既有可能是一般消费者,也有可能是金融消费者。他们在算法剥削的环境下所面临的境况一样。算法消费者作为弱势一方,即“数据、信息、技术弱势的一方,将在貌似意思自治的情况下,甚至可能是在受到人工智能信息引诱的情况下作出貌似合理,但实际上并不合理的自我判断,进而极大地限制当事人意思自治的空间”[

31]。同时,算法存在算法黑箱的弊端,算法消费者无法知道其运行内核,由此加剧了双方的信息不对称,也固化了使用算法的金融机构的权力结构。利益冲突才是智能投顾系统需要被认真关注的[37]。为防止算法控制者利用个人信息(数据)谋取不正当的利益,损害个人的权益,我们需要打开数据处理过程的“黑箱”,披露包括个人数据的处理目的以及处理的法理基础、相关的个人数据种类、个人数据接收方或者接受方的种类,算法自动决策机制(包括数据画像及有关的逻辑程序和有意义的信息)以及此类处理对数据主体的意义和预期影响。金融机构消费者权益保护制度中需要对算法消费者赋予更高的保护标准,科以金融机构算法组织更高的披露义务和信义义务。

(3)以算法告知义务重构算法消费者知情权。现代经济是基于数据驱动的市场,提高了消费者理解商业实践的难度。欧洲消费者组织(BEUC)建议应当重构消费者的知情权(a right to information),这项知情权的范围既包括有关自动化决策发生的过程及其自动化决定的工作原理(例如信息的过滤和显示方式)的透明性,也应该包括有权了解算法系统的功能、重要性、后果,以及在自动化(算法)决策对消费者的生活产生重大影响的情况下,消费者应该有权反对算法决策并有权人为干预。这项权利应该适用于所有用于自动化决策的数据保护情形,而非仅限于个人数据处理的情形[

38]。在算法的告知义务方面,需要赋予消费者对于算法决策等各类信息的知情权,并推进消费者知情权向算法消费者个性化知情权延伸[39]

(二)    算法消费者保护体系的构建

1.    算法消费者个人信息的保护

在线上消费的电子商务活动中,被人诟病的“大数据杀熟”等算法歧视问题是当前关注的热点问题。如何消除算法歧视带来的不公平现象,需要从算法歧视的本质着手。有学者指出,算法歧视本质上就是信息问题,算法过程信息方式中的偏见是算法歧视的主要类型之一,即模型自身的偏差或者分类偏差[

40]。算法消费者的个人信息保护问题尤为重要。

为回应消费者的个人信息保护问题,2013年10月第十二届全国人民代表大会常务委员会第五次会议对《消费者权益保护法》作出修改,新增“个人信息保护”条款(《消费者权益保护法》第29条)。该条确立了经营者收集使用消费者个人信息应当遵循“合法、正当、必要”三项原则,明示收集、使用信息的目的,以及规范经营者向消费者推送商业性信息的做法,构建了消费者个人信息保护的基本框架。《电子商务法》第23条对电子商务经营者收集、使用个人信息作了比较笼统的指引性和宣示性规定(“应当遵守法律、行政法规有关个人信息的规定”)。第18条就电子商务经营者应提供不针对个人选项的推送结果作了规定。《民法典》第1035条奠定了自然人个人信息保护的基本规制,在“合法、正当、必要”三原则外增加了“不得过度处理”的规定。从体系解释看,《民法典》作为基本法,《消费者权益保护法》第29条对于算法消费者个人信息保护的理解也应当与基本法保持一致,并且基于新法优于旧法原则,关于算法消费者个人信息保护规则也应当与《民法典》第1035条作一致解释。

《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)为数字社会治理与数字经济发展构建了“基本法”[

41]。该法第13-19条规定了个人信息处理者方可处理个人信息的基本框架,全面细化了个人信息处理应当遵循“合法、正当、必要”三原则。此外,在《个人信息保护法》第24条就算法介入收集分析和使用个人信息的规则作了特别规定,构建了算法消费者针对个性化推送的“拒绝权”和进入自动化决策的“拒绝权”。此两项针对算法消费者“拒绝权”的赋权具有重大意义,因为在算法介入线上消费的场景中,消费者向算法消费者的演进一开始就是被动卷入其中的。从“赋权”具体内容上,消费者应当具有个人信息不被纳入算法考量的权利,商家用于决策的数据来源往往违背消费者意愿(如故意设置繁复的隐私政策),甚至是在消费者不知情的情况下抓取并使用[42]。因此,《个人信息保护法》赋予算法消费者个性化推送的拒绝权和进入自动化决策的拒绝权[32],实质是赋予算法消费者自主选择权。

2.    信息信义义务的确立

除了对算法消费者的个人信息给予保护外,仍需考虑算法消费者的个人信息在流通中的保护问题,如算法消费者的个人信息经过处理后形成数据,此类数据进入共享与流通领域似乎披着合法的外衣。如何在数据流通领域保护算法消费者也将成为重要的问题。

在实践中,平台企业通过搜集、分析和建立起算法消费者个人画像、浏览痕迹等数据,这些数据的滥用可能对算法消费者造成影响。例如,算法消费者在某个浏览器搜索了相关商品,随后算法消费者在其他网站上被精准推荐类似的商品。尽管技术层面表现为个性化算法推荐,但此类行为的实质是平台企业之间对算法消费者的数据进行共享。消费者的个人信息被不适当地获取或向第三方披露的风险增加。有害数据泄漏通常发生在两种情况下:第一种是数据拥有实体故意分享个人信息的方式不足以保护个人隐私的情况;第二种情况是拥有数据的实体未能执行充分的保障措施,而第三方能够取得它们储存的(stockpiled)资料[

25]。规制数据拥有服务商恣意共享算法消费者数据和数据妥善保管义务成为一个不可避免的问题,信息信义义务有助于解决数据流通和共享的问题。

信息信义义务由耶鲁大学信息法权威巴尔金(Balkin)教授提出,他认为许多网络服务商以及收集、分析、使用、买卖和分配个人信息的云计算公司应视作顾客和用户的信息受托人[

43]。信息信义义务确立的主要原因在于网络服务商和云计算公司对个人信息占有强势地位,以及他们与顾客和用户之间的特殊关系[44]。网络用户(算法消费者)基于对服务提供商的信任,点击“同意”进行个人信息处理的授权,作为信息受托人的服务提供商有义务保护那些被收集信息的算法消费者免受侵害或不公平损害。信息信义义务受托人不能诱使终端用户(算法消费者)信任他们以获取个人信息,然后以背叛这种信任的方式使用这种信息,这不利于终端用户(算法消费者)的利益[45]。信息信义义务的主要内涵不在于保护用户隐私,而在于不利用用户隐私损害用户利益[46]。信息信义义务的核心是在数据流通和算法消费者保护中寻求一种平衡,通过信义义务的标准检视算法控制者的行为[47],目的不在于禁止数据共享和流通,而是防止平台等服务提供商滥用算法消费者隐私或数据,从而损害消费者利益。

在实证法上,《中华人民共和国公司法》(2023年修订,以下简称《公司法》)第20条规定了公司承担社会责任的义务,即“公司从事经营活动,应当充分考虑公司职工、消费者等利益相关者的利益以及生态环境保护等社会公共利益,承担社会责任”。在算法社会中,传统公司的模式逐渐走向算法大数据融合的信息科技公司,其通过算法收集、分析消费者数据,并以此进行投资决策或精准营销,甚至基于算法优势和高度市场份额形成“算法权力”。算法主导下的信息科技公司社会责任的内涵和外延也将发生变化,个人信息保护将成为此类企业社会责任的重点领域。因此,可将信息信义义务作为信息科技公司(算法主导下的企业)社会责任范围。

(三)    通过法律的算法规制

近年来,如何不让算法“算计”消费者,以及加强网络消费领域的算法规制等问题已经成了全社会的呼声[

48]。在算法社会中,规制的核心问题不是算法,而是使用算法的人及允许自己被算法支配的人[45]。通过法律规制算法的实质,是监管算法使用人(如算法型企业或平台)在网络交易或经营过程中如何规范与合理地使用算法。有不少学者提出,基于算法具有可解释性,应将算法解释权作为算法规制的一种重要措施。但算法是否具有可解释性有待商榷。即便通过科以算法型企业算法解释权,要求其将算法数据、算法逻辑和算法原理对用户进行解释,此种做法实现的效果也有待研究。计算机程序通常比数学模型、逻辑符号或自然语言更难让人类阅读和理解,并且算法和数据已经成为信息科技公司最重要的资产之一,甚至可能构成公司的商业秘密。算法解释不仅徒劳无功,还可能有泄漏企业机密的风险。故而,算法规制应当从算法透明度制度、算法备案制,以及企业社会责任中的算法伦理责任等方面予以考虑。

首先,算法透明度制度的构建。算法透明度(Algorithmic Transparency)制度的构建,是在算法代码不完全公开的情况下,如何评估算法所包含的政策判断、实用性、公平性等价值问题[

49]。算法透明度与算法可解释性的区别在于,前者解决的是算法控制者的告知义务,即公布开发算法的目的、管理数据所有权的合同条款,以及访问、验证和后续计划等内容;但算法可解释性致力于将算法过程向用户进行逐步阐明。算法透明度制度的构建,首先应明确算法透明度的标准,其实算法透明度不需要完全透明,即完全了解算法的操作规则、创建和验证过程,只需要一种较低标准的义务。较低的标准具体是指许可算法的利益相关者能够介入算法本身,干预算法或算法的使用和执行,并保证算法生成的过程是负责任的。此种较低标准即为“有意义的透明度(meaningful transparency)”[49]。回归到我国法,现行法律法规并无直接规制算法的法律规范。在《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)第16条、第17条第3款明确了我国的算法透明度制度,该制度也采取的是“有意义的透明度”标准,即以适当方式公示算法推荐服务的基本原理、目的意图、运行机制。

其次,算法备案制的构建。与算法透明度向公众履行告知义务的功能不同,算法备案制解决的是在不完全公开算法程序的情况下,既可以保障算法控制者(服务者)的算法程序秘密,又可以达到行政监管的目的。算法备案制的目的是通过算法控制者向行政机关进行算法程序信息(如服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息)的备案,便于互联网主管部门监督。《算法推荐管理规定》第24条、第33条分别确立了算法备案制及其违规后果的行政责任承担。

最后,算法伦理作为企业社会责任的新内涵。企业社会责任诞生的时代背景,主要源于20世纪经济的持续发展导致生态环境不断恶化、社会矛盾加剧和频发。各国公司法要求公司在追逐利益最大化时应承担相应的社会责任,我国《公司法》第20条也作了相应的规定。但随着信息科技公司普遍使用算法和大数据,改变了传统公司的商业模式和能力,在市场竞争中容易形成算法合谋的垄断市场,滥用算法和大数据侵害消费者的事件时有发生。传统意义上的企业社会责任已经无法满足当前社会的需要,算法社会中的企业社会责任需将算法规制纳入其中,形成以算法伦理为原则的数字社会责任[

50]。例如,《算法推荐管理规定》第4条规定,“算法推荐服务提供者提供算法推荐服务,应当遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则”。从解释学意义上理解,该条将《公司法》第20条所规定的公司社会责任的内涵向新的阶段发展,即作为算法控制者的公司不仅必须遵守法律、行政法规,遵守社会公德、商业道德,诚实守信并承担社会责任,同时应当遵循公正公平、公开透明、科学合理的算法伦理原则。

结语:人工智能的冷思考

当前,人工智能已成为学术界,乃至全世界关注的热点。但是,人工智能的法学研究不是玄学,更不是科幻主义。法学研究应该避免盲目跟风,走出对AI的货物崇拜,回归学术研究的理性轨道[

51]。所以,对于人工智能的讨论需要回归其本原,即算法和大数据;对于人工智能讨论的范式也需要回归到法律制度框架下进行,并不能天马行空地进行“法律假象”,甚至是“臆想”。毕竟“最好的人工智能也无法与普通的4岁小孩匹敌”[13]275,算法只是一种程式性的计算活动,当前的人工智能算法并不能形成有效的意思表示,我们基本可以推导出,当前人工智能的算法在私法领域的运用,仅限于成为人类意思表示延伸的工具。但是,算法使用者基于大数据和算法的使用形成了算法权力,这将对意思表示产生一定影响。例如,算法通过搜集用户的网络浏览记录(痕迹)从而判断用户意思表示中的内心意思和交易意思,在此基础上获得优势地位。此时,算法不会对法律行为效力造成根本性挑战,可以通过错误、欺诈等制度中的具体构成要件进行重新解释;经营者利用算法进行交易时,《消费者权益保法》可重塑经营者与算法消费者之间的权利义务;在商事金融领域,利用算法的金融机构将被赋予更高的注意义务。在算法社会中,一方面需在个人层面完善算法消费者的个人信息保护制度,另一方面在平台企业层面利用算法提高经营能力并进行合理规制。如何寻求算法消费者的个人信息保护和规制平台算法之间的平衡点,是算法社会中的一项重要课题。


《关于加强对利用“荐股软件”从事证券投资咨询业务监管的暂行规定》(证监会公告〔2012〕40号)第3条、第4条规定。

《证券投资顾问业务暂行规定》(证监会公告〔2010〕27号)第4条、第5条规定。

第16条,算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。

第17条第3款,算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任。

参考文献:

[1]

王利明. 人工智能时代提出的法学新课题[J]. 中国法律评论, 2018(2): 1-4.

[2]

王利明. 人工智能时代对民法学的新挑战[J]. 东方法学, 2018(3): 4-9.

[3]

郑戈. 算法的法律与法律的算法[J]. 中国法律评论, 2018(2): 66-85.

[4]

MICHAL G, NIVA ELKIN-K. Algorithm Consumer[J]. Harvard Journal of Law & Technology, 2017(2): 314.

[5]

尤瓦尔·赫拉利. 未来简史[M]. 林俊宏,译. 北京: 中信出版社, 2017: 290.

[6]

FLORIAN M. Robots in the boardroom: Artificial intelligence and corporate law[C]//WOODROW B, UGO P. Research handbook on the law of artificial intelligence. Edward Elgar Publishing, 2018: 650.

[7]

SWEDLOFF R. Algorithms and AI are radically changing insurance. Regulators are behind the curve[EB/OL]. (2019-06-05) [2020-07-22]. https://promarket.org/algorithms-and-ai-are-radically-changing-insurance-regulators-are-behind-the-curve/.

[8]

姜海燕, 吴长凤. 智能投顾的发展现状及监管建议[J]. 证券市场导报, 2016(12): 4-10.

[9]

夏中宝. 算法交易对虚假申报操纵法律认定逻辑的新挑战[J]. 证券市场导报, 2017(10): 61-70.

[10]

吴军. 数学之美[M]. 北京: 人民邮电出版社, 2014.

[11]

SURDEN H. Machine learning and law[J]. Washington Law Review, 2014(1): 94.

[12]

BURRELL J. How the machine “thinks”: Understanding opacity in machine learning algorithms[J]. Big Data & Society, 2016, 3(1): 46.

[13]

约翰·布罗克曼. AI的25种可能[M]. 王佳音,译. 浙江: 浙江人民出版社, 2019.

[14]

SURDEN H. Artificial intelligence and law: An overview[J]. Georgia State University Law Review, 2019(2): 1308.

[15]

梁慧星. 民法总论[M]. 北京: 法律出版社, 2017: 176.

[16]

佩德罗·多明戈斯. 终极算法[M]. 黄芳萍,译. 北京: 中信出版社, 2017: 361-362.

[17]

BALKIN J. The path of robotics law[J]. California Law Review Circuit, 2015, 6: 46.

[18]

赵磊, 孙琦. 私法体系视角下的智能合约[J]. 经贸法律评论, 2019(3): 16-32.

[19]

黄立. 民法总则[M]. 北京: 中国政法大学出版社, 2002: 238-239.

[20]

汉斯·布洛克斯, 沃尔夫·迪特里希·瓦尔克. 德国民法总论[M]. 张艳,译. 北京: 中国人民大学出版社, 2012.

[21]

林诚二. 民法总则新解:体系化解说(下)[M]. 台北: 瑞兴图书股份有限公司, 2012: 119.

[22]

李伟伟. 电子商务合同中的重大误解:以网络标价错误为例[J]. 财经法学, 2019(2): 144-160.

[23]

李宇. 民法总则要义:规范释论与判解集注[M]. 北京: 法律出版社, 2017: 547.

[24]

CAREY S, MEET B. The UK insurtech startup using AI to ‘fundamentally change’ the insurance industry[EB/OL]. (2017-02-14) [2021-09-10]. https://www.computerworld.com/article/3557928/meet-brolly-the-uk-insurtech-startup-using-ai-to-fundamentally-change-the-insurance-industry.html.

[25]

HELVESTON N. Consumer protection in the age of big data[J]. Washington University Law Review, 2016(4): 859.

[26]

BEUC. “Automated Decision Making and Artificial Intelligence- a Consumer Perspective”[EB/OL]. (2018-06-02) [2020-07-18]. https://www.beuc.eu/publications/beuc-x-2018-058_automated_decision_making_and_artificial_intelligence.pdf.

[27]

刘颖. 经营者沉默欺诈认定的矫正与回归:基于裁判分歧的分析和展开[J]. 华东政法大学学报, 2020(5): 175-192.

[28]

王灏. 智能投资顾问服务之法律风险承担[J]. 暨南学报(哲学社会科学版), 2019(8): 27-38.

[29]

高丝敏. 智能投资顾问模式中的主体识别和义务设定[J]. 法学研究, 2018(5): 40-57.

[30]

维尔纳·弗卢梅. 法律行为论[M]. 迟颖,译. 北京: 法律出版社, 2013: 278-279.

[31]

周江洪. 新模糊民法学时代的正在到来[N]. 法治周末, 2019-07-04(12).

[32]

刘颖. 数字社会中算法消费者的个人信息保护体系构建[J]. 广东社会科学, 2022(1): 238-249.

[33]

温世扬. 保险法[M]. 北京: 法律出版社, 2016: 101.

[34]

TOM B, DELLAERT B. Regulating robo advice across the financial services industry[J]. Iowa Law Review, 2018(2): 715.

[35]

黄博文. 算法不完备性及其治理:以互联网金融消费者保护为中心[J]. 西南金融, 2018(8): 49-56.

[36]

曾威. 互联网金融科技信息披露制度的构建[J]. 法商研究, 2019(5): 79-90.

[37]

MEGAN J. Are Robots Good Fiduciaries[J]. Columbia Law Review, 2017(117): 1583.

[38]

BEUC. “AI rights for consumers”[EB/OL]. (2019-10-23) [2020-07-18]. https://www.beuc.eu/publications/beuc-x-2019-063_ai_rights_for_consumers.pdf.

[39]

刘颖. 迈向数字时代的消费者法:算法消费者的赋权理论及其体系建构[J]. 社会科学, 2024(7): 180-192.

[40]

IGNACIO C. Algorithmic discrimination is an information problem[J]. Hastings Law Journal, 2019(6): 1389.

[41]

丁晓东. 个人信息保护法:为数字社会治理与数字经济发展构建基本法.[EB/OL]. (2021-08-25) [2021-09-10]. http://www.cac.gov.cn/2021-08/25/c_1631491548474109.htm.

[42]

赵海乐. 当权利面对市场:算法价格歧视的法律规制研究[J]. 华中科技大学学报(社会科学版), 2020(3): 99-106.

[43]

BALKIN J. Information fiduciaries and the first amendment[J]. UC Davis School of Law Review, 2016(49): 1183.

[44]

邢会强. 数据控制者的信义义务理论质疑[J]. 法制与社会发展, 2021, 27(04): 143-158.

[45]

杰克·巴尔金. 算法社会中的三大法则[J]. 刘颖, 陈瑶瑶,译. 法治现代化研究, 2021(2): 185-200.

[46]

唐林垚. 人工智能时代的算法规制:责任分层与义务合规[J]. 现代法学, 2020(1): 194-209.

[47]

刘颖, 王佳伟. 算法规制的私法进路[J]. 上海大学学报(社会科学版), 2021(6): 12-32.

[48]

吴学安. 别滥用算法“算计”消费者[N]. 中国消费者报, 2021-01-12(1).

[49]

BRAUNEIS R, GOODMAN E. Algorithmic transparency for the smart city[J]. Yale Journal of Law & Technology, 2018(1): 103.

[50]

刘颖. 数字经济中算法消费者的生成机理、保护方案与制度建构[J]. 深圳大学学报(人文社会科学版), 2023(2): 112-122.

[51]

刘艳红. 人工智能法学研究的反智化批判[J]. 东方法学, 2019(5): 119-126.

目录