2024, 30(4):144-156.DOI: 10.11835/j.issn.1008-5831.pj.2024.06.002
摘要:新质生产力作为生产力发展的质变形态, 体现了人工智能、大数据、云计算等新一代信息技术对传统生产方式和生产关系的根本性变革。人工智能对生产力的质性重塑集中体现在劳动者、劳动资料和劳动对象三大生产力要素上, 即强化劳动者的劳动能力, 引领劳动资料智能化与数字化革新, 拓展劳动对象的范围和边界。作为新一轮产业变革的核心驱动力, 人工智能从微观、中观、宏观三个层面促进新质生产力的形成。在企业微观层面, 人工智能通过劳动要素替代效应推动劳动力需求向高技能的脑力化转换、人机交互模式的生产协同性赋能企业智能制造水平的高效能跃升、自动化生产的智能运转促进资源配置效率优化等路径实现企业生产要素配置的智能化形塑; 在产业中观层面, 人工智能促进传统产业数实深度融合、赋能数字化战略性新兴产业实现乘数增长、规模化应用重构智能产业链和创新链等途径促进产业转型升级, 实现产业结构的智能化进阶; 在国家宏观层面, 人工智能技术的加速发展与应用赋能国家治理体系建设, 推动社会治理精准化、政府决策科学化、公共服务高效化, 形成了一种与新质生产力相适应的新型生产关系, 实现国家治理的智能化转型。在生成式人工智能技术进化加速的新形势下, 我国应进一步加快推动人工智能驱动新质生产力形成。一是坚持科技自主创新, 以人工智能优化生产要素。健全人工智能人才培养机制, 培育高技能水平的新型劳动者; 提升人工智能场景创新能力, 促进科技创新成果广泛应用; 加快人工智能关键技术攻关, 充分激活数据要素乘数效应潜能。二是加速推进产业数实深度融合, 以人工智能大力推进现代化产业体系建设。推动传统产业智能化改造, 实现基础设施连接能力迭代; 培育壮大战略性新兴产业, 构建人工智能的产业生态圈; 探索先行先试改革, 前瞻布局未来产业。三是建立健全人工智能治理体系, 助力国家创新体系建设提质增效。以数字政府建设驱动国家治理的智能化转型; 以智能赋能推动市场经济体系提质增效; 以智能化发展提升国家创新体系效能。
2024, 30(2):182-194.DOI: 10.11835/j.issn.1008-5831.fx.2023.10.003
摘要:算法驱动型虚拟数字人作为生成式人工智能的典型代表,能够在基于元数据投喂的基础上,通过对海量大数据(文本、图片、音频、视频等)自主解析与人类进行多维交互。搭载ChatGPT技术的虚拟数字人,将实现算法驱动+真人建模/虚拟形象相结合的3D场景化应用。其输出内容(人工智能生成物)包括音乐、舞蹈、文本等多种形式。算法驱动型虚拟数字人因具备交互性、数字化、拟人化、独特性四大特征,随之产生了虚拟数字人本身的权利保护和因其交互性而生成相关内容的权属划定等争议问题。第一类是算法驱动型虚拟数字人在研发之初,预训练数据采集和优化训练数据过程中对享有数据权利的主体造成的损害;第二类则是算法驱动型虚拟数字人自身或者对其享有财产权益的研发主体可能遭受的侵权。具体又可以分为由算法驱动型虚拟数字人自主产生的具有独创性内容的生成物所可能面临的权属争议和算法驱动型虚拟数字人基于不同的创作模式下产生的不同权属划归两种情形。运营公司单方创作的情形下,算法驱动型虚拟数字人的权益应划归运营公司,但如果用户也参与到虚拟数字人的创作过程中,又可以细分为“材料主义”“创作主义”与“合作主义”三种形式,分别对应着平台所有、用户所有和共有三种归属主体。现阶段,虚拟数字人作为一种数字化工具,并不具备拥有人格利益前提的人格尊严,因此不宜认定其具有独立人格,享有人格利益。通过对虚拟数字人各部分进行解构的方式,如肖像、名称、声音以及名誉所产生的利益主要采取“财产说”进行保护,而对虚拟数字人的名誉则通常采用“同一说”予以救济。另外,智能型虚拟数字人生成物可版权性问题本质上是基于深度学习技术的人工智能生成物的可版权性问题,学界存在将其是否纳入公共领域的争议。我国在生成式人工智能发展过程中可考虑探索人工智能统一立法的方式。具体而言,一是通过增强生成式人工智能服务提供者的大型基础设施服务义务来平衡其和政府之间的监管义务分配责任,二是从鼓励发展的角度建构起生成式人工智能服务提供者元数据采集的适度豁免规则,三是明确现阶段人工智能生成物不宜直接进入公共领域,其权属划分以服务提供者与使用者的约定为主。
2024, 30(3):242-252.DOI: 10.11835/j.issn.1008-5831.fx.2019.12.007
摘要:人工智能是否能与人类一样具有刑法主体性地位无法在刑法理论内部找到答案,而需要以相关的认知科学为基础,否则就会陷入循环论证的困境。根据认知科学的五个层级理论,人工智能在神经层级、心理层级的低阶认知层面,仅是对人类认知的简单模拟;在作为高阶认知与低阶认知中间环节的语言层级认知层面,人工智能的人工语言与人类自然语言之间具有本质的区别;在思维层级、文化层级的高阶认知层面,当前的人工智能并没有显现出其具有思维或产生文化的能力。结合塞尔中文房间模型研判,人工智能并不具备刑法意义的辨认能力与控制能力。在辨认能力方面,人工智能传感器对客观世界的识别虽然能在一定程度上对人类认知进行形式模拟,但其并不能将识别到的信息与自身行为结合进行加工处理从而得出该行为的社会意义;在控制能力方面,人工智能所展示出的控制能力实质上是一种执行算法的能力,其本质上仍然是一种人类控制,而非人工智能的自我控制。因此,在当下及可预见的未来,人工智能并不具有刑法主体性,进而承担刑事责任,当前的刑法理论也不必对所谓的强人工智能过度反应。将类人的人工智能提升到人类同等高度,有损人之所以为人的尊严。将删除数据、修改程序、永久销毁等与刑罚异质的要素纳入刑法会让其有适用于人类的危险。故在当下及可预见的未来,人工智能对刑法理论的影响主要在于其导致传统社会风险加剧,刑法理论的应对模式仍应当在现有刑法理论体系内,结合风险刑法理论将其作为犯罪对象和犯罪工具对待。当人工智能作为犯罪对象时,其是以财物、作品等形式存在,在司法认定过程中要注意界分人工智能本身与人工智能的载体;当其作为犯罪工具时,会导致犯罪后果扩大,查证难度增大等结果。
2023, 29(4):101-114.DOI: 10.11835/j.issn.1008-5831.pj.2023.05.002
摘要:学术成果评价作为科研项目评审、人才评价、期刊评价、机构评价等活动的基础,是学术评价体系的重中之重,也是科研管理的关键环节之一。当前,我国学术成果评价模式存在同行评议黑箱引文动机模糊评价数据间接且片面等弊端,阻碍了学术创新,也与当下建构自主知识体系的战略相悖。而近年来人工智能等技术在数据、算法、算力上的突破性发展,特别是判别式模型和生成式模型在机器翻译、文本分类、文本摘要、情感分析、问答系统等领域日益成熟的应用,为传统学术成果评价模式的革新带来契机,为实现更加科学、多元与智能的学术成果评价提供了充分可能。基于对现有学术成果评价模式不足与人工智能应用契合度的分析,文章提出学术成果评价新模式——自然评价。自然评价模式是人工智能与学术成果评价的深度融合,既是对以往同行评议、文献计量、网络计量、替代计量等传统评价模式的批判性继承与发展,也是一种突破与革新。具体而言,自然评价是基于学术共同体在各种学术活动中自然产生的全量化的学术痕迹大数据,将人工智能技术应用于学术成果知识内容和学术共同体学术痕迹数据的语义理解与自动分析中,从而动态形成评价判断,并服务于知识创新与学术进步的一种评价模式。因其评价过程以自然形成为主、人为干预很少,故而命名为自然评价。文章从学理层面探讨了人工智能驱动下自然评价的技术逻辑、价值遵循与未来展望。就技术逻辑而言,自然评价以各类学术活动中的自然产生的痕迹数据为基础,通过算法支撑智能抽取数据中的语义并生成评价判断,通过算力赋能提升评价的精准度和效率。就价值遵循而言,自然评价秉持质量为先、公正为基、全面为要的价值原则,力求突围数字规训陷阱,破除人情主导桎梏,克服片面评价束缚。就未来展望而言,自然评价展现出顺应开放科学时代趋势,优化学术创新生态环境,促进自主知识体系建构的图景。最后,尽管本文已从学理层面系统探讨了人工智能驱动下自然评价的技术逻辑、价值遵循和未来展望,论述了其在理论上可以呈现出更科学的评价结果,但其中更为具体的人工智能技术实现机制、学术共同体评价激励机制、人机关系协调机制、不同主体评价赋权机制等难点,还有待在未来进一步展开研究。
2023, 29(5):101-110.DOI: 10.11835/j.issn.1008-5831.pj.2023.08.006
摘要:意识形态风险防范是事关民族复兴、国家主权、文化建设的核心范畴。在当今人工智能技术蓬勃发展的数字时代,以ChatGPT为代表的生成式人工智能技术内嵌渗透到社会生活领域之中,伴随着交互深度与辐射范围的不断扩展,裹挟了众多具有新特点的意识形态风险。清晰明辨ChatGPT等生成式人工智能产生意识形态风险的内在机理是防范生成式人工智能意识形态风险的前提。ChatGPT等生成式人工智能凭借内容生成的首要功能对意识形态的价值观念层进行渗透;依靠交互对话的产品形态对意识形态的话语方式产生影响;利用多维应用的功能属性对社会生活实践领域展开强势介入,促使当下意识形态斗争态势风云诡谲,变化万千。理性审视和精准识别ChatGPT等生成式人工智能所诱发的意识形态风险是防范生成式人工智能意识形态风险的关键。从意识形态引领角度出发,ChatGPT等生成式人工智能的运行机制深蕴的资本逻辑解构社会成员已形成的认知和价值,借由技术-资本双重优势导致意识形态面临引领乏力风险;从意识形态话语维度审视,ChatGPT等生成式人工智能带来的人机协同话语生产新模式削弱主流意识形态话语深度,多元的生成式话语输送淡化话语权威,导致意识形态话语减蚀风险;从意识形态管理层面反思,ChatGPT等生成式人工智能引发的信息传播新范式消解意识形态管理的主导权,及其对人的强化宰制,导致意识形态管理弱化风险。ChatGPT等生成式人工智能在掌握先进技术基础上诱发了一系列辐射广泛、渗透全面、不易掌控的意识形态风险。如何防范与化解ChatGPT等生成式人工智能所带来的意识形态风险,成为当前我国意识形态建设无法回避的新课题。首先,贯彻落实人民至上的价值理念,以马克思主义理论指导意识形态防范工作,推进打造人机和谐、风清气正的网络空间;其次,打造富有中国特色的话语途径,在讲好中国故事的话语基础上破解西方话语的现代困境;最后,积极倡导全球治理并贡献中国方案,以共商共建共享的发展原则,依托人类命运共同体构建负责任的人工智能格局,促使ChatGPT等生成式人工智能在现代文明面前彰显光明的未来前景。
2023, 29(2):111-123.DOI: 10.11835/j.issn.1008-5831.zs.2022.01.001
摘要:2021年元宇宙横空出世,成为资本市场的兴奋剂、学界热议的聚焦点。然而对于如何定义元宇宙却是众说纷纭,本研究在厘清元宇宙运作机理与吸收前人研究经验的基础上将元宇宙定义为:以互联网、人工智能、区块链技术为支撑,通过信息通信技术和智能设备把虚拟世界与现实世界耦合一体,依据自己的主观想象建构和再造的一个虚实融通的现实镜像世界。相较于传统的网络空间与实体的物理空间,元宇宙拥有技术叠加性、虚实相融性、具身沉浸性与实时交互性等鲜明特征。和三十多年前互联网的诞生一样,元宇宙必将深刻影响和改变人类社会,形成人类文明新形态。一是元宇宙会重构人类生存时空新场域。元宇宙将从单一的自然宇宙扩展到虚实并存的双重宇宙,作为现实世界的孪生形态与延伸部分,元宇宙在萃取与融汇现实世界的演进脉络与表象特征的同时,亦依托强大而厚重的科技力量,变革人类生存的时空场域。元宇宙给予人类以沉浸式地体验与参与历史事件、在有限生命时长内获得多维生命体验、提前搭建与预演未来生活的机会,从而促使人类在主观上感受到时间弹性与韧性的增强;元宇宙给予人类以在虚拟世界中全息复制物理世界、在物理空间紧张的情况下获得虚拟空间作为补充、开辟兑现与外化想象力的创作空间的机会,从而促使人类在主观上感受到空间厚度与广度的增加。二是元宇宙会形成人类社会生活新方式。作为多项先进技术紧密嵌套、同向发力集成产物,元宇宙必将深刻影响和改变人类的劳动生活、消费生活和精神生活。集中表现为虚拟劳动成为劳动生活新样态,虚拟消费成为消费行为新时尚、虚拟文化成为精神生活新形态。三是元宇宙会形塑人类思想行为新特点。当元宇宙的生活新内容、新形式与新习惯成为泛在的社会存在后,人的思想与行为将会发生震荡与转变。集中表现为感觉集合下向外探索与向内卷入的博弈、心流体验下沉浸性与沉沦性的对垒、心理补偿下平和性与偏激性的角力、目标投影下奋发性与臆想性的争夺、信息群聚下创新性与依赖性的较量等思想行为上的矛盾冲突与对峙。元宇宙将在数字世界中达致现实中目下难以企及的人类社会,在虚拟世界成为马克思所说的自由人的联合体。元宇宙于人类既是机遇,也是挑战。元宇宙营造的沉浸式体验不是沉沦式生活,不能成为成瘾式游戏生活的借口;元宇宙中社会关系、人际关系的深度虚拟化也不能切断与现实物理世界的必然联系,元宇宙构建的虚拟身份、虚拟产品、虚拟市场、虚拟交易、虚拟生活、虚拟经济、虚拟人生等,不能脱离伦理、道德与法律的约束。为了确保元宇宙能够在人类社会中发挥益化的功效而非策动异化的危机,精进与完善确保元宇宙顺利落地与节能应用的底层技术,铺设与夯实防止元宇宙悖逆道德与违反法律的顶层制度,是元宇宙构建者应当思考的重要课题和使命责任。
2023, 29(5):111-124.DOI: 10.11835/j.issn.1008-5831.pj.2023.08.005
摘要:ChatGPT作为生成式人工智能的典型代表,是由美国人工智能研究实验室OpenAI研发并推出的一款基于自然语言处理和机器学习的大型语言模型,该应用一经问世便风靡全球,掀起一场广泛且深刻的大讨论。以ChatGPT为代表的生成式人工智能作为人工智能发展的最新成果,进一步向有感情和通用人工智能的发展目标迈出了一大步。随着生成式人工智能发展及其广泛应用,被认为正在重塑着人和人类社会,人类在享受新技术带来的便利时,也将遭受前所未有的挑战,突出地表现为生成式人工智能对于人的异化,重塑人的交往、人的思维和人的劳动。信息时代人的异化问题的研究,需要从马克思关于人的本质的规定出发,用历史唯物主义的方法深入分析人的异化现象,并为应对人工智能引发的危机寻找突破口。人的本质具有三重内涵,即交往、思维和劳动,交往是人的本质的独特体现,思维是人的本质的现实表现,劳动是人的本质的内在规定。随着认知技术与神经科学的迅猛发展,生成式人工智能以其独特的模拟能力,表现出对马克思所描述人的本质的异化的确证,即人的创造物威胁着人的主体性发展。包括:人-机交往、数据化交往、数字化生存引发的人的交往异化;人机结合、依赖智能、机器生产带来超越的人、弱化的人、虚无的人;人与物、人自身的劳动异化等。面对生成式人工智能引发的人的异化危机,亟须价值理性在智能时代的回归与复兴,亟须正确认识生成式人工智能的价值与限度,亟须重视对人的生命的终极关怀,因此深化生成式人工智能引发人的异化的反思,一是要重构生成式人工智能的工具属性,即认识到人工智能不过是人类的新工具、认识到新工具的与众不同、用好人工智能这个新工具;二是审视生成式人工智能的价值与限度,即必须回归人类自我价值审视、实现人工智能自我价值塑造、重视人工智能的发展限度;三是生成式人工智能发展的应然归旨,即构建可控的、安全的、可靠的人工智能。
2023, 29(5):184-197.DOI: 10.11835/j.issn.1008-5831.fx.2022.02.002
摘要:从历史上看,黑客迭代到人工智能黑客,是伴随着计算机、互联网、大数据和人工智能等科学技术迅猛发展而产生的。现如今的人工智能黑客是人机交互体,既非人也非物,介于两者之间,它可以模仿人类、干扰人类认知,为达到设计者或决策者的目的对网络系统漏洞进行智能化侵入和破坏。人工智能黑客区别于传统黑客的主要特征在于其可以依靠智能算法自主学习、寻找网络系统代码漏洞和加强分布式攻击。部分学者将人工智能技术划分为弱人工智能、强人工智能、超人工智能三个阶段,甚至有学者建议从伦理上赋予强人工智能法律主体地位,赋权理由是强人工智能算法具有独立的机器意思表示能力,与人类有情感的联结。显然,这种赋权方式不仅违背人本主义原则的主体创新,而且现行法律主体包括自然人、法人、非法人组织,人工智能黑客不属于任何一类主体,突兀地将法律主体的理性意思表示与人工智能算法指令的机器意思相等同,容易形成人工智能黑客行为在算法正义法律评价和民事法律行为构造上的困境,干扰我们对人工智能黑客本质的判断。溯本清源,应当以法律上权利义务构造标准去判断人工智能黑客的法律属性。人工智能黑客本质上是自然人主体通过人工智能算法技术,利用网络媒介进行网络侵权或犯罪的行为。人工智能黑客的核心是通过计算机代码设置、大数据运算与机器自动化判断进行决策的一套机制。人工智能黑客在责任承担上不是适格的法律主体,只具有特殊的人格性工具法律属性。人工智能黑客的智能化攻击外在表现为算法程序的自动执行,但程序的设计和算法运行归属于现实经济生活中的人,也完全符合法律上间接侵权的调整范畴。对于人工智能黑客的侵权或犯罪行为,应当通过揭开人工智能黑客的面纱,找到其背后隐藏的可规制法律主客体,利用穿透方式对人工智能黑客的非法行为进行伦理、技术和法律三个维度的有效规制。
2023, 29(4):191-202.DOI: 10.11835/j.issn.1008-5831.fx.2020.12.003
摘要:司法人工智能分为常规型人工智能与专业型人工智能,前者是将通用领域已经发展成熟的人工智能直接移植至司法领域而无需专门的算法更新,主要目的是将审判人员从繁重的事务性工作中解放出来,因而其也无法介入审判的核心内容;后者是诸如量刑辅助系统等专门为司法领域开发的介入审判实质内容的人工智能,其是司法人工智能的核心。当前司法人工智能的实践现状是常规型人工智能因其有坚实基础而卓有成效,但极为重要的专业型人工智能的开发与使用并不理想,主要原因是法学研究对专业型人工智能的研发理论供给不足,具体表现为抽象有余而具象不足,其深层次原因在于法学专业知识与人工智能技术知识没有深度融合,即懂技术的不懂法律,懂法律的不懂技术。宏观层面,在智能爆炸不可预期的时空背景下,生命2.0阶段(文化阶段)或弱人工智能时代仍是当下及可预见未来所长期处于的阶段,故作为工具的量刑人工智能仍应定位于辅助量刑而非决定量刑,且基于量刑规范化改革的价值内涵,应更进一步地定位于规范性辅助而非参考性辅助,二者的区别是智能系统给出的阶段性量刑结论对法官的约束力大小。在微观层面,智能量刑系统的算法构建应以量刑逻辑主导算法逻辑为原则,以诸如量刑基准、不法刑等具有共性属性的阶段性量刑为作用领域而非其能力之外的终局性量刑结论(宣告刑);此外,为防止算法黑箱、算法歧视以及相关关系代替因果关系,须做到量刑人工智能的算法公开和阶段性量刑结论的可解释性。
2023, 29(2):232-245.DOI: 10.11835/j.issn.1008-5831.fx.2020.06.001
摘要:人工智能法学研究应当谨防学术泡沫,人工智能刑事法治建设应当立足我国本土实践的真问题,重点关注真正能够对我国刑法产生挑战的人工智能危害行为。新型人工智能犯罪属于典型的行政犯,在人工智能技术发展的初期,人工智能刑法应当塑造行政前置性立法方法,具体包括前置行政不法和前置行政程序两类立法模式。其中,行政性是指人工智能行为等构成要件在静态规范层面中的不法行政评价和动态行政程序执行中的过程性、经历性行政评价,而前置性是指行政性评价前置于人工智能犯罪行为的刑事责任认定。相较于信息网络犯罪和计算机系统犯罪的立法而言,人工智能技术危害的实践特质在于人工智能的深度学习性和算法技术对人类活动时空的延伸性。因而,行政前置性立法特质要在人工智能刑法体系中得以体现,就需要立法者尤为注重全面性和双重性规则。行政前置性立法有助于保障刑事归责的专业性,重点聚焦人工智能的技术特质挑战,实现不同算法技术危害行为的等级评价。在具体设计行政前置性立法规则时,立法者需要将规则特质运用在人工智能技术的研发以及人工智能产品的测试、生产、销售和使用等阶段。具体而言,第一,对于行政不法前置性立法,刑法应当重点评价人工智能产品的销售和使用阶段,对销售不符合行政标准的人工智能产品行为设置抽象危险犯,并对人工智能产品使用阶段的制造安全事故、危险驾驶、非法侵入、破坏系统的危害行为,增设涵盖行政不法规范的新罪名或相关条款。第二,对于行政程序前置性立法,刑法应当重点评价人工智能技术的研发阶段,以及人工智能产品的测试、生产、销售和使用阶段。行政程序前置性立法发挥着行政行为公共服务监管的本质机能,行政许可、登记、责令等程序能够确保人工智能技术研发和产品测试、生产、销售和使用等各阶段,符合人类的道德伦理性和技术安全性。行政程序前置性立法要求刑法应当单独设置相关罪名,将行政许可、登记、责令等程序作为人工智能技术发展初期的刑法规制缓冲和风险预防手段。