金陵法律评论
    主页 > 期刊导读 >

行政法及地方法制论文_算法的法律规制研究

文章目录

中文摘要

abstract

绪论

一、选题的背景和意义

二、研究现状

三、论文的基本框架

四、研究方法

第一章 算法应用的主要场景及规制困境

一、算法的广泛应用与争议

    (一)新闻推荐场景

    (二)搜索引擎排序

    (三)电子商务领域

    (四)个人信用评分

    (五)司法裁判领域

二、算法的独特性质

    (一)算法的不透明性

    (二)算法的有限自主性

    (三)算法的难以问责性

三、传统路径难以进行有效规制

    (一)自我规制路径缺乏内在动力

    (二)市场规制无力对抗垄断局面

    (三)伦理规制难以有效融入算法

第二章 法律规制算法的法理证成

一、算法应用产生的社会风险

    (一)算法歧视加剧社会不公

    (二)算法权力形成算法统治

    (三)深度伪造消解社会信任

二、算法决策对个人的不利影响

    (一)算法分析侵害数据主体隐私权

    (二)算法规训妨碍个人的自由意志

    (三)算法学习加剧数字鸿沟的发展

三、法律规制算法的理论基础

    (一)法律与科技的法理思考

    (二)厘清算法的法律与法律的算法

    (三)算法的法律属性探究

第三章 法律规制模式的反思与预设

一、我国规制算法的模式与不足

    (一)数据保护的相关立法

    (二)算法规制的直接条款

    (三)当前规制模式的不足

二、域外规制算法的经验及局限

    (一)以数据保护为中心的欧盟方案

    (二)以算法责任为中心的美国路径

    (三)欧美规制算法路径的比较分析

三、法律规制算法的应然选择

    (一)以法律治理归化技术治理

    (二)将风险防范作为规制目标

    (三)将科技伦理作为内在指引

第四章 法律规制体系的系统构建

一、算法应用前的审查监督

    (一)完善算法分级分类制度

    (二)算法的透明度及其边界

    (三)建立健全算法监督机制

二、算法应用中的法律保障

    (一)明晰数据权属的界定

    (二)赋予数据主体数据可携权

    (三)加强对被遗忘权的保护

三、算法应用后的法律问责

    (一)算法的可解释性

    (二)算法解释权的概念及证成

    (三)构建合理的法律问责体系

第五章 未来展望:以数字人权引领算法规制

一、人类生存状态的数字化重塑

二、算法技术背景下的数字人权

    (一)数字人权中的自由命题

    (二)数字人权中的平等命题

    (三)数字人权中的安全命题

三、数字人权的保护机制

    (一)将人权理念融入算法开发

    (二)强化算法的道德习得能力

    (三)提升数字弱势群体的参与

    (四)培育数字素养与算法认知

结论

参考文献

作者简介及攻读博士学位期间发表的学术成果

后记

文章摘要:算法在广义上讲就是解决问题的程序,但是由于数据和算力的不断发展,基础数学理论的演进,作为人工智能本质的算法取得了突破性进展,以机器学习为主的多类型算法在新闻推送、搜索引擎、电子商务、信用评分以及司法裁判领域等多个场景当中得到应用。算法性能的提升以及应用的普及提高了社会的运行效率,却又因内部不透明性、有限自主性和难以问责性而可能导致诸多风险。这些特性将算法区别于普通的技术,也为我们带来了规制难题,当自我规制、市场规制和伦理规制并不能够有效应对算法带来的风险与影响,法律规制便成为了最为直接和有效的规制手段。有必要以算法技术的迭代更新为背景,将算法的法律规制作为主要研究对象,突出当前算法呈现出的有限自主性特征,建构符合我国算法应用现状的法律规制体系。伴随互联网络的发展,线上活动在人们日常生活中所占的比重越来越大,算法在为我们提供更加迅捷高效的推送结果的同时也会对我们的视域、判断甚至最终选择产生影响。可以说,网络对于其发展中形成的自生自发的扩展秩序已经形成了路径依赖。显然,算法使用者秉持的技术中立与技术无罪观念已经形成了强大惯性,这种惯性带来的后果不可避免地与公民的权利及社会的有序发展发生抵牾。在此过程中,会形成算法歧视、算法统治甚至消解社会信任等风险,而个人在算法面前逐渐演变成为数据的汇总,难免会被算法规训,隐私保护的难度逐步增大,算法的学习特性还将导致数字鸿沟加剧发展。这些社会风险以及对个人产生的不利影响都需要来自法律的有力回应。在法律规制算法的理论基础方面,需要明确算法只能成为法律规制的对象而不能成为法律本身,应当认清算法的法律属性,将其定位为具有有限自主性的人造物。现阶段,我国对于算法的规制模式仍属于回应型的,重视结果的规制而忽略过程的控制。具体表现为个人数据保护立法较为分散,平台责任规定不够明晰以及规制算法的法律体系性不足。当前,欧盟与美国分别形成了以数据保护和算法责任为中心的算法规制模式,二者能够在一定程度上提供可借鉴的经验却也都存在一定的局限性。因此,我国需要构建系统的法律规制体系。进而以法律治理归化技术治理,将防范风险定位为制度设计所要达到的目标,以科技伦理作为内在指引。法律规制体系的系统建构,覆盖算法应用的全过程,主要包括算法应用前的审查监督,应用过程中的数据保护以及应用后产生后果时的法律问责。首先,在算法审查监督具体规制措施的研究当中,要完善算法的分级分类制度,当前算法的主要应用场景集中在两个领域之中,一个是商业领域一个是公共决策领域。在确定算法的风险等级之后,根据不同等级确定相应的透明度边界,完全不透明的算法会形成黑箱,而完全公开的算法则无法保护算法开发者的创新热情。因此,通过明确算法的透明度建立健全的监督机制能够在算法应用前的阶段有效防止问题的产生。其次,通过对于数据权利体系的研究加强算法应用过程当中的法律保障。明晰数据权属的界定对于限制算法至关重要,没有数据的算法将无法发挥作用。而我国法律对于日益多元的数据形式并未作出明确的界分,数据控制者和数据主体在数据的收集和使用上存在着矛盾。由此,在强调互联网企业对于数据利用的同时,也不能忽略对于个人数据权的保护。赋予数据主体数据可携权以及加强对被遗忘权的保护能够有效应对算法应用带来的数据失控。最后,研究算法应用之后产生的法律后果,以及如何问责的问题。加强算法的可解释性并保护数据主体的算法解释权,能够复盘算法运行的过程,找出法律后果产生的具体原因,合理分配责任完成法律问责。针对算法应用的全过程分别设计的法律规制手段只能解决短期和中期所呈现出的问题,而数字人权的提出能够从更加宏观的角度影响算法,从而达到在源头上规制算法的目的并实现算法规制的长期目标。数字人权要求在数字科技发展的过程当中坚持以人为本,一方面,数字人权保护机制所倡导的价值就是科技发展应当遵循的价值。另一方面,数字人权的覆盖范围极其宽广,面对以算法为代表的数字技术的广泛应用场景都可以通过数字人权进行约束。保护数字人权,要求增强算法开发者的人权理念,强化算法的道德习得能力,提升数字弱势群体的参与以及在全社会培育数字素养和算法认知。数字人权的提出能够引领法律规制体系的构建,引领算法设计的理念。更进一步,结合我国正在推行的人类命运共同体,数字人权可以增强我国在科技立法和数据治理领域的话语权。