算法向上向善的实现面临算法解释难以落地、法律算法化与算法法律化难以实现、算法设计规范化要求难以成效等困境。这些困境实则是由算法规制的认识误区与路径误区所造成的。算法本身无善恶之分,而是取决于使用者的行为,故法律应聚焦于如何规制使用算法的行为。算法行为可视为一种纯粹的技术行为,但是因其产生取得、变更、消灭法律权利义务的效力,进入“法内空间”受到规制。具有意思表示内容的算法行为性质是法律行为或准法律行为;否则,可根据其适法与否分为事实行为与侵权行为。依据不同性质,可将算法行为纳入民法规制视野内,促进算法的应用行为向上向善。算法现已成为推动科技创新、数据分析和自动化决策的核心动力,但近年来诸如算法歧视、大数据杀熟、个人信息与数据保护等算法权力异化风险日益浮现,如何有效治理算法技术,避免其异化成为滥用“权力”或侵犯个体权利的工具,成为亟待解决的法律问题。我国出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》以及《生成式人工智能服务管理暂行办法》等,明确要求不得设计具有歧视的算法,不得将算法用于不正当竞争与垄断,并需要算法主体履行算法备案的义务。“算法善治”的实现似乎已指日可待。然而,从推荐型算法时代迈入人工智能算法时代,更复杂的大模型算法使得现有法律规制的有效性和适应性受到了严峻挑战。现有软性的算法技术应用规制、算法备案要求难以克服愈发复杂的神经网络式“算法黑箱”,同时外部监管愈难涉入算法运行机制中,学界主流的算法规制论点在转化成落地实践时都遇到了不同程度的挑战。如何既保证技术创新的活力,又有效规避算法风险,以最终实现“算法善治”,已然成为交叉学科研究的核心议题。为揭开“黑箱困境”、打破“专业壁垒”以实现“算法向上向善”,大体上学术界存在三种对于算法的规制进路,分别是:“透明促进向善”——通过算法解释以提高算法透明度;“融合形成向善”——通过算法的法律化或者法律的算法化对算法进行“嵌入式”规制;以及“设计通往向善”——通过法律规范与要求促进算法开发者设计出“向善”的算法。然而这三种规制进路均存在各自困境。
算法解释作为揭开算法黑箱、提升算法透明度的针对性建议发轫于2018年欧盟《通用数据保护条例》(GDPR)序言71条,后被我国学者引入并不断完善,其主张:算法解释的目的是使自动化决策的相对人了解对其不利的决定是如何做出的,以便在确有算法歧视和数据错误时提供救济。其面临的障碍主要体现在两个方面:一是面对愈发兴盛的复杂算法模型,解释技术尚不成熟。对于如深度学习模型这样复杂的算法系统,其可解释性极为有限。尤其是大型语“个体拥有获取关于决策如何以及为什么被做出的解释的权利,并可以对决定提出质疑,以作为对自动决策算法的约束措施之一。”言模型具有高度复杂的内部结构和多层次的神经网络,即便是算法的设计者,有时也无法准确描述系统的决策机制。二是尽管通过技术手段解释算法,也面临证明上的困难。机器学习所推导的“因果关系”,在很大程度上取决于输入数据,这类因果关系只能是统计意义上的因果关系,它与规范意义上的因果关系存在一道难以跨越的鸿沟。因此,即使理解了算法的运行原理,也难以对其正确性或合法性作出准确的判断,使得算法的“可解释性”可能难以达成司法实践中所要求的标准。
法律与算法之间存在无法互通的鸿沟。如果法律直接去规范算法,或者把规范算法的法律视为一种技术规范,从而规范算法本身,会造成算法无法解释正义,正义却要解释算法,或者说,算法很难被证成合法,但它却需要具备合法性。一些学者提出了“法律代码化”的设想。即法律规则将通过代码化处理内嵌于数智化社会的后设机制之中,内嵌于一切必要的时空场景及行为流程之中,构成数智化社会运行的神经系统、运行轨道和尺度边界,进而实现法律的算法化自动运行。但依然面临以下困难:一方面,算法逻辑与法律逻辑并不一致。算法的无度介入很可能导致法律丧失其特有的属性,其根源在于法律与算法在价值性内核上存在异质性。法律在表达时往往需要在具体案件中结合社会背景、价值判断、道德准则等复杂因素,通过司法解释、法官裁量等程序来适应不同情境中的变化。然而,机器语言缺失道德和伦理价值。另一方面,法律与算法的交叉应用将遇到无人监管的窘境。法律专家既无法为技术人员的法律代码化操作提供充分的智识辅助,也无法有效监督法律代码化操作。无论算法和法律融合到何种程度,任何自动化算法处理法律问题均不能离开人独立进行价值观判断。
算法向上向善目标的实现必须要求算法工程师“向善”。因为算法和代码被嵌入了设计者的价值理念和主观偏好,进而实现一定的目标或者实现某种控制,大数据杀熟、竞价排名、算法歧视、算法共谋等就是例证。因此,法律应当对算法设计者课以相应的信义义务,以约束其基于对伦理要求的充分注意来完成算法的设计过程,从而避免因设计中的故意或过失导致算法偏离伦理要求而落入不可信状态。通过对设计者施加伦理义务,可以促使他们开发出符合道德标准的“向善”算法,从而实现算法的善治。但是算法的设计本质上是一种功能性设计,而非价值观或伦理情感的设计。算法在实际运行中可能表现出某些与价值观相关的结果,例如偏见或歧视,但这些现象并不意味着算法本身被嵌入了某种价值观。事实上,算法的输出结果更多是数据输入和模型结构共同作用的产物,而非算法设计者有意注入的主观价值理念。此外,算法的运行是一个复杂的动态过程,设计者的初始设计并不能决定算法在整个生命周期内的表现。设计者对算法的控制力在数据输入后逐渐减弱,特别是当算法进入自我学习和优化阶段时,设计者很难干预或控制其具体的运行逻辑和输出结果。算法设计者的伦理责任或义务的设计应考虑到算法运行过程中的复杂和变化。否则这种责任不仅无法真正实现其预期效果,还可能会对设计者设置不合理的义务负担。
算法向上向善的进路虽然面临的具体问题各不相同,但困境的本质是相同的,这些路径倾向于将算法的异化现象等同于算法技术的异化,未能充分理解技术的本质特征和其规范属性。这种误解直接导致了算法与法律之间互动方式的扭曲,进而引发了两大关键误区:一是认识误区,算法“向上向善”是不是算法本身的“向上向善”?即我们是否应该从规范角度为算法本身设定某种道德判断或价值标准?这是当前关于算法规制中常见的一种错误假设,认为算法本身应当具备某种道德属性或价值导向。然而,算法作为一种技术工具,究竟是否能够被赋予这种“道德责任”,仍然存在很大的争议。二是路径误区,法律的规制究竟应该集中在算法本身,还是更应当规范人类对算法的应用行为?这是关于法律介入算法技术的关键问题。如果法律试图直接规制算法本身的技术设计,那么是否有能力适应算法快速演变产生的复杂性?抑或,法律应当转向对算法使用者及其行为的规制,从而更有效地维护社会秩序与公正?这两大误区实际上揭示了一个长期存在的核心争议主题:算法技术是否中立?
在“美国索尼公司诉环球城市影城公司案”中,美国最高法院认为,只要技术具有“实质性非侵权用途”,就不能仅因技术可能被用于侵权而使技术提供者承担责任。“算法推荐第一案”中,法院判决认定案涉的算法技术具有“实质性非侵权用途”,以“技术工具论”判定工具使用者的行为是否存在侵权。然而在算法的诸多“失灵”现象下,看似合理的“技术中立”却备受国内外学者的诘问。不少学者指出,现代社会算法的本质是一种人机交互决策,应当戳穿算法的面纱与价值中立性,对算法进行规制。由于商业和利益驱动,算法在设计环节不可避免地受到算法开发者的影响,算法本身具备“经由设计的价值观”。算法的数据集承载了设计者的价值偏向,人的干预使数据集具有社会属性,导致算法本身具有偏好和目标。技术并非价值无涉的工具,而负载了技术主体的价值,“技术中立”是个伪命题。除了算法在数字时代所表现出的“非中立”之外表外,“技术中立”反对者之所以反对算法的价值中立,更是为了防止“技术中立”成为侵权行为或其他违法行为的“责任阻却事由”,避免由于技术中立的荒诞说辞使相关责任主体获得法律与道德豁免的特权。
即使算法存在明显“具有价值取向”的状态或现象,且技术工具论可能并不适用于高度自动化科技发达的当下和未来,但是其基本逻辑性并没有被完全证否。技术只是人类研制出来方便生活的工具,技术工具本身并无善恶之分,但利用技术的行为有善恶之别,不能将恶意使用技术行为的可谴责性错误归咎于技术本身。即使再如何强调算法的深度学习、神经网络特征,都不能断论算法具备类似于人类的意识。科技本身是客观的,在其体系内实现逻辑的自洽,故而引发法律实践上的难题并不是科技的客观属性而是其社会意义和价值属性。算法并不具备意识,以至于我们无法简单判断机器语言的善恶,更无法明确算法逻辑所隐含的价值取向。因此,“算法向上向善”可理解为人类在利用算法时追求的善,而非算法本身的善。即使算法工程师设计出一种看似“完美无瑕”的向上向善算法,如果它在“非善”的数据环境中运行,也有可能被引导至“由善转恶”的方向。经过以上审思,我们并不能全然否定算法的中立性,也不能全然肯定算法的中立性。从纯粹技术和理论的角度,算法作为数学工具,没有意识和主观意图,可以被视为中立的。从实际影响和运用效果来看,算法的运行可能产生偏见和不公平的结果,在功能上可被视为非中立的。
无论肯定算法中立还是否定算法中立,共同的结论是人类行为介入是使算法技术产生价值倾向的关键。法律调整的对象是人的行为,故法律规制算法应聚焦于算法行为。我们既要防止“技术中立”原则成为违法犯罪的“挡箭牌”或“责任阻却事由”,也要防止“技术政治正确”成为技术创新、技术应用的枷锁。在此启发之下,目前应以人应用算法的行为作为法律和算法的互动桥梁,即法律应以行为作为规制算法的落脚点,详述如下:若对算法本身设置“技术性规范”以具体调整或指导算法的设计与运行,促成“向善”的算法,既不现实也不合理。理由在于:在当前的技术条件下,法律和算法还未能相互融合,“法律代码化”依然是一个未能实现的远景设想。通过法律直接规制算法,在技术上条件尚未成熟,也缺乏足够的“法律+技术”复合型专业人才以监管算法的合规化运行。如此,单纯通过法律设置技术性规范,或在司法过程中采取技术性规制措施,短期内是不现实的。除此之外,算法的应用广泛且种类繁多,法律不可能对所有类型的算法进行全面规制。算法有广义和狭义之分,广义的算法早已渗透到人们的日常生活中,例如商场中的电梯调度算法、高速公路自动计费算法等。此类算法在复杂程度和潜在影响上与狭义的互联网算法有着本质区别,它们更多只是数学逻辑的演绎过程,并不会在技术层面直接影响社会秩序或个人权益。狭义的算法也并非都是所谓“恶算法”,例如算法推荐技术本身并没有使得服务商能够更有效地识别或预防用户侵权行为,且服务商也没有必要主动偏好推荐侵权内容。这决定了法律不可能以统一的方式全面覆盖所有类型算法,也不可能设定某种原则与标准以判断“算法是否为善”。因此,法律应当根据算法应用的场景和其影响力来规范使用行为,关注算法的应用行为是否导致了不公平、不正义或权利侵害,而不是试图介入技术领域以引导算法的技术设计。法律的本质是调整社会关系的行为规范。法律调整的直接对象是人的行为,作为社会规范,其主要功能是通过禁止、许可以及命令的方式,对人的行为进行约束和引导,从而维护社会秩序,属于“应然”的范畴。但与此不同的是,算法领域的规则来源于自然规律,就像公式、定理等以揭示客观世界的运行规律,属于“实然”的范畴。例如,当算法被用于大数据分析、推荐系统或者自动驾驶技术中时,法律需关注的是这些算法是如何被使用的;如果算法被部署、应用在某个场景中侵犯了他人合法权益,法律应涉入以判定该行为(至少是部署算法于某个场景的行为)是否得当,以规制“利用算法的行为”。并非涉入判断该“实然”的算法是否符合“应然”的标准。即算法规制的立法属性,应当是社会规制,通过价值约束“技术非中立性使用”。再从责任承担的角度来说,算法的开发者、应用者及用户,作为算法背后实际控制与使用者,决定了算法在社会中、在互联网中如何被运用,并因此应承担相应的法律责任。算法自身显然无法独立为其所输出的结果负责。归根结底,至少在当前技术条件下,法律不宜也难以做到从技术层面干预算法设计。算法技术作为工具(无论工具的中立性质),在工具不具备自主意识的情况下,其善恶影响取决于使用者的行为。故法律与算法的互动方式宜通过规制人应用算法的行为展开。
法律要规范算法行为,然而当前学界暂未对“人使用算法的行为”这一概念形成统一的认识。有学者区分为算法主体与算法用户,定义为“算法主体行为”。也有学者笼统地称之为“算法行为”,并分之为算法研发(开发)行为与算法应用行为,认为法律应规制算法应用行为而非算法的技术性研发行为。虽然定义各异,但其指涉的范围基本一致。本文主张采用“算法行为”这一定义作为算法规制的核心术语,并尝试作一界定:算法行为指自然人、法人或非法人组织在算法的开发、设计、部署、应用、运营、维护等过程中所实施的行为。理由在于,对于人们使用算法的相关行为,难以从概念上进行准确的区分和切割。算法的设计开发、部署应用、运营维护并不是完全割裂的,其研发与应用往往在实际操作中紧密交织,研发主体与应用、维护主体之间的界限也相对模糊。例如,算法设计者在许多情况下不仅仅是完成算法设计这一初步工作,还需要承担后续的维护、优化等任务。因此,算法行为的各个环节相互依赖,法律应当从一个整体的视角来理解算法行为,而非试图进行过于精细的划分。虽然“算法行为”这一术语看似较为笼统,可能会引起模糊空间,但这种“笼统性”反而更具优势:一是该术语简洁明了,易于理解和传播,便于法律、政策制定者及社会公众广泛使用和接受。相比于复杂的技术术语,“算法行为”可以作为跨领域交流的桥梁,避免技术与法律之间的认知鸿沟。二是“算法行为”一词涵盖面广泛,作为一个法律规范概念,“算法行为”能够较为全面地适应算法的多元化应用场景,涵盖算法在设计、开发、部署、应用和维护等各个阶段中的行为,避免因为过度细化而忽视了对某些主体、某些环节行为的规制。
规制算法行为,还需对算法行为的主体加以明确,防止过于笼统而产生歧义。首先明确算法行为的主体是人,而非算法本身。“行为,为有意识的身体之动静……行为苟基于行为人之决意,由自己直接为之或经由他人或介用他物为之,其同并无法律上力之差异。”计算机信息时代,人应用算法的行为,虽然涉及复杂的技术和数据处理过程,但其“身体之动静”——即有意识的身体活动,介用、通过计算机软硬件而为之,包含诸如操作键盘、鼠标或其他输入设备进行编程以决定算法的逻辑、结构和功能;或操作计算机进行测试运行、分析结果,并对代码进行调整;再或对算法进行监控、分析其表现,并根据需要进行调整或优化。在所有这些环节中,即使是高度技术化和自动化的算法运行,也离不开人类的直接参与和有意识的身体活动;人们通过这些身体之动静实现数据的选择与输入、算法的设计、开发、部署和维护,使其能够在各种应用场景中发挥作用。例如,算法将简历中女性应聘者先行排除,这虽然仅是电脑运行算法和输出处理结果过程,不涉及人的歧视语言或动作,但因其是在算法设计者程序支配下的运行结果,故可被认定为一种侵犯平等就业权的行为。算法并不具备意识,无法独立承担法律责任,无法作为法律主体。其次明确算法行为的主体范围,包括“算法的设计与运营主体”和“算法用户”。算法用户是算法相关产品或程序的直接使用者或者消费者,一般认为其是数据提供者抑或是算法输出结果的“受害者”。但随着算法技术门槛的降低,算法用户在某些情况下不仅是算法的被动接受者,更成了算法的主动使用者。例如在自动交易平台如“Trend Spider”和“Trade Ideas”上,用户通过部署计算机算法进行模式识别与决策分析直接进行无需人工干预的商品买卖。随着大模型逐渐落地各行各业,普通算法用户已经通过运用算法大模型从算法的消费者转变为算法的支配者。、
某些算法行为,像非人际关系的情事只要不化为行动影响他人的法益,或诸如人与人之间招呼、谈天等法律管不着、不需要法律管,也不适宜用法律管等事项构成的“法外空间”。有些算法行为作为数学、计算机科学等理性逻辑问题的解决手段,无须进行规范。即使是当下,例如个人利用算法生成艺术作品(如图像、音乐),仅供自己欣赏或收藏,再如算法工程师在封闭的沙盒环境中测试新算法的性能和功能等此类纯粹的个人技术活动,不涉及他人权益或公共利益,此类位于“法外空间”的算法行为通常无须进行干预。对于那些将算法的决策结果、输出结果直接置于社会关系之中,并且影响法律所设定的权利义务关系的行为,例如算法歧视、大数据杀熟等,甚至用来作为司法辅助的工具,此类算法行为已不是单纯的技术行为。它影响到法律所设定的权利义务,开始关涉他人法益、公共利益,便进入了“法内空间”,需要受到法律的规范和调整。易言之,当算法行为产生了取得、更改、消灭法律权利义务的法律效果时,便进入“法内空间”。
“法内空间”的算法行为根据其是否表现出其主体的意思表示,可分为法律行为和非法律行为。根据我国《民法典》第133条的规定,法律行为的根本特征在于,之所以发生特定法律效果,是因为行为人想要发生该法律效果并且将其意愿表达于外部(意思表示),法律在行为人的意愿与法律效果之间建立了因果关联。法律行为至少具备两个要件:其一,与法律事实一样,能够产生某种法律效果;其二,意思表示为其核心。“法内空间”的算法行为是否能够体现其行为主体的意思表示,是认定算法行为是否为法律行为的关键。算法决策本身通常不直接表达旨在产生法律效果的意愿和目的,一般并不体现行为主体的意思表示,而是辅助主体进行决策,由主体自己再做出具有意思表示的法律行为。决策的运行过程是一种线性的逻辑表达,是基于数据样本和编码程序逻辑结构实现的。算法自动决策的本质不是主体法律行为,是“大数据收集分析+运算程序设计”的结果。例如,在使用算法进行信贷审批时,算法基于预设的参数和数据做出评估,但算法本身不具有意愿,也不具备法律上的意思表示能力。信贷审批的最终决定(具有法律意义的行为)是由使用算法的贷款官员或机构依据算法输出的决策结果作出的,这些主体才具备表达意愿的能力。利用算法辅助决策的行为并非法律行为。但随着技术进步,意思表示的方式也不限于主体自己表达,例如“Trend Spider”等自动交易平台和自动化合同签订,再如区块链技术中智能合约、线上自动合同理赔、互联网广告投放等。正如学者所定义的“数字法律行为”,即以网络、数据和算法等为主要呈现或表达方式而实施的法律行为。当算法行为的主体在某个场景中主动部署自动化算法,主体的意思表示将会通过算法决策后的结果进行自动地表达与展示,抑或直接进行决策操作;虽然并非主体本身的表达,但算法等自动化程序将主体的意思表示对外进行表达;算法行为主体部署该算法就是对该表达的默认。依据合同客观理论,对非人类的拟人化实体而言,重要的不是它的意识,而是它在交流过程中的表现。行为主体主动部署算法的行为即体现为旨在对外产生法律效果的意愿和目的,既可能针对特定人,也可能针对不特定人。在这种情况下,应认定这种算法行为构成具有意思表示的法律行为或具有某种通知情形的准法律行为。
“法内空间”能够产生法律效果的算法行为,除了法律行为之外,还包括事实行为。事实行为指不含法效意思的行为。在适法的范围内,不具备意思表示、但是能够发生一定法律效果的算法行为实际上是一种事实行为。例如,在数据确权构想中,对于数据产品之权利形成,是开发者通过一定的算法,对数据集合进行深度的分析过滤、提炼整合并进行脱敏处理,最终形成具有市场价值的衍生数据。而侵权行为之效力,非基于行为人之意思表示,乃依法律之规定而发生,故此时侵权行为并非法律行为,不过包含法律行为之法律事实而已。在违法范围内,不具备意思表示的算法行为则是事实行为中的一种侵权行为。例如,使用爬虫算法抓取互联网公开的、不受限制的数据,一方面,在技术应用过程中形成了数据资源所有权,此时,不具法律意义的技术行为将转变为具法律意义的事实行为;另一方面,当爬虫算法抓取了个人信息和隐私时,该行为因越过法律设定权利义务之边界从而转变为违法行为,是侵权行为。综上所述,在一般情况下,算法行为作为纯技术行为,并不具有法律意义,位于“法外空间”。但当算法行为触碰到法律所设定的权利义务边界时,就转变为具有法律意义的行为,进入“法内空间”,成为法律应规范的行为。算法行为具备意思表示外观的,是为法律行为或准法律行为。不具备意思表示外观的但是发生了权利义务的取得、变更、消灭效力的算法行为,作为法律事实中的人的行为。在适法领域是事实行为,而在违法领域则是侵权行为。
有学者曾对“算法失灵”现象作出如下总结:随着技术自主性凸显,算法嵌入政治体系对政治权力和政治价值的施力将导致算法时代新的社会风险,即“算法利维坦”。这一概念借鉴了霍布斯在《利维坦》中对人类无政府自然状态的描述以及社会契约的必要性之解释:在没有一个共同权力使大家慑服的自然状态下,人与人之间存在着普遍的战争状态,人的生活将是孤独、贫困、卑污、残忍而短寿的。虽然霍布斯的表述极端,但他强调了法律存在的必要性—为了避免自然状态下的“万人为敌”状态,人们通过社会契约形式放弃部分自由,接受法律规范来保证一定程度的秩序和安全。与这种“自然状态”相似,算法行为的本质是技术行为,位于法外空间,诸如使用算法生成声音图像自娱自乐、沙盒模拟等,行为并不涉及对外部社会秩序、个人权利或法律义务的影响,因此不需要也没有必要受到法律的规制。然而,随着技术门槛的降低,算法的无序使用可能产生不可忽视的社会风险。为了避免“算法利维坦”的出现,人们应当接受必要的法律规制,通过法律的介入,使算法行为在合法性和合理性之间取得平衡。经上文的性质分析,对于算法行为的民法区别规制详述如下:
算法行为具有意思表示外观,应视为算法行为主体的法律行为或准法律行为,受到合同法及其相关制度规范。根据合同法的基本原则,具有意思表示的算法行为应遵循合同的要约和承诺规则,特别是在自动化交易或智能合约中,算法生成的交易指令和自动化合同条款的履行应被视为合同主体的意思表示行为。因此,算法行为的主体应对算法执行的结果承担相应的合同责任。此外,由于算法行为的高度自动化,法律还应针对这种自动化过程中可能出现的错误或偏差进行特殊规范。算法行为的效力瑕疵不仅可能发生于意思表示阶段,还可能发生于意思形成阶段。而合同法中的缔约过失责任、重大误解或其他制度可以在算法执行发生偏差或违约时,为受损方提供救济机制。
算法行为不表现为意思表示,其客观后果会形成法律主体的权利,尤其是涉及技术创作、数据利用或所有权归属的领域,则作为法律事实中的事实行为,能够取得、变更或消灭民事权利,受到物权法、知识产权法或者未来数据确权后的“数据法”等领域的规制。例如,知识产权法应当明确规制算法生成的智力成果,确保算法生成的内容在符合独创性要求的情况下,能够享受著作权或专利权的保护。同时,著作权法也应针对算法本身或其应用领域的技术创新给予保护,从而激励技术创新和合理竞争。另外,算法的广泛应用使得数据权利问题日益突出。数据、信息、算法法律制度的衔接,以算法行为规制为连接点,以数字技术应用与互联网节点治理的协同性为基础。未来的“数据法”应明确规定数据的所有权、使用权及收益权等具体内容,而算法行为涉及的数据采集、处理和分析环节应当遵循数据权利的基本框架。
当算法行为侵害他人权益时则构成违法的侵权行为,应受到侵权责任法规制。例如,若算法在广告投放中产生了误导性信息,侵犯了消费者权益,此行为构成侵权。同样地,若算法在数据处理过程中侵犯个人隐私或违反数据保护规定,侵权责任法也应为受害方提供相应的法律救济。当算法行为进一步危害公共利益或破坏社会秩序时,行政法和刑法应当介入。例如,算法被用于操纵市场、传播虚假信息或实施网络攻击,这类行为超越了私人权利纠纷的范畴,涉及社会公共安全和秩序,公法应对此类违法行为进行严厉规制。行政法上应加强对算法应用的监管,特别是对可能影响公共利益的算法行为进行审查。同时,刑法应明确对恶意利用算法实施犯罪的打击。对于利用算法与相关人工智能技术进行电信诈骗、金融欺诈、网络攻击等严重违法行为,立法者有必要在刑法中建立规制生成式人工智能产品算法失范行为的罪名体系,并规定相应的刑事责任,从而遏制利用算法破坏社会公共秩序的行为。算法并不是社会发展的威胁,相反,通过对大数据的处理与决策优化,算法显著提高了各类生产与生活场景的效率,为各行各业的发展提供了极大的支持。正因如此,算法规制的目标与其说是遏止迈向算法社会的进程,毋宁是重建国家、社会、民众对算法的信任。在对当前算法规制的误区进行澄清后,本文试图达成以下结论:其一,算法向上向善不应要求算法本身向善,算法本身并无善恶之分。法律不应试图从技术层面干预算法设计,算法技术作为工具(无论工具的中立性质)其最终影响取决于使用者的行为。法律与算法的互动方式应通过规制算法主体的行为而实现。其二,算法技术的中立性可以从以下两个方面进行理解:从纯粹技术和理论的角度,算法作为数学工具,没有意识和主观意图,可以被视为中立的;从实际影响和运用效果来看,算法的运行可能产生偏见和不公平的结果,因此在功能上可以被视为非中立的。其三,算法行为一般是位于“法外空间”的技术行为,却因其影响到法律所设定的权利义务从而进入“法内空间”;具有意思表示的算法行为应作为法律行为或准法律行为,不具意思表示的算法行为可根据其适法与否分别定性为违法的侵权行为或适法的事实行为。并分别纳入现有的法律体系中予以分别规制。从而法律可以有效地对算法行为进行精确规范,实现法律与算法在实践中的良性、有效互动,以促进算法行为向善、实现算法善治。综上可见,虽然算法技术的发展速度远超法律,但其并没有逾越现有法律体系的规范范围。然而,在算法的规制上,通过算法解释与法律代码化等设想,以促进算法本身的决策透明与公平仍是必要的。碍于目前法律与代码之间的语义鸿沟,两者的互相转换、相互嵌入还存在很大的技术困境与法律困境,距离彻底实现算法本身的透明与向善还存在一段距离。对此,我们依然需要保持乐观,相信技术难题可以通过持续的研发和创新得到解决,在技术和法律的两端共同促进算法向上向善,最终实现算法善治之愿景。
往期精彩回顾
[匈牙利]兹索尔特·兹迪著 王泽山译|算法可解释性和法律推理[丹麦]杰斯帕·瑞贝格著 奚哲涵译|刑事司法与人工智能:如何评估量刑算法的性能[荷兰]马西莫·马雷利著 陈波 白文丹译|欧盟《通用数据保护条例》框架下向国际组织传输个人数据:数据传输机制的分析[加拿大]若瑟兰·麦克卢尔著 朱正宇译|人工智能的可解释性困境与公共理性的法伦理探究
上海市法学会官网
http://www.sls.org.cn