查看原文
其他

林洹民:《个人信息保护法》中的算法解释权:兼顾公私场景的区分规范策略

林洹民 法治研究杂志社 2024-01-11






























林洹民,浙江大学光华法学院讲师,德国法兰克福大学法学博士

文章导读

·摘要

《个人信息保护法》第24条第3款规定了具有中国特色的算法解释权。算法解释权的适用不要求决定“仅”由自动决策算法做出,从而将该权利的适用范围扩张到决策支持型算法、分组型算法与总结型算法等类型,全面规范公私领域中的算法应用。《个人信息保护法》第24条第3款并未明确规定算法解释权的法律效力。公私法的规范对象与规范目标不同,算法解释权在公私不同应用场景当中应有不同的表现。在个人与公权力关系当中,个人原则上应有权请求公权力机关事后解释具体的算法决定,此为公民知情权之逻辑必然。如果算法解释可能侵犯第三方的商业秘密或出现解释不能的情况,公权力机关不得使用自动决策算法,而非以此为由拒绝解释算法决定。与之相对,在个人与企业场景当中,个人原则上仅得请求企业事前披露算法的基本情况,而不能请求解释算法的具体决定;企业应重点告知算法对个人可能的不利影响,使得个人能够决定是否允许算法处理个人信息。《个人信息保护法》第24条第3款的弹性设计,使得区分公私场景配置不同的算法解释权成为可能。·目录
一、算法解释权的构成要件(一)决定通过自动化决策方式作出(二)对个人权益有重大影响二、算法解释权的效力之争三、公法上的事后的解释权(一)行政管理智能化与公民知情权保护(二)健康码的法律性质与弊端(三)破题之策:事后的、针对具体决定的算法解释权私领域中事前的解释权(一)智能经济与消费者权益保护(二)企业原则上不负有解释算法具体决定的义务(三)个人对商业自动决策算法事前的、一般性的解释请求权总结与展望:区分不同应用场景的算法治理

文章来源:《法治研究》2022年第5期


2021年11月1日生效的《个人信息保护法》(下文简称《个保法》)第24条第3款规定,通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。该款正式规定个人的算法解释权,对打破“算法黑箱”实现算法透明具有明显的积极意义。但是,《个保法》规定的算法解释权的构成要件与法律后果都较为模糊,可能会引发法律适用的障碍。例如,在构成要件层面,算法解释权是否限于决定“仅”由自动决策算法做出的情形,是否只要存在人工干预即不能请求解释算法?在法律后果层面,个人得请求解释的是具体的算法决定,还是一般性的运作逻辑?为了细化《个保法》的相关规则,也为了搭建更为全面的算法治理框架,2021年12月31日国家网信办发布《互联网信息服务算法推荐管理规定》(下文简称《算法推荐管理规定》),该规定已于2022年3月1日正式生效。《算法推荐管理规定》围绕算法解释权作出规定,但在制定过程中争议较大,且最终版本相对于征求意见稿有较大幅度的修改。无论是《个保法》相关规范的模糊性还是《算法推荐管理规定》具体规则的反复修改,均表明算法解释权规范设计的复杂性。法律一旦生效,即面临执行的问题。随着《个保法》与《算法推荐管理规定》的陆续生效,如何“落地”算法解释权,必将成为互联网执法的一大难点。有鉴于此,本文欲结合《个保法》与《算法推荐管理规定》的相关规范,围绕算法解释权的构成要件和法律后果展开分析,着重讨论算法解释权在公私场景中不同的意义与构造,希冀为算法解释权的适用提供充分的理论依据和具体的操作指引。


一、算法解释权的构成要件


《个保法》第24条第3款规定,通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。据此,算法解释权的适用前提是:(1)决定通过自动化决策方式作出;(2)对个人权益有重大影响。

(一)决定通过自动化决策方式作出

根据《个保法》第73条第2项,自动化决策,是指通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。自动化决策方式即为处理个人信息并做出决策的算法。问题在于,是否决策必须仅通过算法做出,个人才能行使算法解释权。换言之,是否只要存在人工干预即不得请求解释算法?

欧盟《通用数据保护条例》(GDPR,下文简称《欧盟条例》)第22条第1款明确要求决策必须“仅”由算法做出。与之不同,我国只是要求决定通过自动决策方式作出,并未要求不存在人工干预。《欧盟条例》在生效之后,围绕第22条的适用范围产生过激烈的讨论。如果整个决策流程当中的决定完全由算法做出,那么当然适用第22条;如果人工干涉发生在所有流程当中,那么原则上不适用第22条。但是如果既有人工干涉也有算法决策,有时难以判断决定是否仅由算法做出。一般认为,辅助型算法并非自动决策算法。辅助型算法大致包括决策支持型算法、分组型算法与总结型算法(decision-support,triaging,andsummarizationalgorithm)。对于决策支持型算法而言,算法仅仅提供支持作用,看似还是由人作出决策的。但是,个人可能完全依赖算法的建议决策。德国学者因此指出,虽然存在人为干预,但若仅是例行公事式的检验,算法决定构成决策的“实质性基础”,此时该类算法就属于“自动决策算法”。对于分组类型而言,虽然也有人工参与,但算法可能已经事先地影响决策的选择。例如算法可能将申请者分为A和B两个群组,每个群组虽然都由人最终决定结果,但群组A只能得到H1和H2两种结果,群组B则只能得到H3和H4。此时我们不由地要问:这种程度的人工干预是否足以排斥算法解释权,此时自动决策算法难道没有实质上影响决策吗?对于总结型算法而言,算法可能根据众多个人的评价做出评价。例如Ebay、Uber或淘宝、滴滴根据用户的反馈为店铺或司机打分,不同等级对应不同的商业机会。此时,决策是否完全由算法做出?《欧盟条例》第22条之所以强调决定必须仅由算法作出,源于欧洲人对自动化的不安。德国联邦宪法法院于1983年提出个人信息自决权的重要理由之一就在于,在自动化信息处理的时代,不存在不重要的个人信息。欧盟格外警惕自动化决策,因此强调对自动化算法的规制。但若以此强调决策必须仅由算法做出,法律才应当规制,则有些过犹不及的。只要决策实质受到自动决策算法影响,均应有规范的必要。

更为重要的是,如果我们强调算法解释权的适用前提是决策“仅”由算法做出,那么行政决策算法就不会被纳入自动化算法规则的射程范围。以行政处罚裁量辅助系统为例,该系统根据执法人员勾选或者输入的案情要素提供裁量建议,最终的裁量由执法人员结合个案情形作出。目前已投入使用的行政处罚裁量辅助系统,包括南京的“环保行政处罚自由裁量辅助决策系统”、甘肃的“环境行政处罚裁量辅助决策系统”、北京的“睿法官”智能研判系统、上海的“206”刑事案件智能辅助办案系统、湖北的“智能量刑辅助系统”等等。此类算法仅仅提供辅助性建议,最终的决定仍然由人作出,但是却对行政行为产生重要影响。鉴于我国尚不存在专门针对全自动行政行为的法律规范,《个保法》规则查漏补缺,弥补法律制度阙如的不足。借助《个保法》中的算法条款,能够有效地拘束行政机关借助算法的行政行为。

承上,《个保法》第24条第3款规定的算法解释权的适用对象,并非限于决定仅由自动决策算法做出的情况。即便存在人工干预,只要算法对决策产生实质性影响,即应当属于算法解释权的适用对象。

(二)对个人权益有重大影响

1.重大影响并不限于对个人不利的决定。有利或者不利,是主观性极强的概念。如果将适用范围限于对个人的不利影响,个人需要证明决定对其利益构成侵害,这不一定能够顺利实现。欧盟在制定《个人数据保护指令》当中,曾试图将适用条件限定为不利的法律影响或类似的不利影响。但后来考虑到可能增加个人的负担,因此并未做限制。第29条工作组在其指导意见中指出,重大影响可以是积极的,也可以是消极的。

2.重大影响并不存在明确的判断标准。重大影响这一标准具备一定的模糊性。立法者有意识地采纳模糊性的表达,以交由监管机关和司法机关判断何为“重大影响”。但一般认为,合同缔结或终止应属于该款指涉的不利状态。个体如果因为自动决策算法而未能缔结合同,应认定属于遭受了重大影响。此外,当继续性合同内容因自动决策算法的结果而被要求终止时,数据主体也可以行使算法结果拒绝权。再者,算法结果虽不影响当事人的法律状态,但事实上影响了当事人合同目的实现,此时个体仍然有获得法律保护的可能。例如,个人如果只能按照不利的条款才能缔结合同,也应被认定法律状态遭受不利影响。具体而言,个人虽然与企业确立了合同关系,但却不能如同他人一样享受灵活的支付选择——个人被要求必须提前付款,不能享受货到付款待遇,亦或者个人不得使用信用卡支付等等。


二、算法解释权的效力之争


《个保法》第24条第3款规定,“个人有权要求个人信息处理者予以说明”。但说明或解释一词有高度模糊性,英国信息委员会办公室就指出,解释包括六种情况:理性解释、责任解释、数据解释、公平解释、安全与执行解释和影响力解释。在《个保法》通过之前,我国学者主要围绕算法解释权是事后的、对具体决定的解释,还是事前的、一般性的解释展开了丰富的讨论。

支持事后的、对具体决定的算法解释权的学者认为:鉴于合同法、侵权法和消费者保护法等都没法充分救济当事人,法律应当赋予个人事后的算法解释权;当自动化决策算法的具体决定对相对人有法律上或者经济上的显著影响时,相对人有权向算法使用人提出异议,要求提供对具体决策的解释。支持说受到牛津大学网络研究中心研究助理古德曼和伦敦帝国学院数学系讲师弗莱斯曼观点的影响。二人通过分析《欧盟条例》相关规范指出,《欧盟条例》已经明确规定了个人的算法解释权:鉴于《欧盟条例》第13条和第14条要求使用数据画像技术的数据控制者提供数据主体和算法逻辑有关的有意义的信息,数据主体实质上享有自动决策算法解释请求权。古德曼和弗莱斯曼认为《欧盟条例》规定了个人对算法决策的事后的、针对具体决定的解释请求权。国外也有一些学者同样持此观点。

反对说认为,立法不应创设事后的、针对具体决定的算法解释权,而仅应规定事前的、针对算法基本情况的解释请求权。核心理由在于:(1)事后的、具体的算法解释权扰乱商业模式。企业出于节省成本、降低技术难度等考虑倾向于将业务外包,借助外部数据公司的辅助,在控制风险的同时实现收益的最大化。以金融公司为例,银行从外部数据公司获知评分结果,进而作出授信决定;信用卡公司甚至完全依赖外部评分机制(externesScoring)决定信用卡的发放与否。金融机构因无法查看外部数据公司的算法和使用的数据,因此没有机会解释算法。在以外部信用评分为代表的外包模式下,算法解释缺乏实质意义。信用卡公司员工最多只能根据申请人提交的资料重新作出决策,若结果与基于算法做出的结果一致,员工也只能解释自己的判断依据。(2)深度学习算法决策结果的不可解释性。深度学习算法自我分析数据,自我遴选标准,自我评估结果,根本不存在“每种指标的功能权重,机器定义的特定案例决策规则和起参考辅助作用的信息”的解释可能。深度学习算法的特征设定不再必要,机器将在深度学习算法的指引下自行选定特征,设计评估和决策算法。深度学习算法依赖于大量的数据和强大硬件的支撑,但设计者也没法解释决策产生的依据。算法设计者并没有设计考虑因素、权重等,而是任由数据画像技术自行发现影响因素及权重,算法设计者自身也不清楚被算法考虑的因素及其权重。反对说也否定《欧盟条例》第22条规定了事前的、针对具体决定的算法解释权。他们指出,《条例》序言第71条明确提到了算法决定解释权,但《欧盟条例》前言不能创设新的权利;第13-15条仅要求提供事前的、一般性的说明,并非事后的、具体的算法解释权。但也需注意,第29条工作小组起初认为《欧盟条例》第13条至第15条要求告知“和逻辑相关的有意义的信息”仅提供一个一般性的洞察,而非针对具体决定的解释请求权,后来却改弦更张,认为提供的信息应当足够个人理解具体的决定。第29条工作小组的观点也展示了该问题的复杂性。

鉴于我国学者对该问题远未达成共识,我国立法者设计了相对模糊的法律规范。较为笼统的规则设计虽然在操作层面不够清晰,但却为不同场景中不同的算法解释权提供栖身之地。《个保法》属于领域法,既含有私法色彩,也具有公法属性。《个保法》第24条既规范公权力机关的算法应用,也规范企业与个人之间的算法决策。但公私法的理念并不相同,前者强调依法行政原则、正当程序、尊重与保障人权等原则,后者则更加关注诚实信用、意思自治与合同正义。规范对象与规范理念的不同,导致不存在统一适用于公私法场景的算法解释权。


三、公法上的事后的解释权


(一)行政管理智能化与公民知情权保护

国务院于2017年印发的《新一代人工智能发展规划》强调,应促进人工智能技术在行政管理领域的运用。人工智能的本质即是算法、数据和算力的系统结合。目前自动决策算法已经开始在行政管理领域推广使用。“秒批”为全自动行政的典型代表。所谓的“秒批”,是指行政主体事先根据审批的条件和流程设定自动化程序,申请人提交申请信息后,系统将通过自有的和共享的数据库自动比对以及核验材料,无人工干预地瞬时完成自动审批并将结果反馈给申请人,完成审批流程。但需注意,行政机关使用自动决策算法作出的决策可能存在错误,国外的算法行政实践已经暴露出了种种瑕疵。例如,密歇根融合数据自动化系统存在着93%的出错率,40000人可能受害;澳大利亚社会保障部的智能催债系统发生了几乎类似的算法裁决错误,成千上万的福利申请者收到了系统的邮件,要求他们证明未冒用资格获得社会福利。即便算法仅为辅助手段,行政机关也可能“惰于思考”,借助自算法转嫁决策风险,逃避问责。

自动决策算法在行政管理领域的应用虽然有利于提高工作效率,但可能侵犯公民的知情权、申诉权,甚至发生错误处罚等直接侵犯公民人身自由和财产安全的情况。知情权是确保规范性期望不被动摇的关键。如果人们不了解行政决定的原因,不理解自身为什么会败诉,公权力行为的正当性和合法性将会遭受质疑。我国《行政许可法》第38条第3款规定,行政机关依法作出不予行政许可的书面决定的,应当说明理由,并告知申请人享有依法申请行政复议或者提起行政诉讼的权利。《行政处罚法》第44条规定,行政机关在作出行政处罚决定之前,应当告知当事人拟作出的行政处罚内容及事实、理由、依据,并告知当事人依法享有的陈述、申辩、要求听证等权利。为了防止行政机关借助算法侵犯公民的基本权利,公民应有权请求解释行政自动决策算法的具体决定。下文以健康码为例详述之。

(二)健康码的法律性质与弊端

健康码是算法处理个人信息之后的电子健康凭证。我国利用自动化算法分析健康数据、地理位置数据、社交数据等个人数据,判断个人是否有可能已经感染新冠病毒。根据算法处理结果,人们将会获得红黄绿三种颜色之一的健康码。红码和黄码持有者得分别实施14天和7天的集中或居家隔离,只有绿码持有者才免于隔离,享有通行自由。

健康码仅仅展示感染新冠肺炎的可能性,红码者并非当然感染新冠肺炎。但源于政府依据健康码限制公民行为自由,健康码成为某种行政行为。生成健康码,在行政法上的行为类型属于行政评级。行政评级是指行政机关设定一些简明的评价标准,结合相对人的相关信息或者过往的行为予以定性评价,在此基础上可进行相应分类监管。生成健康码并非行政确认,在性质上与酒驾检测和车辆年检接近,应当属于“行政评级”。行政评级已被广泛运用于各个领域,例如餐饮业的卫生等级评定、纳税人的纳税信誉等级评定、行政审批中介机构等级评定以及备受争议的社会信用评价等。

当健康码成为一种可以限制出行自由的行政行为时,法秩序应当给于公民一定的保障。即便公民经过核酸检测后并认定未感染新冠肺炎,也会因为健康码是黄码或红码而被限制出行自由。然而,技术后台基于哪些数据比对分析,对各类数据如何赋值,在数据冲突时如何处理,风险等级的评定标准具体如何以及动态调整有哪些依据,这些由行政机关设定的标准却并未公开。人民缺乏对政府部门使用健康码的法定知情权。尽管《行政处罚法》《行政强制法》《行政许可法》等法律已经规定知情权,但是健康码的性质为行政评级,并非行政处罚、行政强制或行政许可。当然,也可以借助正当程序保护公民的知情权。但正当程序这一标准颇具模糊性,这使得行政机关使用算法的行为缺乏直接的法律拘束。

(三)破题之策:事后的、针对具体决定的算法解释权

《个保法》第24条第3款前半句规定,通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明。健康码是计算机程序处理个人信息的结果,属于通过自动化决策方式做出的决定;健康码颜色直接影响出行自由,应属于“对个人权益有重大影响的决定”。因此,在《个保法》生效之后,个人得据此请求公权力机关解释健康码。疑问在于,个人得请求解释具体的健康码决定,还是健康码的运行逻辑?

我国行政法要求行政主体在作出行政决定时,特别是做出对当事人不利的决定时,负有说明理由的义务,包括说明作出行政决定的法律原因和事实原因,并指出此为程序公证的必然要求。理由说明义务受到德国与美国学说的影响。《德国基本法》第5条第1款虽然没有直接规定知情权,但被认为已蕴含了“知情权”的因素;美国的知情权也对我国行政法产生深远影响。要求行政机关具体说明决策理由,有助于防止行政裁量权滥用、减少人民的对抗,并且能够构成司法审查的基础。借助算法的行政行为也应满足告知义务。尤其值得注意的是,法国行政法虽然不存在普适的行政告知义务,但2017年修改的《法国行政法典》规定每个独立的个体可以从行政机关获得下列信息:算法模型对决策的贡献程度和贡献方式;算法模型所依赖的数据及其来源;对参数的处理方式以及对各项指标的加权幅度;算法模型导致的结果。

就健康码这一行政行为而言,行政机关应当说明健康码的法律依据和事实依据。法律依据是指,行政机关为什么可以未经个人的同意处理个人信息。《民法典》第1036条将“维护公共利益”作为处理个人信息不予承担民事责任的事由之一;《个保法》第13条第1款第4项也进一步明确为应对突发公共卫生事件构成个人信息处理的合法性依据。两部法律为行政机关使用算法处理个人信息提供法律依据。事实依据则在于,健康码处理哪些个人数据,又依据何种逻辑作出判断。结合《个保法》第35条前半句和第17条,国家机关为履行法定职责处理个人信息的,也应当告知个人信息的处理目的、处理方式,处理的个人信息种类、保存期限等信息。

在个人与公权力场景,公权力不得以商业秘密为由拒绝解释具体的决定。欲解释具体的算法决定,难免要深入到“黑箱”内部,说明算法的逻辑、运行原理。在个人与公权力关系当中,基本权利保护居于优位。如果解释具体决定为侵犯商业秘密,公权力机关即不应使用算法为行政行为。公权力机关负有解释算法决定的义务,如果担心算法解释影响第三方的商业秘密,即不应使用该算法作出决定。此外,公权力也不得以解释不能拒绝解释具体的决定。一些复杂的算法难以解释,深度学习算法的决定也尚不具备解释可能性。如果公权力不能解释算法,即不得运用算法。无论如何,公民的知情权都应居于优位。

需注意,并非在社会治理的所有领域均不得使用不具备解释可行性的自动决策算法。在一些领域当中,算法的不透明性不但无害,反而有利:一旦算法公开,算法相对人可能有针对性地与算法对抗。例如,当美国联邦高速公路管理局拒绝披露对运营商安全等级评级的算法时,联邦法院只是要求政府部门公布影响算法结果的各因素的权重,而并未要求政府完整地公布算法设计,原因即在于算法透明可能带来的执法规避风险。再者,如果算法运用合理,不透明的算法可以弥补社会裂痕,维持社会共识。在我国社会的实践中,已经有不少案例充分发挥了不透明的算法的正面功能。例如,有的大学采取了以学生在食堂的消费情况为评定依据的算法发放助学金,这种算法既相对有效地确定了贫困学生的群体,又避免了贫困学生公开“比穷”、伤害贫困家庭孩子自尊心等问题。只是在何种情境之下可以不解释算法决定,应由法律明确规定。行政机关有依法行政的义务,目前仅有《个保法》第35条后半句允许公权力机关在特定情况不履行告知义务。除此之外,公权力机关应负有解释算法决定的义务。


四、私领域中事前的解释权


(一)智能经济与消费者权益保护

在个人与企业场景当中,算法不透明已然引发诸多纠纷。在“全国首例消费者因检索服务状告电商平台违约案”当中,原告以“我搜索的是国美冰箱,为什么出来的不全是国美牌冰箱?”为由起诉被告淘宝公司,认为淘宝公司的行为“辜负”了消费者的信赖,构成违约。在该案庭审当中,原告要求被告解释算法,但被告以商业秘密为由拒绝。该案中的原告不相信不透明的算法,认为自己遭受不公平的待遇。在我国确实出现过借助算法歧视和大数据杀熟的案例。例如某公司在运用算法筛选简历时,因闫某某为“河南人”而拒绝其应聘。歧视是一个杂糅了文化、社会和道德观念、历史和时间的因素,对于何种行为构成歧视并不存在统一的标准。但如果算法仅仅根据地域拒绝应聘者,那么便构成歧视。再比如,消费者在某应用程序预订宾馆,使用不同的手机搜索同一酒店、同一日期、同一房型价格在169元到217元之间波动。大数据杀熟已然引起人们的不满。如果个人有权请求解释算法的具体决定,有助于打破算法黑箱,实现算法正义。

但也需注意,在个人与企业关系当中,并不存在优位价值。与公民知情权保护不同,消费者保护与企业发展同为法律所欲促成的目标。欧盟部长委员会早在2010年就指出,自动决策算法有利于更好地细分市场和提供更好的服务,能够实现消费者和企业的双赢,可为用户、经济体和整个社会带来益处。自动决策算法能够降低商业风险和消费者负担。例如金融机构借助自动决策算法分析海量替代数据,不但在控制风险的同时极大地降低了运营成本,而且也使得没有存款记录、借贷历史的人能够获得贷款,推动“普惠金融”的实现;信用卡公司采用自动决策算法审核信用卡申请,极大地降低信用卡公司的管理成本,“免年费”成为可能;保险行业早于17世纪就已经使用算法控制风险——保险本就是由精算科学发展而来的,保险使得人们可以拿所在群体的集体风险为赌注,换取不幸发生时的自我保护——保险行业目前可以借助算法和大数据将人们分为更小的群体,提供更合适的产品和服务。因此,法律对商业自动决策算法的规范,应当致力于实现个人利益和商业利益之间的平衡,既鼓励商业自动决策算法发挥积极作用,同时又避免算法侵犯私权,造成实质不公。

(二)企业原则上不负有解释算法具体决定的义务

商业自动决策算法降低了商业风险和消费者负担,但也使得用户有沦为信用评分算法客体的危险。为了防止算法歧视和大数据杀熟,应当确保算法一定程度上的透明性。但算法透明并不意味着事后的、具体的算法决定解释权。

如果我们要求算法使用人事后解释算法的具体决定,可能会严重侵犯企业的知识产权。要解释算法决定,难免要深入设计层面。如果要求企业解释算法的设计,将使得企业的智慧成果暴露在竞争对手的视线当中。通过保守算法的秘密,企业得以维持自身的竞争优势和商业秘密,进而在激烈的市场竞争当中占据优势地位。无论如何强调算法监管,不扼杀行业的创新力和竞争力应是管理的底线。《欧盟条例》序言第63条明确强调,知情权不能损害企业的商业秘密、其他知识产权,特别是软件的著作权。即使在格外强调人权保障的德国,数据主体要求企业解释算法逻辑的主张也没有得到认可。德国2009年版《联邦数据保护法》第34条第4款第4项曾规定,信用评分机构必须应数据主体的要求以容易理解的方式解释每一个个案概率值的产生和意义;该条第2款规定,信用评分机构必须以完全能够理解的方式告知概率值的产生和意义。从文义上看,数据主体似乎有权请求告知算法的逻辑。然而,德国联邦最高法院2014年在对上述法条的解释中明确指出,数据主体不得请求披露权重、评分公式、统计值和参考组的信息等信息,因为这触犯了企业的商业秘密;披露企业的商业秘密也明显不符合立法目的。为了增加法的清晰性和确定性,德国2017年新《联邦数据保护条例》(BDSG)直接废除了原第34条。我国司法实践也采纳保护知识产权的立场。在厦门某脉技术有限公司与厦门市某睿信息科技有限公司的纠纷中,某脉公司主张算法的核心参数特征(Gabor参数)是其技术秘密,该主张得到法院的支持;在凌某某诉北京某播视界科技有限公司隐私权、个人信息权益网络侵权责任纠纷案当中,北京互联网法院认为,算法确实会涉及被告的商业秘密,告知和公开算法不属于对原告的个人信息进行保护的必要措施。2020年8月《最高人民法院关于审理侵犯商业秘密民事案件适用法律若干问题的规定》也将算法列入了技术信息范畴,使其正式成为我国知识产权法保护的对象。

再者,企业对复杂算法尤其是深度学习算法可能会出现解释不能的情况——企业没法解释具体的决定是怎么做出的。目前国际正在研究算法的可解释性问题,但尚未在技术上有根本性的突破。规范上的期望,倘若没有附带注意到可执行性问题,那么就无法获得实行。如果我们执意要求企业解释他们本就无法解释的算法决定,那么等同于限制复杂算法应用的推广。

值得注意的是,《算法推荐管理规定》(征求意见稿)第12条要求算法推荐服务提供者“应当”优化检索、排序、选择、推送、展示等规则的透明度和可解释性。正式通过的《算法推荐管理规定》并未规定算法推荐服务提供者的解释算法决定的义务,而是“鼓励”算法推荐服务提供者实现算法透明和可解释性。征求意见稿第17条第3款规定,用户认为算法推荐服务提供者应用算法对其权益造成重大影响的,有权要求算法推荐服务提供者予以说明并采取相应改进或者补救措施。《算法推荐管理规定》第17条第3款放弃权利式设计,而是规定算法推荐服务提供者“应当依法予以说明并承担相应责任”。算法推荐服务提供者说明算法决定的,应当“依法”进行,这也表明算法使用人并不负有全方位的算法解释义务。鉴于《算法推荐管理规定》主要规范商业算法,该规定试图柔化商业算法相对人的权利和算法使用人的义务。

最后,算法使用人应告知的是算法处理的个人信息,而非解释具体的算法决定。《个保法》第44条规定个人信息主体的知情权,第46条规定个人请求更正、补充个人信息的权利。数据的不完整、不准确将影响算法的最终决定。借助知情权,个人能够请求告知算法决定所依据的个人数据,从而借助更正权和补充权防止个人遭受算法错误决定的不利影响。

(三)个人对商业自动决策算法事前的、一般性的解释请求权

根据《个保法》第17条第1款第2项,个人信息处理者在处理个人信息前,应当以显著方式、清晰易懂的语言真实、准确、完整地向个人告知个人信息的处理目的、处理方式,处理的个人信息种类、保存期限。算法本质上属于处理个人信息的代码,因此算法使用人有义务向算法相对人告知算法的基本情况。据此,个人有权向算法使用人请求说明算法的基本情况。值得关注的是,《算法推荐管理规定》第16条规定,算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。公示算法的基本原理、主要运行机制,可能会侵犯算法使用人的知识产权。监管部门对算法的规范有过重的嫌疑。更何况,披露算法逻辑和运行原理可能会引发个人的博弈行为。例如,谷歌公开搜索排序算法后,很多网站就开始利用此类算法,在自己的网页内嵌套符合该算法的具有隐藏内容的网页,以此达到提高网站在谷歌搜索结果页面排名靠前的目的。我国网络“水军”盛行,他们通过人工或机器的方式不正当地改变某些评分,以此影响消费者的消费行为。如果法律强行要求公开算法逻辑,“水军”就可以更快地调整刷分策略,更精准地利用网站的算法漏洞。

再者,算法解释权的目标在于保障个人的知情权。但对于个人而言,真正想要了解的不是算法的构造、运行原理,而是对自己的可能的不利影响。《欧盟条例》第13条第2款第f项、第14条第2款第g项和第15条第1款第h项规定个人信息控制者应当告知个人信息主体算法的“相关逻辑的有意义信息,包括此类处理对于数据主体的重要意义和预期后果”,并未要求披露算法的基本原理和运作机制等核心信息。《欧盟条例》将告知重点明确为“对于数据主体的重要意义和预期后果”,因为算法规范的重点是确保算法相对人的知情权,使其在真正了解算法影响的基础上做出选择。算法使用人真正应当披露的是个性化推荐算法的使用目的、使用的数据类型和信息处理的可能后果以及预期影响等信息,而非算法逻辑和运行原理。

最后,算法结果拒绝权也可以帮助化解算法解释权之价值冲突困境。法律不要求解释算法的具体决定,并非就等于放任算法霸权的威胁。算法的不利影响还可以被其他制度化解,我们不能过于倚重算法解释权。《个保法》第24条第3款还规定了算法应用拒绝权:只要算法决策对个人产生重要影响,个人有权拒绝接受自动决策算法的决定,要求人工替代算法做出决定。即便个人不理解算法决定,也可以径自拒绝接受算法决定,从而避免受到算法的不利影响。与《欧盟条例》相比,我国的算法应用拒绝权并无例外条款的限制。这使得中国的算法应用拒绝权相较于欧盟而言更为强大。

综上所述,个人对商业自动决策算法的解释请求权原则上限于事前的、对算法基本情况的说明。算法解释应着重说明对于算法相对人可能的不利影响,而非解释算法的基本原理与运作模型,以免侵犯算法使用人的知识产权。


五、总结与展望:区分不同应用场景的算法治理


在大数据和人工智能时代,“算法+应用场景”这一模式正在快速席卷社会的各个领域。在这一结构当中,算法为赋能方式,应用场景为赋能领域,由此形成了一套“方式”与“领域”的叠加关系或结合关系。算法本身仅是一项计算法程序,正是因为其与具体应用场景相结合,人们结合应用需求有针对性地开发算法产品,算法才表现出强大的赋能性,由此引发应用失范的现象。因此,当我们讨论算法规范时,我们不能只谈技术,而必须考虑到算法在不同应用场景中的不同影响。
应用场景当中存在多元价值,叠加价值的存在使得设计统一的规则格外艰难。公共安全、个人权利、经济效率等价值相互交叠,使得算法治理举步维艰。算法解释权的规则设计应能够涵盖不同应用场景中的多元价值冲突。《个保法》第24条不要求决策“仅”由算法做出,也不明确规定算法解释权的法律效力,就是为了满足场景化治理的多样需求,给不同场景不同的算法解释权留出弹性空间。
在个人与公权力关系当中,政府机关借助算法从事行政行为的,不能侵犯公民的知情权。个人有权请求政府机关解释具体的算法决定。政府部门解释算法决定的,应尽可能以通俗易懂的方式为之。因为个人没有能力阅读算法、分析算法,没有算法使用人的帮助个人没法理解算法决定。只有充分理解算法决定,个人才可能会接受算法决定。再者,当个人提起行政诉讼时,法院也只有在了解算法决定的理由的基础上,才能判断行政行为的合法性。如果政府机关无法解释具体的算法决定,那么就不应使用自动化算法。知识产权保护或解释不能等事由,不能成为公权力机关不解释算法决定的理由。只有充分保障个人对公权力的事后的、针对具体决定的算法解释权,才能使得个人免受法律规则转换为计算机语言时带来的风险。最后,公权力机关仅有在法律明确规定“告知豁免”的情况下,才可以不解释具体的决定理由。德国《行政程序法》第39条第2款就规定五种情况下可以不说理由。不说明理由的原因在于,虽然行政相对人获得更充分的保护,但行政机会可能会丧失必需的效率。目前我国提供的告知豁免仅有《个保法》第35条,我国应进一步完善豁免例外制度。在缺乏明确法律规定的情况下,政府不得拒绝解释具体的算法决定的请求。
在个人与企业关系当中,我们一方面要防止个人沦为算法的纯粹客体,保障人的主体性,另一方面也要避免算法解释权阻碍复杂算法的商业应用,扼杀技术进步与商业模式的创新。因此,个人原则上仅得请求解释算法的基本情况,不得请求解释具体的算法决定。《算法推荐管理规定》第16条要求算法推荐服务提供者公示算法推荐服务的基本原理和主要运行机制,虽然体现出保护算法相对人的立法态度,但也有过度侵犯企业商业秘密的嫌疑。对于个人而言,最重要的信息是算法对自己可能的不利影响。算法使用人应有义务提供该信息,以使得个人对是否接受算法处理个人信息做出基本的判断。更何况,《个保法》第24条第3款后半句赋予算法相对人算法结果拒绝权。即便个人不理解算法决定,也能够直接拒绝接受算法决定,要求人工审核材料并做出判断。对于消费者而言,“给一个说法”的目的也是表达对于算法决定的不满。与其解释算法,不如允许消费者直接拒绝算法决定,一劳永逸地摆脱算法的影响。因此,即便商业机构以保护知识产权为由拒绝解释算法,也不会损害消费者的合法权益。
另需注意,在金融、社交传媒、超大型平台管理等特殊的个人-企业领域,法秩序基于特殊的风险控制的需求,创设了特殊的算法备案制度。最后,分场景地调整算法解释权的效力并不会影响算法透明目标的实现。算法透明作为一种信息监管机制,是数字社会化和社会数字化趋势下的必然选择,它有助于打消个人对决策自主性丧失的忧虑。算法解释权仅为实现算法透明的一种手段,《个保法》还设计算法评估、算法应用拒绝权、个人信息保护负责人、平台守门人规则等规则规范算法。因此,即便我们在一些场景当中调整算法解释权的效力,也未必会严重影响个人的利益。《个保法》第24条第3款规定的算法解释权应在不同场景、不同价值冲突当中寻找合理的平衡点,以此实现算法良治与算法效率的动态平衡。















本刊实行双向匿名评审。来稿经专家评审后,编辑部将及时通知作者。自收到稿件之日起,30日内没有收到修改意见或录用通知,作者可另行处理。







·官方网址:

fzyt.cbpt.cnki.net

·投稿邮箱:

fazhiyanjiu @vip.163.com

·联系电话:

0571-87059288


好看点一下 大家都知道

相关文章·冯健鹏:个人信息保护制度中告知同意原则的法理阐释与规范建构·高富平:GDPR 的制度缺陷及其对我国《个人信息保护法》实施的警示·吴文芳:个人信息保护法的社会法属性及其法律意义
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存