阳光下的算法信任
2022-03-03


//

前 言



算法依托确定的输入输出过程,能够实现相较于自然人更为客观、理性和有效的决策。基于此,算法被人们依赖甚至信仰,借助算法解决问题成为超越人类认知局限和执行能力的更优选择,甚至有学者断言,我们正在逐步迈入一个围绕算法逻辑而组织和运转的“算法社会“。与此同时,算法从其诞生伊始,便带着“算法歧视”“黑箱”“易被操控”“信息茧房“等原罪以及由于其“不被解释”“无法救济”和“可问责性低”而产生的“算法暴政”,越来越多的声音呼吁将算法关进“法治的牢笼”。


有鉴于此,2021年12月31日,国家互联网信息办公室、工业和信息化部、公安部、国家市场监管总局联合发布《互联网信息服务算法推荐管理规定》(以下简称《算法规定》),该《算法规定》自2022年3月1日起施行。《算法规定》设置了更清晰的监督管理体制、更明确的算法推荐服务提供者义务以及更全面的用户权益保护三个维度以回应公众对于算法的担忧。本文拟简要分析通过《算法规定》构建的提升算法透明度的体系。


基于技术鸿沟、商业秘密以及认知不足等原因,算法的运作带有一定不透明性,监管部门、社会公众和平台用户难以洞悉算法运作的机理,无形中增加了外在监督难度[1]以及内在的不信任。由北京大学互联网发展研究中心与互联网公司联合发布的《中国大安全感知报告(2021)》显示,有七成受访者感到算法能获取自己的喜好、兴趣从而“算计”自己,近五成受访者表示在算法束缚下想要逃离网络、远离手机。[2]对于算法的信任危机正是我们需要解决的迫在眉睫的问题。算法的黑箱操作让监管部门、公众以及用户难以建立起对于算法的有效监督以及对于算法的信任,更不用说有效行使用户的自由选择权以及公平交易权了。我国《关于加强互联网信息服务算法综合治理的指导意见》第十三条就对算法的透明度提出要求,“推动算法公开透明。规范企业算法应用行为,保护网民合理权益,秉持公平、公正原则,促进算法公开透明。督促企业及时、合理、有效地公开算法基本原理、优化目标、决策标准等信息,做好算法结果解释,畅通投诉通道,消除社会疑虑,推动算法健康发展。”为落实上述公开透明的原则并解决算法信任危机,《算法规定》从基本原则、用户知情权和算法推荐服务提供者解释义务、用户个体私权利和公权力介入算法决策权三个角度提出了解决方案。


 

基本原则


《算法规定》第四条要求“提供算法推荐服务,应当遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用原则。”对于如何理解“公开透明”,我国《新一代人工智能伦理规范》第十二条规定,“增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。”当然这里的公开透明并非是指把所有与算法决策相关的全部信息或者内容均大白于天下而追求绝对透明,法律法规还是需要平衡考虑算法推荐服务提供者的知识产权保护以及所面临的披露成本。因为一则“算法的系统性解释,往往意味着算法决策机制一定程度的公开,会对企业包括商业秘密等知识产权的保护带来一定的挑战。而算法如果向包括社会公众在内的人员完全公开,则可能导致社会主体钻算法的空子,采取各种方式来“算计”算法,二则“绝对透明永无止境,信息的无限度披露也只会引起信息过载与选择疲劳”。[3]一般用户对专业的底层算法没有技术能力也没有时间去做真正的认知与解读。


二  

用户的知情权以及算法推荐服务提供者的解释义务


对于受到算法影响的用户的知情权保护无论是在《算法规定》《个人信息保护法》或者欧盟《通用数据保护条例》(General Data Protection Regulation,以下简称“GDPR”)中均有所涉及。

《个人信息保护法》第二十四条明确规定,“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明”,虽然对于说明的方式、时间、范围以及未说明的后果没有具体规定,但个人对于算法的知情权是毋庸置疑的。在《算法规定》中,对于告知的方式和告知范围有着更加明确和详细的要求。《算法规定》第十六条规定,“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。”另外,《算法规定》第十七条规定,“如果该算法对用户权益造成重大影响的”,除了上述一般告知义务以外,算法推荐服务提供者还应当“依法予以说明并承担相应责任”。我们认为,这里的“说明”可以理解为,高于第十六项下的一般告知义务的具体解释说明,而并非没有太多实际意义的告知,以使用户在充分了解决策机制、运行逻辑和后果影响的前提下作出自愿选择并由此建立与算法推荐服务之间的良好信任关系。

尽管《算法规定》中有知情权和解释义务,但如何通过简单、易懂以及便捷的方式使用户获得并理解算法的逻辑、原理、目的以及后果,具体告知和解释的时间、程度以及范围等,还需在实务中进行探索。

GDPR 中对于个人信息主体在自动化决策过程中的知情权也有规定:“个人信息处理者为确保公正、透明地进行数据处理,其应当在获取个人信息时,向个人信息主体提供以下信息:(f)控制者对个人信息的自动决策机制,包括第22条第1款以及第4款所述的数据画像。在该种情况下,控制者至少向数据主体提供数据画像过程中运用的逻辑以及该种数据处理对于数据主体的重要性和可能产生的后果。”


GDPR


三  

个体私权利和公权力介入具体算法决策的权利

个体以及监管机构并非只是被动地被告知或者解释,《算法规定》还赋予了其主动介入算法决策过程的权利,因为将个体私权利与公权力纳入到算法治理以及决策的体系中来,是提高算法透明度的重要举措之一。

(一)私权利的介入

对于个体私权利介入算法决策,《个人信息保护法》第二十四条就有明确规定,《算法规定》通过以下两项权利对此进行了重申或者强化:

1、赋权用户进行标签管理

用户标签就是对用户某个维度的特征的描述,其在真正实现洞察并理解用户的需求中发挥了关键作用。但为了防止形成伦理风险(接收不良或者违法信息)或者算法歧视,《算法规定》要求一方面“算法推荐服务提供者应当加强用户模型和用户标签管理,完善记入用户模型的兴趣点规则和用户标签管理规则,不得将违法和不良信息关键词记入用户兴趣点或者作为用户标签并据以推送信息”,另外一方面“算法推荐服务提供者应当向用户提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能。”

2、用户的自由退出

《算法规定》第十七条要求算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。

尽管有上述标签管理和自由退出的权利,但是在实务操作中如何能够方便、快捷地选择或者删除用户标签以及退出算法推荐以实现该权利,还需进一步的观察。

GDPR 中还规定了在自动化决策时,数据控制者应当采取适当的措施保护数据主体的权利、自由和合法利益,至少包括为表达其观点和挑战某项决定而对控制者获得人为干预的权利。

(二)公权力的介入

对于公权力介入具体算法决策的权力,是要求算法对于公权力的透明,即所谓透明监管理念在算法技术规范中的再次强调与应用。为此,《算法规定》要求对于具有舆论属性或者社会动员能力的算法推荐服务者的全周期备案义务(提供服务时、备案信息发生变更时以及终止服务时的备案)和安全评估义务,网信部门对于备案的形式审查权以及网信和其他有关部门对于算法推荐服务的安全评估和监督检查权。与此相对应,GDPR 第五条即规定,个人数据应以对数据主体合法、公平和透明的方式而被处理。基于此,算法透明应当也是题中之义。同时《数字市场法》里面也对欧盟委员会了解算法并获取解释的权力也做了明确规定,同时违反上述规定的企业将被课以相应的罚款。


四  

结语

总之,提高算法的透明度的核心目的在于实现公众和政府监督、确保用户的知情权和自主权实现,但具体的权利内容和外延、算法透明的范围、程度和路径以及实现权利的方式尚需进一步澄清。当然,除了透明度的提升以外,《算法规定》中还对算法推荐服务提供者的主体责任、算法与垄断和不正当竞争以及特殊主体的权益保护等作出了重要规定,我们将在后期通过专题进行讨论。



[1] 中国信息通信研究院政策与经济研究所/新华网大数据中心,《算法治理蓝皮书》,2022年。

[2] 南方周末,《互联网信息服务算法推荐管理规定》明日起正式施行,2月28日。

[3] 丁晓东,《基于信任的自动化决策:算法解释权的原理反思与制度重构》,《中国法学》2022年。






往期推荐


奥运元素广告合规指南

邦信阳中建中汇 | 田小丰律师入选《商法》The A-List法律精英 : 2021年100位“中国法执业优秀律师”

邦信阳中建中汇合伙人田小丰律师荣膺“2021年度LEGALBAND客户首选:合规多面手15强”



长按下图识别二维码关注我们

© 上海邦信阳中建中汇律师事务所
点击“阅读原文”,了解更多资讯。