保险业个人信息保护“必答题”(二)—— 个人信息使用中的“自动化决策”
2022-04-25

 引 言 


2022年3月15日,在银保监会举行的“银行业保险业深入推进金融消费者保护”专题发布会上,银保监会消保局局长郭武平明确表示,今年将组织开展银行业保险业个人信息保护专项整治,推动银行业保险业落实《个人信息保护法》,提升个人信息使用的规范性,保护消费者信息安全权


保险行业的个人信息保护现状和重点如何?《个人信息保护法》的施行将对保险行业提出哪些合规要求?对此,笔者拟推出“保险业个人信息保护必答题”系列文章,对个保法时代保险业面临的合规问题进行分析与解读。本文将主要聚焦于保险行业在个人信息使用中“自动化决策”的相关内容,进行分析解读。

 

概述


保险行业正在运用大数据等技术手段对个人信息进行处理,并将自身产品向个性化、差异化、精细化演进。当保险机构获得的数据维度不断增多,颗粒度不断缩小,未来势必将通过大数据的方式来精确地勾画出每个被保险人的风险状况,进而“跨过卢比孔河”,从而有可能实现自动化决策[1]。随之而来的,“大数据杀熟”、“精准营销”、“用户画像”、“算法推荐”等情形涌现,大数据算法的负面效应一一浮出水面。


二  

自动化决策的“傲慢与偏见”


大数据杀熟是利用用户数据对新老用户实施差异化的歧视对待,严重违反了公平合理原则,被《个保法》等法律法规明令禁止。其中较为常见的即对新老用户进行价格歧视。比如,在使用打车软件时,老用户所支付的价格会比新用户的价格高,旅游App会针对使用时长不同的用户进行不同报价。诸多不同类型的软件,都因存在“杀熟”现象而被广为诟病。此外,在浙江省绍兴市柯桥区人民法院审理的“携程大数据杀熟案”中,判决认为携程APP的“隐私政策”要求用户许可其使用用户信息进行营销活动、形成个性化推荐,同时要求用户同意携程将用户的订单数据进行分析,从而形成用户画像,以便携程能够了解用户偏好,上述信息超越了形成订单必需的要素信息,属于非必要信息的采集和使用 。


在保险领域,基于不同风险状况,厘定差异化、个性化和精准化定价,并决定是否承保,是保险行业定价的基础。但随着保险公司获取数据的不断精细化,个人的睡眠时长、睡眠质量、实时心率和血氧等健康信息都在可获取范围之中。更有甚者,以重疾险为例,可以通过获取个人遗传基因信息、未来发病可能性等敏感个人信息,进行差异化定价。此种情况下,保险产品的定价与决策越来越具“差别对待”特征,将触及自动化决策的规制。


基于《个保法》对“自动化决策”[3]定义,在行为上分析、评估个人选择倾向,方式上利用“计算机程序自动”开展,即属于“自动化决策”。据此笔者认为,使用“用户画像”进行个性化评价或推送、对面试人员的基于个人信息系统进行自动化筛选等,均属于“自动化决策”的范畴,不仅限于上述所提的大数据杀熟场景。

三  

“自动化决策”的法律规制


目前,《个保法》《电子商务法》等法律法规均从立法层面上对“自动化决策”问题进行规制;《信息安全技术个人信息安全规范》《互联网个人信息安全保护指南》等规范和指引亦对“自动化决策”问题进行明晰。此外,《价格法》《反垄断法》禁止价格歧视、差别待遇等违法行为的规定,也可以作为规制市场主体滥用自动化决策行为的实体法依据。可以说,结合不同的规范领域和层次,“自动化决策”及背后的算法技术规制,已然形成了一整套利益平衡的规制框架。以下为我们所作之梳理,供读者参考。


法律法规

具体内容

《个人信息保护法》

第二十四条

个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。

通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。

通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。

《电子商务法》

第十八条

电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。

《在线旅游经营服务管理暂行规定》

第十五条

在线旅游经营者不得滥用大数据分析等技术手段,基于旅游者消费记录、旅游偏好等设置不公平的交易条件,侵犯旅游者合法权益。

《禁止网络不正当竞争行为规定》

第二十一条

经营者不得利用数据、算法等技术手段,通过收集、分析交易相对方的交易信息、浏览内容及次数、交易时使用的终端设备的品牌及价值等方式,对交易条件相同的交易相对方不合理地提供不同的交易信息,侵害交易相对方的知情权、选择权、公平交易权等,扰乱市场公平交易秩序。交易信息包括交易历史、支付意愿、消费习惯、个体偏好、支付能力、依赖程度、信用状况等。

《国务院反垄断委员会关于平台经济领域的反垄断指南》

第十七条差别待遇

具有市场支配地位的平台经济领域经营者,可能滥用市场支配地位,无正当理由对交易条件相同的交易相对人实施差别待遇,排除、限制市场竞争。分析是否构成差别待遇,可以考虑以下因素:

(一)基于大数据和算法,根据交易相对人的支付能力、消费偏好、使用习惯等,实行差异性交易价格或者其他交易条件;

(二)实行差异性标准、规则、算法;

(三)实行差异性付款条件和交易方式。

……

《信息安全技术个人信息安全规范》

7.4 用户画像的使用限制

……

7.7 信息系统自动决策机制的使用

……

《互联网个人信息安全保护指南》

6.3 c) 完全依靠自动化处理的用户画像技术应用于精准营销、搜索结果排序、个性化推送新闻、定向投放广告等增值应用,可事先不经用户明确授权,但应确保用户有反对或者拒绝的权利;如应用于征信服务、行政司法决策等可能对用户带来法律后果的增值应用,或跨网络运营者使用,应经用户明确授权方可使用其数据。

《数据安全管理办法(征求意见稿)》

第三十二条

网络运营者分析利用所掌握的数据资源,发布市场预测、统计信息、个人和企业信用等信息,不得影响国家安全、经济运行、社会稳定,不得用于用户个性化营销损害他人合法权益。

《价格违法行为行政处罚规定》(修订征求意见稿)

第十三条【新业态中的价格违法行为】 违反价格法第十四条规定,有下列情形之一的,给予警告,可以并处上一年度销售总额1‰以上5‰以下的罚款,有违法所得的,没收违法所得;情节严 重的,责令停业整顿,或者吊销营业执照:

(一)电子商务平台经营者利用大数据分析、算法等技术手段, 根据消费者或者其他经营者的偏好、交易习惯等特征,基于成本或正当营销策略之外的因素,对同一商品或服务在同等交易条件下设 置不同价格的;

《深圳经济特区数据条例》

第二十九条

数据处理者基于提升产品或者服务质量的目的,对自然人进行用户画像的,应当向其明示用户画像的具体用途和主要规则。自然人可以拒绝数据处理者根据前款规定对其进行用户画像或者基于用户画像推荐个性化产品或者服务,数据处理者应当以易获取的方式向其提供拒绝的有效途径。

第三十条

数据处理者不得基于用户画像向未满十四周岁的未成年人推荐个性化产品或者服务。但是,为了维护其合法权益并征得其监护人明示同意的除外。

《浙江省电子商务条例》

第十五条

在线旅游经营者不得滥用大数据分析等技术手段,基于旅游者消费记录、旅游偏好等设置不公平的交易条件,侵犯旅游者合法权益。


四  

保险行业利用个人信息自动化决策的合规义务


(一)事前进行个人信息安全影响评估


《个保法》第55条和56条规定:“个人信息处理者利用个人信息进行自动化决策应当事前进行个人信息保护影响评估,并对处理情况进行记录,个人信息保护影响评估报告和处理情况记录应当至少保存三年。”结合《个人信息安全影响评估指南》(GB/T 39335-2020)之规定,评估要点应当至少包括但不限于以下内容:


-    个人信息的处理目的、处理方式等是否合法、正当、必要;

-    对个人权益的影响及安全风险;

-    所采取的保护措施是否合法、有效并与风险程度相适应;

-    是否向用户说明了自动化决策的基本原理或运行机制;

-    是否定期对自动化决策的效果进行评价;

-    是否对自动化决策使用的数据源、算法等持续优化;

-    是否向用户提供针对自动化决策结果的投诉渠道;

-    是否支持对自动化决策结果的人工复核。


(二)遵循公开透明原则


公开透明原则是指个人信息处理者进行自动化决策时,应使决策公开,能够被他人知悉[4]。《互联网信息服务算法推荐管理规定》(“《算法推荐管理规定》”)对公开透明原则进一步细化:“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等”。


对此,保险公司可以在隐私政策中明确告知使用自动化决策或者进行用户画像分析的业务场景,对所使用的个人信息类型、目的和方式、算法推荐服务的基本原理、目的意图、运行机制等基本要素进行明示,并在具体的业务模块中使用弹窗、页面标签等形式向用户明确告知自动化决策机制的使用。


(三)遵循公平合理原则


对于算法机制的不当使用可能会导致结果失衡,对个人信息权益造成侵害,因此《个保法》要求决策结果的公平公正性,不得在交易条件上实行不合理的差别待遇。对决策结果公平、公正可能产生影响的因素,参考上海市市场监管局制定发布的《上海市网络交易平台网络营销活动算法应用指引(试行)》(“《上海算法指引》”),可以考虑如下:“(1)参数设置是否科学、合理;(2)消费者画像是否公正、客观、真实;(3)决策规则设计是否科学、合理”。关于参数设置、消费画像,《算法指引》中均有进一步列明[5]。


对于“差别待遇”,《国务院反垄断委员会关于平台经济领域的反垄断指南》规定,“可以考虑的因素包括:(1)基于大数据和算法,根据交易相对人的支付能力、消费偏好、使用习惯等,实行差异性交易价格或者其他交易条件;(2)实行差异性标准、规则、算法;(3)实行差异性付款条件和交易方式”。《深圳经济特区数据条例》中将交易条件细化为交易安全、交易成本、信用状况、交易环节、交易持续时间等方面,并以例外条款的形式规定了不被认为属于“对交易条件相同的交易相对人实施差别待遇”的情形,如拉新促销等。《上海算法指引》则要求“不得对消费者在交易价格、交易机会等交易条件上实行不合理的差别待遇”,同时对例外情形予以排除规定,如基于实际需求且正当的交易习惯和行业惯例、对新用户在合理期限内开展的优惠活动、基于平台公平、合理、无歧视规则实施的随机性交易、基于保障弱势群体利益和安全等。


据此,保险公司通过大数据分析和自动化决策,为用户提供个性化和精准化服务时,应将个性化服务的差异对待限于合理范围之内。


(四)赋予用户选择或拒绝的权利


《个保法》第24条第2款规定:“通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。”保险公司在进行自动化决策时应赋予用户选择或拒绝的权利。如何理解向用户提供不针对其个人特征的选项成为相关企业重点关注的问题,《个人信息安全规范》7.5 b)的注释中曾给出较为明确的解答,“基于个人信息主体所选择的特定地理位置进行展示、搜索结果排序,且不因个人信息主体身份不同展示不一样的内容和搜索结果排序,则属于不针对其个人特征的选项。”因此,除提供基于用户画像形成的结果展示,保险公司同时向用户提供基于其他要素,如评价等维度排序的功能,则可以认为向用户提供了不针对个人特征的选项。该规定可能对产品设计层面提出了更高要求,确保用户资助选择并切换所希望看到的频道和内容。


对于拒绝方式的提供,可以进行关闭功能的设置,如在“隐私”功能中加入“是否允许推送个性化广告”的选项开关,用户可以自主选择关闭,从而避免信息茧房的出现。但应当注意,拒绝不得以剥夺用户其他权益为代价,如基础功能的使用。


(五)对个人权益有重大影响的决定,应保障用户的解释权和拒绝权


《个保法》对“对个人权益有重大影响的决定”的定义暂付阙如。但域外立法经验、国内现行规范指南等可提供一定的借鉴。如《信息安全技术个人信息安全影响评估指南》(GB/T 39335-2020)第5.5.1条则从限制个人自主决定权、差别性待遇、个人名誉受损或遭受精神压力、人身财产受损四个维度对个人权益影响的程度进行评估。在域外立法上,GDPR第二十二条明确规定:“数据主体有权不受到对其产生法律效力或对其造成类似的重大影响的自动化决策的限制。”在此基础上,欧盟第二十九条数据保护工作组制定的《关于自动化个人决策目的和识别分析目的准则》(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679),将“对个人权益有重大影响的决定”界定为“具备对个人的境况、行为或选择产生重大影响的潜在可能,在最极端的情况下,可能导致对个人的排除或歧视的决定”,包括:影响某人的财务状况的决定,如在线申请信用卡以及向经济困难的人展示在线赌博广告,以及影响某人的就业机会的决定,如在线招聘。


《个保法》虽赋予了个人信息主体要求算法解释和拒绝自动化决策的权利。但对于算法解释权和拒绝权的具体实践行使,仍待进一步明晰。


(六)避免向未成年人进行个性化推荐


虽《个保法》未明文禁止向未成年人进行个性化推荐,但参照《深圳经济特区数据条例》第30条的规定“除为了维护未满十四周岁未成年人的合法权益并征得其监护人明示同意外,不得向其进行个性化推荐。”《算法推荐规定》第16条更是明确“算法推荐服务提供者不得向未成年人用户推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息内容,不得利用算法推荐服务诱导未成年人沉迷网络。”


未满十四周岁未成年人的个人信息属于敏感个人信息,只有在具有特定的目的及充分的必要性,并采取严格保护措施的情形下才可进行处理。因此,保险公司对未成年人个人信息进行自动化决策时,应采取严格保护措施并注意对推荐内容的完全审核,以降低自身合规风险。

 结 语 


考虑到保险定价、推介等做法的特殊性,应进一步关注算法推荐、自动化决策在保险领域的运用和规制,避免对用户个人信息权益造成侵害。保险行业传统的概率、大数法则之行业理念,如何能够和《个人信息保护法》的最新要求结合在一起,是行业面临的更长远和深刻的问题。



[1] 靳毅:《<个人信息保护法>对寿险业的挑战与机遇》,载《保险理论与实践》2021年第9辑。

[2] 参见《大数据杀熟,携程被判退一赔三!》,载人民法院报公众号2021年7月13日,https://mp.weixin.qq.com/s/rvvIo3HSRcH9Cdt9xndYdw。

[3] 《个人信息保护法》第73条 自动化决策是指通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况,并进行决策的活动。

[4] 杨立新、赵鑫:《利用个人信息自动化决策的知情同意规则及保障—以个性化广告为视角解读<个人信息保护法>第24条规定》,载《法律适用》2021年第10期。

[5] 《上海市网络交易平台网络营销活动算法应用指引(试行)》第七条(参数设置) 网络交易平台经营者应用算法时,应根据行业类型、业务场景等实际情况,科学、合理地设置相关参数条件和权重。

网络交易平台经营者不应将浏览次数、支付意愿、支付能力、依赖程度、交易频次、交易时使用的终端设备品牌等作为与消费者进行交易的条件参数。

第八条(消费者画像)网络交易平台经营者利用消费者个人信息进行用户画像时,应当符合《个人信息保护法》《消费者权益保护法》等法律法规的规定,确保消费者画像依据来源合法,尊重消费者人格尊严,避免使用有违社会公德、歧视性、偏见性用户标签,发现消费者画像存在错误的,有必要及时进行修改。

网络交易平台经营者使用含有下列内容的用户标签对消费者进行画像,可能会侵犯消费者的人格尊严,影响消费者画像的公正、客观性:

(一)使用含有淫秽、色情、赌博、迷信、恐怖、暴力的内容;

(二)使用含有表达对民族、种族、宗教、残疾、疾病、性别歧视的内容;

(三)使用含有其他有违公序良俗的歧视性、侮辱性文字的内容。





往期推荐


保险业个人信息保护“必答题”(一)| 个人信息收集与存储

《公平竞争审查制度理解与适用》一书出版

邦信阳中建中汇陈云开律师授课2020年公平竞争审查业务培训班



长按下图识别二维码关注我们

© 上海邦信阳中建中汇律师事务所

本文仅作为交流学习之目的使用,文中观点不代表本所立场,亦非作者的正式法律意见。本文系邦信阳中建中汇律师原创文章,转载请完整注明作者信息及出处。

点击“阅读原文”,登录邦信阳中建中汇官网了解更多资讯。