深圳热线-世界的深圳,我们的热线.

大数据时代的算法歧视及其法律规制

大数据时代以数据作为基础资源,算法决策作为核心引擎。数据是算法的依托,本身具有客观中立性,但人为设计的算法却不可避免地隐含偏见。如在就业领域,某些特殊群体在岗位推送和筛选上时常受到搜索引擎的差别对待;再如在市场营销方面,互联网平台通过大数据分析消费者的购买或浏览记录,对用户进行“画像”后,根据其喜好程度、收入水平的不同,在提供相同质量的商品或服务的情况下,分别实施“差异化定价”。此类在算法自动化决策中产生的不公平现象,被称为算法歧视或算法偏见。

随着算法决策深度浸润到人类日常生活和社会管理的方方面面,算法歧视在更广阔领域、以更加隐蔽的形式呈现,其可能引发就业、交易、理财等诸多领域不公平的差别对待,影响社会公平正义,有必要以法律手段对其加以规制。

准确把握算法歧视的产生逻辑是对其进行科学规制的前提。通常来说,算法歧视的成因有以下几方面:一是算法本身具有价值负载性。算法并非完全客观,而是往往蕴含某种预设的价值立场。若设计者存在某种价值偏见,并嵌入到信息的收集、标注、处理中,则算法的输出结果也会体现出价值偏见。二是数据输入的局限性和不正确性。若数据收集时,将社会存在的对某地区或人群的歧视行为作为范例,或数据收集范围为具有偏见意识的人群样本,则算法产生的“训练数据”亦将受到影响,并影响算法输出结果。三是算法黑箱造成的透明度缺失。算法从接受输入数据到输出决策结果的全过程,形成外界无法获知的“黑箱”,算法在其中进行数据的处理、评估及分析,并根据具体场景作出决策。算法“黑箱”的非透明性导致歧视行为更加隐蔽、难以察觉,进一步助长了某些算法设计和经营者为追逐经济利益而产生歧视行为。

法律应当积极回应时代的变化和需求,针对算法歧视的法律规制应当结合具体场景和现有问题循序渐进地开展。目前,欧盟主要通过《通用数据保护条例》中规定的“数据清洁”条款,从源头上移除特定种类的数据,以防止敏感数据对数据主体产生的歧视,总体遵循以数据保护为核心的规制路径,还有国家将算法规制的路径从算法透明转换为以结果为重心的算法审查,以平衡企业经济效益与社会公共利益。针对我国当前出现的算法歧视的具体情况,对其法律规制可从以下几方面展开。

确立算法运行的基本原则理念

在规制算法歧视的理念层面,应首先确立算法公正这一宏观指导原则。平等作为一项基本原则和权利早已规定于各项法律中,算法公正则是该法律原则在数据智能领域的进一步延伸。在算法公正原则的指导下,无论是算法的开发者、监管者还是运营者,均应当在涉及算法的工作中自觉维护公民的平等权利,避免对特定群体或地区产生不合理的差别对待。在具体操作过程中,各主体应遵守包括算法透明、算法解释、算法问责、算法包容以及算法审查等在内的各项细化原则。

合理配置相关主体的权利义务

从多元主体的利益平衡角度,规制算法歧视应当对个人进行赋权,同时对算法权力进行控制。首先是对个人进行赋权,一方面应当通过赋予公民免受算法决策支配的“选择退出”的权利,以降低其遭受算法歧视侵害的风险;另一方面,应当赋予公民对于个人数据信息的控制权,其有权限制企业收集其信息数据的范围,并且就企业收集的有关其个人的信息数据,有权要求企业进行解释和删除;其次是对算法权力进行控制,应针对算法设计者及运营者设置算法审查、算法风险评估以及算法解释等义务,要求其就算法应用中导致的算法歧视主动进行事前预防、事中控制以及事后矫正,通过全过程的风险把控以抑制和约束其行为。

建立专门的算法违规问责制度

当预防措施无法有效遏制算法控制者的歧视行为时,确有必要对算法歧视造成主体权益的侵害进行追责。具体而言,问责制度的建立包括两个层面内容:一是明确侵权者并要求其承担责任。应当通过设计适当的归责原则和因果关系认定规则,明确算法歧视的责任主体,其中一般涉及算法设计者与算法运营者的责任划分问题,进而在确定责任主体的基础上明确各主体分别应当承担的民事或行政责任。二是畅通受害者权利受侵害的救济途径。一方面,算法运营者应通过适当的方式,确保受害者有充足的质询、反馈和投诉通道,并就受害者提出的问题积极进行回应和补救;另一方面,应建立相应的集体诉讼制度,保证受害者得以通过司法途径维护自身合法权益。集体诉讼有助于改善受侵害个体与算法控制者之间的信息和资源的不平等地位,提升受侵害者的谈判和议价能力,是缓解受侵害者弱势地位并保障其诉讼权益的有效办法。