理性看待算法治理:从“算法选择”到“选择算法”| 算法E思考之二

作者 | 财经E法 樊瑞 编辑 | 朱弢  

2022年06月13日 19:09  

本文4778字,约7分钟

应该全面理性看待算法,无需片面强调算法的危害。

算法正在深度嵌入人们生活,过往,人们似乎只能被算法选择,而现在也可以选择算法。

2021年可以称为中国算法治理元年。2021年9月17日,国家网信办等九部门发布《关于加强互联网信息服务算法综合治理的指导意见》,提出“利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局”。

在2021年12月31日,国家网信办、工信部、公安部和市场监管总局等四部门发布《互联网信息服务算法推荐管理规定》(下称《算法推荐管理规定》),这是中国第一部全面性、系统性规制算法的法律文件。

2022年4月,中央网信办牵头开展“清朗·2022年算法综合治理”专项行动。此专项行动是为落实好《算法推荐管理规定》,深入排查整改互联网企业平台算法安全问题,督促企业利用算法加大正能量传播、处置违法和不良信息、整治算法滥用乱象、积极开展算法备案。

中国在算法治理上的立法与监管行动的统筹安排,以及对算法透明度、算法问责、算法可解释等关键问题的关注,走在世界前列。总体来看,在强化伦理道德规范的同时,中国的算法治理正加速从软法引领进入硬法规制阶段。

在算法治理过程中,也伴随着质疑算法霸权、强调算法危害的各种声音。多位受访专家认为,人们更应该回归理性,重新梳理对算法的认知。算法到底如何影响人们的生活?算法推荐一定以牺牲用户隐私为代价吗?大众对算法是否有选择权?未来的算法治理路在何方?

算法扮演何种角色?

当下,算法无处不在,它在给人们带来便利的同时,也有被滥用的风险,对此应当保持趋利避害、全面看待的理性态度。

算法作为人工智能底层技术,内嵌于平台经济和技术社会的多元场景之中,也在不断更新和扩充着自己的角色。对外经济贸易大学数字经济与法律创新研究中心执行主任张欣表示,在日益复杂的应用场景中,算法至少体现为相互交织的三重角色。

首先,依据特定计算模型将数据转化为可预期结果,算法作为高效、精准的编码程序体现为纯粹的工具价值,是一种技术和物质存在。

其次,算法逐步超越程式推理系统,作为基础设施嵌入到平台经济和社会之中,将时间、空间、关系和话语等多种社会要素相互连接,扮演辅助人类在特定场景下进行资源再分配的中介性角色。

再次,依赖于自身计算精准、运转高效、超出人类计算能力的特质,算法在众多场合成为人类决策的“代理人”和“接管人”,开始担当自主决策的主体,并成为“社会权力”的构成部分。

张欣认为,在第二和第三层面上,算法通过分类、排序、过滤、推荐、预测、评估等技术组合,直接塑造人们被对待的方式和预期机会,对社会关系和社会秩序予以重塑。从纯粹的计算工具到中介性基础设施,再到人们决策的“代理人”和“接管人”,算法的社会嵌入性不断增加,在社会秩序中完成了执行性角色到代理人角色的转换。

“因此,算法应当被理性看待,其具有技术工具特质、资源分配中介特质以及社会权力特质。”张欣认为,在看待算法时,应当结合具体的场景和主要特质来具体分析,不应将其仅视为社会生态之外单纯的技术存在,而应当关注其在代码基础上不断重塑社会秩序的决策能力。

算法推荐一定会牺牲用户隐私吗?

根据《算法推荐管理规定》,算法推荐技术,包括利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等五种类型的算法技术向用户提供信息。

其中,个性化推送与普通用户关系尤其紧密,个性化推送包括个性化推送内容和个性化推送广告。从抖音、美团、小红书等App个性化推荐说明中可以看到,系统会把用户的点击、关注、收藏数据,甚至手机型号、操作系统版本、地理位置等作为推荐依据。

据张欣介绍,个性化广告推送是算法推荐的典型应用场景之一。其主要机理是利用算法技术精准地确定目标受众,有效利用用户行为记录、点击、评分等信息,预测每位用户对商品的潜在需求和偏好,并结合地理位置等背景信息进行精准广告投放。

有研究表明,国内的一些头部互联网企业以及国外的一些代表企业,已经将数据挖掘与程序算法发展到一个新高度,可以挖掘用户的历史数据和比较用户的消费偏好,精准预测和推荐用户可能感兴趣并触发购买行为的商品。

张欣表示,近年来主要采用的用户偏好获取技术的确需要调用大量的数据组合作为显性偏好和潜在偏好的获取来源,比如用户评论、评分、点击、浏览、应用安装、IP地址、位置和时间,以及社交网络信息等。有时还需要借助其他领域的数据,来完善用户偏好以实现精准化投放和最佳匹配。

有网友担心,个性化推送广告是以牺牲用户个人信息和隐私为代价。中国政法大学数据法治研究院教授张凌寒指出,个性化广告推送需要基于个人的特点和兴趣,才能进行更合适的广告推荐,吸引用户的点击和转化。其实在传统的线下商业场景中,店员也会询问客户的相关个人信息与情况,并推荐合适的产品与服务,对此人们并没有普遍的担忧与焦虑。而在互联网时代,信息数据变得更容易流动,更多的担忧并不是来自于商家、平台采集个人信息与隐私,而是担忧这些数据被利用于不正当的传输、共享甚至泄露,根本上还是个人信息保护的责任问题。

张欣从技术规范和法律规制角度指出,个性化广告推送并不一定非要以牺牲用户个人信息和隐私为代价。一方面,推荐系统在设计和应用时完全可以通过一系列技术最大化地保护用户的隐私信息。例如,创建假名系统保护用户隐私;或者通过评级方式对不具备代表性和说明性的用户属性和信息进行筛选,再或者根据影响程度对信息进行脱敏处理等。

另一方面,依据个人信息保护法、《算法推荐管理规定》以及相关技术标准,如果用户的选择退出权、标签删除权、反对权、知情权等各项权利能够得到切实保障,那么个人信息和隐私也能够在个性化广告推送实践中得到稳妥保护。

面对算法,用户如何保有自主性

当算法已经无处不在的时候,人们应该如何与算法相处?用户是否总是居于被动地位,在算法治理过程中,用户如何体现其自主性?

据张凌寒介绍,在《算法推荐管理规定》出台后,用户在算法治理中的主动地位得到一定程度的改善。随着算法责任的落实,用户有了更多机会质疑甚至拒绝算法。用户在绝大多数场景中属于算法服务的接受者,仅仅具有简单的法律赋权。用户真正参与到算法治理过程中,应当是与使用算法的平台产生良性互动,通过构建算法制定和运行结果的公众参与、沟通反馈机制参与其中。

其实在2019年开始施行的电子商务法就要求,电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时“提供不针对其个人特征的选项”。这一规定在个人信息保护法第二十四条中被进一步强调,“通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。”《算法推荐管理规定》也要求,“向用户提供便捷的关闭算法推荐服务的选项”。

在《算法推荐管理规定》颁布实施之前,电商平台多以提供价格排序、销量排序的方法提供不针对个人特征的选项。一些头部平台企业也上线了 “关闭定向广告推送”“关闭个性化推荐”的选项。在个人信息保护法实施之后,大量平台企业已经开始开发并上线此类功能。

而《算法推荐管理规定》明确提出了关闭算法推荐的“便捷性”要求,意义重大。张凌寒表示,这是为了进一步方便用户,也通过法律将用户对算法“说不”的权利落到实处。

根据个人信息保护法第二十四条的规定,如果是涉及用户重大权益的自动化决策,用户还有权获得解释说明。这一规定的目的在于揭开用户接收信息的“个性化面纱”,使得用户可以看到真实的“自然搜索结果”,而非置身于为自己量身定制的广告、新闻、定价等信息流中。这对于保障用户的知情权至关重要,可以让用户基于更为真实多样的信息做出消费决策。

财经E法调研发现,在既往的平台实践中,选择关闭个性化推送的用户并不多,并且有很多用户关闭之后选择再次打开。调研中,有用户反映关闭个性化推送之后找不到自己需要的商品和信息,上网搜索信息的效率大大降低。张凌寒指出,这是因为存在“长尾效应”,置于热点之后的信息如果没有个性化推送算法的精准匹配,很难呈现到平台信息流的前端被用户看到。所以,关闭之后的用户体验降低是必然的。

张凌寒补充指出,企业上线这样的功能也需要一定财力与人力的支持,并需要设置在App级别较高的目录中(即用户打开两到三层目录就可以找到此按钮)。但关闭个性化选项的功能必须存在——这为用户提供了选择——不被“计算”的选择、不被信息流裹挟的选择、获得信息自主的选择。

张欣介绍,强化个人在算法前的自主性已经成为各国立法的共识。她指出,用户的自主性首先源于一系列技术正当程序的保障。算法操控现象反映出个体被不断数据化,逐步丧失主体性的数字化生存困境,各国立法者都在积极应对,赋予了数据主体一系列新型算法权利,希冀以此赋予个体以选择权和控制权,弱化人在算法社会被不断异化的趋势。

张欣重点指出,当下,践行算法系统治理的立法者和监管者,也在积极地将用户纳入到算法问责和算法影响评估,以及算法审计等框架之中,以参与协同的方式提升用户在算法治理中的主动性。

算法治理如何完善

算法已经嵌入社会架构。对此,张欣表示,算法无疑是包含众多积极价值的。比如,推荐算法能够缓解海量信息带来的“信息过载”问题,算法推荐系统作为智能高效的信息过滤手段能够根据用户的兴趣、爱好、需求展开个性化计算,为用户提供便捷、有效的信息获取体验。因此在数字经济蓬勃发展的当下,新闻分发、网络购物、移动社交等多个场景中均有推荐算法的身影。可以说,算法推荐既是满足用户不确定性需求的一种有效工具,又因承载着巨大的商业价值,从而成为众多平台企业获利的法宝利器。

从技术层面理解,算法是中立的,但任何资源或技术如果被少数人所利用甚至垄断,都会导致公开性与透明性下降,必然会涉及到人的主观目的与社会治理的层面,所以应该关注这些新事物会对社会产生什么影响。

张凌寒认为,在未来的算法治理中,要充分发挥价值观的导向作用,则必须落实算法的主体责任,更加注重对算法设计者、应用者的主观目的探究和评估,加强监管力量、社会公众的介入。因此,算法的规制需要将以嵌入算法的价值理念和目标为主要对象:第一是信息内容是否安全;第二是能否保证公平的市场竞争秩序;第三是能否保护消费者和用户权益。所以,对算法的治理应全面覆盖设计、部署和运行等各个环节。

由于算法治理相对来说还处于初始时期,当下的挑战更多来自于一些模糊地带与空白空间。比如,算法备案等制度的配套实施细则亟待制定,更好地做到有法可依,避免影响技术发展和企业积极性。另外,算法综合治理体系尚需建立,尤其是相关部门的体系联动,以及涵盖公众、企业、相关部门的沟通反馈机制。

张欣则认为,目前亟待解决的问题是算法治理方案如何精准落地。企业目前还只是初步确立了算法合规框架,具体如何运行还有待更为清晰的指引。同时还有一系列问题需要解决,比如,算法安全精准治理到底如何实现?分类分级到底应当如何进行?这都需要一系列治理工具的精准支持,这些目前都还在探索之中。

从大的方向上来看,已经实施的算法规制法规,让用户的选择权被充分重视,也已经被应用到现实中,“算法霸权”在某种程度上已经得到消解。