刘知远:技术偏见来源于人类自己,算法可以用来消除偏见

文/《财经》E法 张剑 编辑/朱弢  

2020年12月05日 17:35  

本文1216字,约2分钟

技术可以帮助缓解或消除人类本身在某些层面存在的偏见和偏差。

近几年,“算法偏见”常被人提到,人工智能领域也开始关注“信息茧房”、技术偏见等问题。在清华大学计算机系教授刘知远看来,这样的技术偏见是来源于人类自己,以及社会的方方面面。现在挑战是,如何设定一个标准去界定什么情况下构成偏见并消除这种偏见。

12月1日,由清华大学新闻与传播学院智媒研究中心主办、《财经》E法协办的“算法的治理与发展:以人为本、科技向善”研讨会上,来自清华大学、复旦大学、中国人民大学等高等院校的专家就算法定义、商业模式及其发展趋势展开讨论。

研讨会上,刘知远从计算科学、人工智能角度,通过一些数据处理的实例,解析了算法偏见出现的基理。刘知远认为,通过技术去进行定量监测,将有助于实现算法公平。

清华大学计算机系教授刘知远现场分享

刘知远提到,通用信息平台今日头条有个性化信息推荐,电商平台也有相应推荐功能。这符合人的选择取向,愿意看到或者听到自己喜欢的东西,愿意消费自己感兴趣的东西,这是人的天性。算法相当于把这个选择过程变得更加自动化。

刘知远认为,所谓算法偏见,源于人类自身所存在的认知偏见。例如,在招聘环节,由人工对大量简历进行筛选,会涉及到求职者毕业学校、所学专业等内容。一个经常加班的工程师岗位,更愿意选择男生而不是女生,这是一种偏见,而且是人自身选择的问题。如果人自身的认知偏见被算法为代表的技术习得,就出现了所谓的“算法偏见”为代表的技术偏见。最有名的一个案例发生在亚马逊公司。亚马逊曾经做过简历的智能筛选和推荐,但用于训练的简历数据的性别偏差导致筛选模型出现明显的“重男轻女”现象,引发了很大争议。

刘知远介绍,近两年,自己所在的实验室尝试建立一项算法应用系统,根据案情描述,判定当事人构成何种罪名以及如何量刑。但法学界很多专家提出了反对意见,认为这个系统是“黑盒子”,起不到作用。

但是经过试验后,刘知远表示,通过研究中国裁判文书网大规模数据库中习得的判决偏好,用以分析不同省份在某类型案件判决上的一致性问题,可以从技术角度来缓解区域偏见。例如,由于经济发展水平不同,同样金额的盗窃案,在经济发达地区量刑轻,在经济欠发达地区量刑重。体现的是偏差,但从技术角度来说,可以利用技术,大规模全方位的监测全国范围内不同地区在判决上的一致性。也就是说,技术可以帮助缓解或消除人类本身在某些层面存在的偏见和偏差。

对于算法为代表的科技如何向善,刘知远认为,算法既然是中立的,既能习得人类的偏见,也可以帮助我们消除或监测人类社会的偏见,这可能是将技术应用到人类社会方方面面,可以发挥正向作用的方式。

刘知远坦言,科技向善最重要的工作也是最大的挑战在于,如何设定构成偏见的标准。技术可以按照这个标准,做一个大范围的定量监测,帮助社会各个方面变得更加公平,实现算法公平,实现真正的科技向善。