张霄:应建立统筹经济、科技、伦理的算法规制体系

文/《财经》E法 张剑 编辑/朱弢  

2020年12月05日 17:46  

本文1488字,约2分钟

科技伦理问题在当代的重要性已不言而喻。

“算法是技术的组成部分,科技必须遵循伦理,才能不偏离方向。”中国人民大学伦理学与道德建设研究中心副主任张霄提出,发展科技伦理,不仅要明确科技活动必须遵守的价值准则,更要把这些准则落实在行动中,通过各种制度、机制、监管和审查,构建切实有效的“伦理治理体系”。

12月1日,由清华大学新闻与传播学院智媒研究中心主办、《财经》E法协办的“算法的治理与发展:以人为本、科技向善”研讨会上,来自清华大学、复旦大学、中国人民大学等高等院所的专家就算法定义、商业模式及其发展趋势展开研讨。

近几年的互联网技术、生命科学技术发展迅猛,新的研究成果转化成的具体产品,正在一件件走进公众的日常生活。新技术、新产品的产生也必然伴随一些负面效应。

张霄列举出几个著名案例。2018年3月,在美国一辆无人驾驶汽车肇事伤人之后,至少有四家责任主体陷入了诉讼纠纷。究竟如何认定传感器制造商、驾驶软件设计商、算法开发商和汽车所有人之间的责任关系?2018年,Facebook因把未经用户授权的私人数据提供给第三方使用而受到司法调查。

通过这些案例,张霄认为,科技伦理问题在当代的重要性已不言而喻。但公众对这个问题还很陌生,远没有形成对应的概念。据此,有不少批评者对算法的发展深表忧虑。在他们看来,高科技多掌握在技术专家、商业领袖、行业首脑等社会精英手中。如果这些人在从事科技活动的时候不考虑伦理问题,那么公众就更难意识到深层次的科技伦理问题,科技不伦理所带来的恶性后果将不可避免地使公众陷入恐慌。

在科技伦理的原则把握上,张霄提出,应坚持后果应风控、信息应公开、知识可解释、行为可问责、减少不平等这五项原则。在看待算法问题上,也不能脱离伦理认识,同样应当坚持这五项原则。经常提到的算法“技术中立”固然有其合理性,但不能偏执于“技术中立”的价值观念。科技活动的属人本性必须被突出。

在原则建立后,就可以把这些原则转化为具体的科技伦理规范,切实有效地发挥作用。这需要科学家、发明家、伦理学家、企业、监管机构、第三方组织开展专项的跨学科研究,合作建立科技伦理治理体系,同时把普通公众纳入更加广泛的科技伦理决策系统。

在科技伦理指导下,就可以开展行动。张霄认为,在开展行动的过程中,应该注意一些问题。对于那些发展比较成熟、应用前景及其后果比较明朗的科学技术,可逐级放宽伦理规制。相反,对于那些应用条件不成熟、应用后果未知的科学技术,应当逐级收紧伦理规制。这种根据伦理松紧度进行分级管理的方式,需要伦理学更加深入地研究科技活动的各个环节,为各层级的决策提供伦理参照系。不仅如此,这项技术还可转化为科技伦理发展指数,引导资本投向更值得信赖的科技应用。这也适用于算法发展的实践。

此外,社会共治非常重要,社会要把科技伦理研究和职业伦理培训结合起来。职业伦理培训必然是科技伦理治理体系中极端重要的一个环节。要发展科技伦理,首先需要解决人的观念问题。价值观念的养成有两个途径:一个源于道德知识,一个源于道德经验。在前者,各种价值准则的证成方式及其推理过程可以教会人们如何运用概念分析和判断伦理问题。在后者,各种科技伦理实践活动可以培养人的伦理敏感性。所谓伦理敏感性就是能迅速地识别科技活动中可能存在的伦理问题。要做好这两点“人的工作”,最好的方式就是开展专门的职业伦理培训。与此同时,要把职业伦理培训和各个层级、各个环节上的科技活动结合起来,有机地嵌入到伦理治理体系中,真正做到有的放矢、行之有效。