华南师范大学城市文化学院副教授姚志文。刘盈华摄
算法引发的归责难题主要包括两种。一是算法的自主性所引发的归责难题。机器学习赋予了算法某种程度的自主性,算法本身成为了一个非中立的行动者,但机器学习造成的可解释性和可预测性困难,使得归责变得困难。二是算法应用性场景下的归责难题。主要包括算法偏见、算法歧视和个人隐私保护等,这些问题的产生既有企业和程序人员的价值偏好,也有用户的价值偏好,还有机器学习本身的技术偏好,因为涉及多重主体,所以也难以归责。总的来说,这些归责难题都源于算法“黑箱”。怎样认定聚合平台责任、厘清责任边界,关键在于打开算法黑箱。
姚志文指出,原来管理人员主要负责三件事情:一是怎样派工;二是怎么评价工作;三是怎么定奖惩,都是由基层的管理者来做。而现在聚合平台企业把它分化掉了:怎么派工是由算法给的;怎么评价是消费者给的;怎么奖惩也是平台给的。基于这些特征,网约车聚合平台远不止是 “信息撮合者”“交易撮合者”。
如何看待聚合平台消费者投诉无门这一问题?姚志文表示,要解决这些问题,一是要坚持算法透明性原则,满足用户的知情权,把消费决策权还给用户。二是增强算法的可解释性。三是算法规制应跳出事后责任认定和惩处的传统思路,进行“事前预防—事中监管—事后救济”的全过程规制。
相关阅读 >>
人工智能算法“照亮”月球永久阴影区,将助力阿尔忒弥斯计划确定登月点
金融科技发展带来五大新挑战!易纲:积极应对算法歧视等新型垄断问题
更多相关阅读请进入《算法》频道 >>