2024T-EDGE文章详情顶部

拯救外卖骑士,如何从法律层面解决平台算法治理难题?

“应穿透网络平台运行的‘技术面纱’,将平台监管的触角和追责视角直接指向背后的算法责任。”

(图片来源:Pixabay)

(图片来源:Pixabay)

外卖平台的算法乱象正逐步受到监管的重视。

7月26日,市场监管总局等七部门联合印发《关于落实网络餐饮平台责任,切实维护外卖送餐员权益的指导意见》,首次指出:不得将“最严算法”作为外卖送餐员考核要求,通过“算法取中”等方式,合理确定订单数量、准时率、在线率等考核要素,适当放宽配送时限。

早在2020年9月,人物杂志的一篇题为《外卖骑手,困在系统里》的文章引起广泛热议,使得全社会共同关注到了外卖骑手的困境。文章描述了支撑外卖系统运行的AI算法,为“实现劳动价值的最大化和高效化”,不断压缩外卖骑手的接单时间、送餐时间,甚至送单的路线,继而引发交通安全等系列问题。

过去20年,中国互联网经济蓬勃发展,新业态、新模式层出不穷,受此推动下,互联网科技企业野蛮生长。凭借着AI算法、大数据技术、资本优势等,市场资源加速向头部平台集中,巨头逐步占据市场垄断地位。通过信息茧房、“大数据杀熟”、推荐算法定价等方式,使用算法的互联网平台对公民生活造成了一定的利益损害。

今年,美国,欧盟和中国不约而同注意到了这一问题,官方层面开始加强网络平台尤其是超大型平台的治理,尝试对算法进行监管,提出算法透明、公正、保证算法的“可信度”等细致要求。

那么,从法律层面来看,如何解决互联网企业的平台治理、算法责任这些难题?

7月初的2021世界人工智能大会的法治青年论坛上,北京科技大学文法学院副教授张凌寒发布了题为《平台治理与算法责任》的主题演讲,从法律人士角度来详细解读平台治理难题。

张凌寒在演讲中表示,随着时代的发展,技术的不断变革,平台的商业模式和架构由算法搭建,后者已经在平台运行当中承担着核心角色。而平台既是数字经济的基础设施,也是数字经济交易的多边市场,所以用原来的法律框架已经无法有效的规制平台。因此,应穿透网络平台运行的“技术面纱”,将平台监管的触角和追责视角直接指向背后的算法责任。

北京大学法学院副教授胡凌则在该论坛的演讲中提到,过去20年以来,互联网技术平台正在塑造一个“过程合法性”的架构,而这个架构会使得非常多的利益群体以及相关者在这一空间中,通过技术和商业模式建构起来新的利益形态。那么,新技术下的法律规制思路就要考虑,如何持续推动生产要素的跨平台流动,抑制平台企业的垄断效应;如何推动数字基础设施的建立,并加强互联互通等。

算法治理本质上是平台治理

简单来说,算法是指在有限的步骤中生成问题答案或者解决方案的系统程序。

此前大数据时代中,算法就已经被广泛应用,理论上包括机械原理、逻辑思维和社会规则等,都已纳入算法的范畴。但随着大数据时代和智能时代的交叠,AI算法得到普遍应用。

人类使用AI算法的初衷,在于辅助或部分代替人类决策,使生活变得更加便捷和智能。AI算法作为人工智能、区块链、大数据分析等技术的核心要素,确实地推动人类生产生活的变革。但同时,AI算法作用过程和决策机制较为隐蔽甚至不便于人类思维理解,有时类似密不透风的“黑匣子”——这导致其被滥用的风险骤然提升,最终可能与使用初衷背道而驰。信息茧房、大数据杀熟、算法歧视等事件的层出不穷,也让人们对看似理性、中立的算法进行反思。

本次法治青年论坛上,张凌寒在演讲中表示,算法治理的背后,本质上是平台治理。

事实上,平台的运行有赖于各种技术的运用,近几年来,算法被广泛使用来推进平台运行的自动化,人工干预大大减少。例如电商平台利用算法进行商品定价、社交媒体平台利用算法进行信息分发与推送。但平台的自动化似乎必然导向了更轻的平台主观过错,进而导向更轻的平台责任。如此一来,AI时代下的平台主观过错的认定机制变得模糊不清。也正是基于这样的大背景,各国近年来都不约而同地加强了平台责任,算法治理背后的平台责任变得愈加关键。

去年7月,欧盟颁布了《数字服务法案》,其中包含平台治理的一揽子计划,例如要求平台承担监管非法内容和商品的责任,对消费者公平、合理地使用算法,法案也允许对大型在线平台进行事前监管等。而在今年4月欧盟发布的《制定关于人工智能的统一规则(人工智能法案)并修订某些欧盟立法》,明确对AI技术以及机器学习算法等进行监管,包括但不限于在整体层面上,设立AI的伦理原则,将算法的发展方向框定在“对人类有益”的范围之内,而在各类应用场景中,提出算法透明、公正、保证算法的“可信度”等细致要求。

在中国,立法最早是2000年时候的《电信条例》,以及后来的《网络安全法》、《电子商务法》等,从法律层面对网络安全的监管和电子商务行为的规范做了系统规定,为网络空间治理的法治化提供了制度保障。行政机关频频发布各种规章、文件对平台施加更重的责任,监管部门也有突破立法原意、过度扩张平台义务的潜在动力。

在张凌寒看来,如今平台已经不是单纯的网络服务提供者角色,也不再局限于经济基础设施,而是一个兼具多重角色的社会经济组织概念。平台在社会生产中的地位主要体现为三个角色:1、平台是数据生产要素的提炼加工者;2、平台是数字经济的基础设施;3、平台也是数字经济交易的多边市场。

以国内网约车平台发展为例。早期依靠大量经济补贴,将乘客、司机与车辆吸引到平台上,通过推动市场交易便利化使市场信息更对称,形成了多边市场的网络效应,就进一步享有了不断扩大服务范围和市场数量的话语权。网约车平台可凭其海量乘客与司机以及车辆资源换取其更大让步,而因其司机与车辆资源的市场份额优势,也可通过算法个性化定价,压榨消费者的剩余价格承担空间。

不过,张凌寒也指出,随着外界质疑越来越多,以及平台运行日益自动化的当下,在法律规则没完全覆盖到平台治理时,经常会面临“政府管平台,平台管一切”这一尴尬境地。

她认为,出现上述问题的核心原因,主要是平台3.0时代的责任没搞清,生产关系还没有适应生产力的发展。

“在平台1.0时代,我们已经习惯了平台作为一个信息门户去分享消息内容,这个时候平台所做的可能就像我们当时的迁徙版权法案一样,只要做到传播的管理就好;那么到了平台2.0时代,社交媒体横空出世,众生喧哗;可是,我们现在实际上已经到了平台3.0时代。”张凌寒在演讲中表示,现在平台已经成为了现在数字社会生产的核心经济组织。甚至还承担了大量的公共治理的责任。那么当平台成为这样一个数字生产的核心经济组织的时候,势必用原来的法律框架已经无法有效的规制平台。

张凌寒强调,平台的商业模式和架构是由算法搭建的,甚至连个人信息和个人数据的收集处理工作,都是由算法自动进行的。也就是说,如果要进行平台治理,势必不可能离开人们对于算法的治理和问责。如果拥有负责任的算法,人们才能够找到负责任的平台。

平台治理问责的三步方案

在演讲中,张凌寒指出,AI时代平台治理的未来走向,理应聚焦于对算法的问责,尤其是针对事前的、主观的问责。既应符合平台底层的技术逻辑,也应符合主客观相一致、责罚相适应的法律原则。因此,如果想揭开平台追责的技术面纱,就需要穿透这层面纱,而直指平台底层的技术逻辑,也就是算法责任。

具体来说,张凌寒提出对平台进行主观方面问责的三步解决方案:

首先,在事前阶段,通过算法备案制度,对平台算法的过错点进行事前固定。平台因为算法被问责,通常是因为没有履行法律和道德义务,以及无法向利益相关方作出解释并证明自己没有主观过错。合理的平台算法问责离不开清晰的主观过错认定,通过算法评估、备案与审计对平台事前和运行中的问责点进行固定,能够有效评估平台是否可以评估、控制、纠正算法带来的危害。

其次,在过错的事后认定阶段,设置独立的算法解释环节。监管部门可依据算法事前备案内容,来判断平台是否具有故意或过失的主观过错,并结合客观的损害结果直接进行行政处罚与问责。在此过程中平台需进行算法解释,算法解释是认定主观过错进行平台问责的必经程序。解释环节不仅具有行政程序上的必要性、功能上的必要性,这个环节本身也理应成为监管考察的对象。

最后,在法律责任方面,应根据平台主观过错的程度轻重分层次设置。对于故意和过失的平台算法的主观过错,施以主客观相一致的实质责任。对于提供虚假算法备案与虚假解释的平台,则施加类似于证券虚假陈述责任的虚假备案与虚假解释责任。

张凌寒在演讲结尾强调,她希望将来对于平台的治理能够围绕着算法治理展开,有效的克服平台自动化运行的这种技术面纱,实现一个有效的算法治理。

值得一提的是,阿里巴巴遭182亿元重罚之后,7月27日,阿里巴巴董事局主席兼首席执行官张勇在股东信中首次指出,平台经济是全世界共同面临的崭新课题。过去一年,阿里巴巴对平台经济有了更深入的理解。平台型企业带有天然的社会公共属性。作为一家平台型公司,需要更多深入思考能创造多少社会价值,参与解决多少核心科技问题,如何更好地支持乡村振兴,如何变得更绿色和可持续,从而以平台之心,聚八方之力,能够做一家有担当、负责任的好公司。

(本文首发钛媒体App,作者|林志佳)

北京科技大学文法学院副教授张凌寒

北京科技大学文法学院副教授张凌寒 

以下是张凌寒的演讲全文,由钛媒体编辑整理:

各位来宾好,今天我想分享的题目是:《平台治理与算法问责》。

2020年底,一篇题为《外卖骑手,困在系统里》的网文火爆全网,使得全社会共同关注到了外卖骑手的困境。

那么,通过这篇文章,我们知道外卖平台的系统,也就是算法,能够极大的控制骑手接单的时间,送单的时间,甚至送单的路线。我们在享受了外卖骑手带来的便利的同时,外卖骑手的工作时间则被压榨到最低,他们的工作的效率也被算法逼到了极致。

其实,这已经不是第一次由算法引起的不利后果,引起社会的广泛关注。

早在2017年,我们就注意到了,由于今日头条推荐算法,造成内容的一些生态问题,引起了相关部门和人民日报的多次批评。而几年之前一直到现在都很火的“大数据杀熟”,也使得我们知道了平台的定价算法可能会对消费者造成伤害。

所以说,我们可以看到现在平台可能引起的治理问题,往往围绕着算法进行。可是,算法的自动化运行,又给平台的治理造成了很多问题。

我们举两个简单的例子:

第一,如果我们真的要对平台追责的话,传统的法律主体行为责任这样的框架,经常会被平台说,算法是自动运行的,你怎么能够把这个罪责怪到我身上来进行推脱。

那么另外一方面,我们已经习惯了用过错来衡量责任。也就是说,我们法律原则当中体现的“罪责刑相适应,主客观相一致”这样朴素的价值观。可是,自动运行的算法,我们又如何衡量它的过错呢?

面对这样的问题,我们国家的监管部门通过主体责任和社会责任来推动平台的监管。

简而言之,主体责任就是监管部门认为“谁办网谁负责”,只要出了事情我就找平台;而社会责任又极大地扩展了平台责任的范畴,不仅仅平台要承担内容治理的义务,同时视频、劳动用工等等,都被囊括到了平台的责任当中。

那么,这样的治理方式是否是最佳的?主体责任和社会责任能解决如今AI时代平台追责的问题吗?

我们听到很多学者批评说,现在平台治理已经变得“管道化”了。就是政府管平台,平台管一切。那么,也有学者和平台会抱怨说,“社会责任是个框,什么都能往里装。”

也就是说,我们现在平台治理的机制经常面临这样的尴尬境地:平台觉得很委屈,公众觉得不满意,甚至监管部门自己也觉得底气不足。

那么,究竟是什么原因,造成了平台治理这样的困境?简而言之,不过是我们的生产关系还没有适应生产力的发展。

随着平台的发展,在平台1.0时代,我们已经习惯了平台作为一个信息门户去分享消息内容,这个时候平台所做的可能就像我们当时的迁徙版权法案一样,只要做到传播的管理就好。那么到了平台2.0时代,社交媒体横空出世,众生喧哗。

可是,我们现在实际上已经到了平台3.0时代,简而言之,就是平台已经成为了现在数字社会生产的核心经济组织。平台不仅仅通过数据和算法搭建自己的商业模式和架构,并且联通了电商平台、社交媒体等等的资源,同时把各种社会生产资料链接到平台上。甚至我们可以看到在疫情期间,平台还承担了大量的公共治理的责任。

那么,当平台成为这样一个数字生产的核心经济组织的时候,势必用原来的法律框架已经无法有效的规制平台。

我们可以看到,算法已经在平台运行当中成为了平台核心的角色。我们可以说,平台的商业模式和架构是由算法搭建的,平台上用户的评分机制,乘客和司机之间的匹配是由算法进行的,甚至连个人信息和个人数据的收集处理工作也都是由算法自动进行的。也就是说,当我们要进行平台治理,势必不可能离开我们对于算法的治理和问责。只有有了负责任的算法,我们才能够找到负责任的平台

所以,如果想揭开平台追责的技术面纱,我们就要穿透这层面纱,而直指平台底层的技术逻辑,也就是算法治理。

可以说,技术的原理毫无疑问是中立的,但是技术的应用绝对不是中立的。平台在设计部署和运行算法的过程当中,都嵌入了自己的主观价值和自己的这种价值排序。那么,这也是我们对平台算法追责的根本原因,是法律对于平台追责的指向所在。

所以,现在的问题来了,我们如何将平台使用算法,进行数字社会生产的这种新兴的生产方式,契合于传统的法律职责框架?

我们可以回到平台算法主观过错认定机制的这一法律框架当中。

既然要从算法当中去找平台的主观过错,首先,我们要明确什么是过错。

平台在设计部署算法多个层面,我们都可以看到嵌入自己的主观价值。比如说,曾经某平台发生过顺风车服务强奸杀人的恶性事件,可是在出事之前,当这款服务推出的时候,这个平台的高管就曾经说过,“我们已经可以看到顺风车服务是一个‘性感’的社交场景”。也就是说,他(她)预见到了可能会发生的这样的情况,但是面对这样的利益,把安全的价值排序到了后面。

再比如说,微软曾在2016年上线过一个叫“Tay”的聊天机器人,在推特上,Tay机器人很快就说出了一些仇恨的语言。那么,如果说它没有进行充分的事先的测试,就把这样的一个可能有自动学习功能的机器人,上线到这样一个充满了仇恨言论的环境平台当中去,本身平台就没有尽到自己应有的注意义务。

去年比较轰动的“企查查案件”,最后虽然说是公用数据的问题,但实际上,就是平台对于自己算法自动运行的结果没有进行充分的审核义务。

其次,算法使平台运行日益“自动化”,我们又如何从自动化运行的算法当中去找到那些可以度量、可以追溯、可以标定的平台的主观过错?

因此,算法的备案评估和审计工作,就成为了现在对于算法监管的重点。我很高兴,在这篇文章发表之后不久,现在监管部门已经开始推广算法的备案工作。

比如说,采用算法的备案,要求平台在上线重要算法之前,要向监管部门说明自己的价值排序,设计目标和具体权重,这样既使得我们将来可以追溯到平台可能存在的设计层面的主观过错,同时也免去了平台担忧自己的商业秘密受到侵害的这种烦恼。

那么另一方面,在平台的运行过程当中,你是否进行了风险与过程的有效控制?在结果输出层面又是否尽到了应有的注意义务?这些都是我们将来在进行平台算法问责的时候,可能去寻找的平台算法的问责点,根据平台主观过错的程度轻重分层次设置。

当平台算法运行到不利后果发生的时候,如果说,我们可以找到平台的实质责任,对于故意和过失的平台算法的主观过错,施以主客观相一致的实质责任。

但是,如果平台进行虚假陈述,虚假备案或者误导性的算法解释,我们则要求平台承担类似于证券监管方面的这种虚假的陈述责任。

我们希望将来对于平台的治理能够围绕着算法展开,有效的克服算法自动化运行的这种技术面纱,希望我们将来的平台治理也是一个有效的算法治理。

我就分享到这里,谢谢大家。

注:张凌寒,女,法学博士,北京科技大学副教授,康奈尔大学访问学者。本硕博均毕业于吉林大学法学院,北京航空航天大学法学院博士后。中国法学会网络与信息研究会理事,中国法学会婚姻法学研究会理事。国家人工智能伦理与道德标准小组成员,国家工信部重点法治实验室研究员,中央网信办网络安全治理基地特聘研究员,中国信息安全法律大会专家委员会委员。研究方向为民商法,网络法,近年来专注于数据治理与算法规制方向,发表论文二十余篇,其中多篇被《人大报刊复印资料》《高等学校文科学术文摘》全文转载,主持国家社科基金、教育部、司法部、中国法学会、博士后基金等人文社科项目。出版专著《网络虚拟财产侵权责任研究》《权力之治:人工智能时代的算法规制》,参编参译多部教材专著。

转载请注明出处、作者和本文链接
声明:文章内容仅供参考、交流、学习、不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容

AWARDS-文章详情右上

扫描下载App