本文来自微信公众号:财经E法 (ID:CAIJINGELAW),作者:樊朔,编辑:郭丽琴,头图来自:视觉中国
治理网络暴力(下称“网暴”),平台的作用不容忽视。
(资料图)
网暴受害者面临的维权困境之一在于,需要通过平台才能在网络世界获取实施网暴者的真实身份。面对网暴事件,平台也一直在言论自由、技术升级、商业利益与社会责任之间做着平衡。
中国监管方已启动多重治理行动。6月25日,最高人民法院、最高人民检察院、公安部发布的《关于依法惩治网络暴力违法犯罪的指导意见(征求意见稿) 》结束公开征求意见。其中对网络服务提供商(平台)的规定聚焦于网暴事后的司法救济。
此前的3月28日,国家网信办网络综合治理局局长张拥军在国信办举行的新闻发布会上表示,整治网络戾气既包括对网暴本身的整治,也要改变导致网暴存在的网络环境。他还透露,为更加有效遏制网暴现象,国家网信办已着手制定部门规章。
追踪多个案例后我们还发现,平台在网暴治理中的角色和责任,仍需进一步厘清。例如,选择“战斗”走出网暴阴影的牛津数学女博士朱雯琪表示,自己没有使用平台提供的“一键防暴”“关闭私信”等网暴拦截功能,因为想要“知己知彼”。此外,很多伤害来自平台之外:车库门被撬、邮箱泄露、朋友被骚扰,线下谣言。(详见:《网暴之殇|一位牛津数学女博士的网暴“反击战”》)
今天发布的第二篇稿件,将聚焦于网暴平台治理的多重困境,以及可能的解决方案。
张婷是一名拥有近千万粉丝的短视频博主,在一次意外走红后,她经历了一场长达一年多的网暴。与其他网暴受害者不同的是,她发现了平台的关键角色,发起诉讼并取胜。
2020年底,张婷开始在短视频平台分享自己走出农村,通过勤工俭学、助学贷款完成学业并最终获得博士学位的故事。此后的一个月内,她的账号粉丝量从200万渐渐增长到1000万。
与此同时,同平台的一些自媒体账号开始质疑张婷学历造假、其走红背后有资本运作。其中,某账号使用直播和短视频等形式,对张婷进行了一年半的质疑。2021年初,在得知张婷入职西安的一所高校后,前述账号的运营者又以“辱骂网友”“疫情诈捐”等事由向陕西省教育厅、教工委等部门信访举报。为此,张婷向信访部门提交了接近30封书面情况说明。
2021年8月,张婷被确诊为焦虑状态、失眠、抑郁状态。同月20日,张婷以被诽谤为由向前述账号的居住地——北京市通州区的警方报案,警方认为符合立案标准,并于同年10月17日出具了立案告知书。2022年8月17日,张婷将短视频平台告上法庭,请求判令其披露前述账号的真实身份信息,并立即删除该账号及其关联账号发布的侵权信息。
张婷的代理律师周兆成介绍,在网暴诉讼中,由于个人极难在网络世界获取他人的身份信息,起诉平台是最合法、最直接、最快速获取侵权者基本身份信息的途径。周兆成认为,网络服务提供者对侵权行为承担通知侵权网络用户、采取删除、屏蔽、断开链接等必要措施的法律责任,其在一定程度上需要与侵权网络用户共同承担侵权责任。作为大数据收集汇纳的网络平台,其有义务向权利人及时披露侵权网络用户的真实身份信息。
2022年9月,张婷告诉财经E法,“平台已经完整披露了侵权者的身份信息。”她随后撤销了对平台的诉讼,同时对侵权账号提起诉讼,法院也随后立案。
2023年6月28日,周兆成向财经E法确认,案件已于2023年5月23日下午开庭,侵权账号运营者当庭提出管辖权异议被驳回,目前案件正在审理中。
近期,又一起针对平台机制的争议引发关注。
6月21日,亿欧网创始人黄渊普发布“写给知乎创始人周源的公开信”,表示将实名举报知乎及知乎创始人、CEO周源。黄渊普称,在知乎看见多人匿名造谣其“卷钱跑路”“花钱买奖”,他很生气。随后他给周源发微信发了两段信息提出建议:“是否可以开一下反证功能?如果能证明匿名用户说的是造谣,可以公布一下造谣者的信息,这样可以让匿名发帖的人更加谨慎。”
但到第二天仍未收到回复,黄渊普随即删除了周源的微信,并声称,想要的是把知乎平台规则调到更公平合理,依然可以匿名,但要用实名制+造谣追责机制让造谣的人能承担成本。此外,他将向相关部门持续实名举报周源和知乎,直到知乎改变目前的机制。
此事随后引起更大范围讨论。6月21日当日,知乎方面回应称,“知乎有完善的社区治理机制,我们反对编造不实信息、恶意诽谤他人等行为。欢迎用户通过举报途径反馈给我们,平台将第一时间进行核查和处理”。6月22日,周源发布朋友圈回应称,“知乎的匿名功能即将调整,社区不欢迎人身攻击。匿名功能是社区早期的产品机制,初衷是希望维护一个开放讨论的社区环境,用户在分享个人经历的同时没有个人隐私方面的顾虑。匿名功能需要建立在友善互动的使用者基础之上”。
6月25日,知乎发布了一则社区公告称,“持续深入处置涉企业、企业家的虚假不实和侵权信息,坚决打击恶意炒作行为,依法查处侵害企业、企业家合法权益的内容和账号,为企业发展提供良好的网络讨论氛围”。
博主张婷与企业家黄渊普,分别通过诉讼和公开信的方式,试图找到隐身暗处的网暴者的真实身份,但从各自经历来看,并非易事。
一、技术手段仍有局限
2022年以来,多个网络平台陆续推出了网暴治理措施。但这些措施背后的技术和运行机制如何,又能在多大程度上解决网暴问题?
武汉大学法学院副教授敬力嘉介绍,目前网暴的治理机制可以归纳为公私合作治理模式,即深度依赖平台技术治理手段。
2022年3月以来,微博、抖音、B站陆续上线“一键防护”“一键防暴”“一键取证”等新功能;快手、百度贴吧、知乎、小红书等平台均可以自主设置私信、评论权限。必要时,用户可以及时关闭私信、评论,尽量避免网暴的伤害。
张婷回忆,在2020年底那场有关她学历的争论中,她在评论和私信中收到了不少诽谤、辱骂信息。当时平台对关闭评论、私信等功能的提示尚未完善,她也没有想到关闭评论、私信等。但2021年7月,前述账号质疑张婷“亲日”时,张婷的后台再一次收到了大量的侮辱、诽谤性的言论。此时,平台已经自动弹出通知,提醒张婷可以关闭私信和评论。
2022年11月,中央网信办印发《关于切实加强网络暴力治理的通知》(下称《通知》),其中强调进一步压实网站平台主体责任。要求网站平台要建立网暴信息分类标准和典型案例样本库,在区分舆论监督和善意批评的基础上,明确细化涉网暴内容标准,增强识别预警准确性。要构建网暴技术识别模型,网站平台要综合考虑事件类别、针对主体、参与人数、信息内容、发布频次、环节场景、举报投诉等维度,建立符合自身特点的网暴行为识别模型等。
但财经E法了解到,各大平台虽已建立网暴技术治理体系,但仍面临着准确度和效率的瓶颈。
天津大学计算机学院副教授王博指出,目前最新的基于大模型的语言分析技术在识别有害信息方面有了长足的进步,但还是不能给予“完美”解决方案。
王博介绍,除了识别和删除有害信息之外,还有两类技术可以遏制有害信息的传播。其一是对产生有害信息的用户进行识别和干预。其二是利用社交机器人技术,像人类用户一样参与到网络信息空间中,通过传播良性信息和与有害信息进行直接的对抗性互动,以遏制有害信息的影响。但是,王博指出,所谓的“有害信息”的边界是不清晰的,所以基于识别的控制性治理技术有理论上的瓶颈。
某平台风险控制人员沈河(化名)告诉财经E法,他所在平台会通过技术手段采集短视频中的原始语料,并利用自动化模型将语料库进行分类和数据模型的提取。基于提取出的语料特征,安全团队对语料进行过滤和上报,并录入风险数据库。
具体而言,在网暴事前预警阶段,平台会针对用户已经发布的各类内容进行自动数据召回和风险发现,之后再通过人工对数据回捞发现的风险进行校对。由于可能会影响用户体验,“我们不能直接对机器的召回风险直接执行封禁等策略,所以事前发现并不是一个我们真正能够闭环解决网暴问题的手段。”沈河表示。
到了网暴事件中期,平台会设置“一键防暴”等主动拦截手段,也会在模型侧加入高级编辑和审核人员作为事中的人工干预手段。“唯一的缺点是这一干预手段会直接阻断可能被网暴账号的社交关系,即网暴言论的舆论场,也不能防止在本平台外的第三方(平台)进行的一些网暴。”沈河说。
针对以上的流程,王博表示,技术手段显著提高了网暴治理的效率,但也存在一定不足。首先,目前的技术主要还是对事不对人,对于有害信息可以通过删除等方式加以控制,但是对于发表有害信息的用户禁言还是比较敏感的,而且对于此类用户进行跨平台追踪,也有一定难度。其次,以信息为抓手的有害信息治理具有一定滞后性,往往要等有害信息产生,并发酵后才能做出反应,而较难进行早期检测和前置预防。再次,就是自动化分析的准确性还有限,仍然需要大量的人工工作。
二、人工干预难平衡效率与准确
为了弥补技术的局限性,平台对网暴信息的审核方式为机器预测初筛,配合人工复核,但仍难以避免错漏。
沈河举例说,假如100条文章或评论,平台会先用自动化模型过一遍,筛出疑似网暴或有网暴风险的50条,再进行人工审核。“目前的人审复核主要是给信息打个标签。”
财经E法在沈河展示的人工审核记录中看到,疑似网暴的信息被审核员打上“网暴潜在名单”“负评针对内容,与作者无关”等标签,随后给出了“建议扣分至封禁”“禁言”等后续处置建议。
曾在抖音担任过审核员的小乐(化名)告诉财经E法,审核中遇到较多的是言语暴力。审核员会依据相关的敏感词库,例如“国骂”,辱骂主播或观众且“造成了人身攻击”“危险性发言”“过激性话语”等,打上标签并上报。
但是,判定言语暴力或者侮辱的标准存在模糊地带,小乐处理的时候也经常犯难。“因为有的人习惯把一些话当成口头禅,并没有主观侮辱的意向。”小乐说。
小乐称,人工审核如何在准确率和效率之间做好平衡,也是一大挑战。审核员需要在审核系统中查看视频是否有违规点,并对此打标提交。小乐回忆,他需要在几分钟内浏览多条视频,同小组的审核员每天要审核至少300条视频,时长1分钟-5分钟不等。其它有些小组一天的任务是处理1000条时长在30分钟以上的视频。如果遇到节假日、舆情爆发,内容递增就要分时段加班处理。与此同时,后台也在检测审核员的效率,太低就会被警告。
据小乐介绍,审核员每日的一般工作时长为9小时,由上级提前一个月排班,确保24小时都有人在岗。几乎每一个审核员都会轮到通宵班,加班则是常态。据小乐观察,她身边相熟的审核员有不少已经离职或计划离职,“离职率高,平台也在不断地招聘”。
为了达到治理效果,平台大量招募内容审核员,必然带来更多的运营成本。据媒体此前报道,字节跳动 2017 年起大量招募内容审核员,至2021年已有超过2万人,多数是正式员工。2022年2月4日下午,B站内容安全中心员工“暮色木心”在武汉家中突发脑出血,抢救无效身亡。2月8日晚, B站在官方微博发布长文表示,将用最大力度扩招审核人员,当年增加招聘1000人,以降低人均工作压力;公司也将加强关注审核员工的身体健康。
北京观韬中茂(上海)律师事务所合伙人、深圳市大数据研究与应用协会法律专家吴丹君认为,在人工审核能力不足和机器审核算法模型不够完善的情况下,可能遗漏部分网暴言论,亦可能误伤部分正常言论。因此,平台需定期对审核员进行培训,以提高其业务能力,也需定期审核、评估、验证算法机制机理、模型、数据和应用结果等,以完善机器审核算法模型。
三、平台责任如何入法?
目前,中国有多部法律和政策文件涉及网络服务提供者的监管责任。除了最高人民法院、最高人民检察院、公安部发布的《关于依法惩治网络暴力违法犯罪的指导意见(征求意见稿) 》,2022年11月中央网信办出台的《关于切实加强网络暴力治理的通知》,强调压实平台在网暴治理中的责任。
更早施行的《民法典》也涉及了平台的监管责任,规定网络服务提供者在接到权利人“通知”后,应采取必要措施,否则应就损害的扩大部分承担连带责任;还应该及时将前述“通知”转送相关网络用户。
《网络信息内容生态治理规定》提到,对于侮辱或者诽谤他人,侵害他人名誉、隐私和其他合法权益的违法内容,网络信息内容服务平台不得传播。网络信息内容服务平台应当加强信息内容的管理,发现前述信息的,应当依法立即采取处置措施,保存有关记录,并向有关主管部门报告。
但中国人民大学法学院教授石佳友表示,目前,中国法律对于网暴中的平台责任缺乏直接的规定。虽然部分法规能够适用于平台,但仍有其局限性。例如,《民法典》对平台更多地强调了事后责任。网络侵权规则在整体上强调了平台的中立性。在这一角度构建的制度反而意味着平台不应当进行干预。因此,学界对于是否为平台设置干预网暴的义务和责任多有争议。
谈及未来网暴治理中的平台应承担的责任,接受财经E法采访的专家有不同主张:一部分认为应该进一步压实平台责任;另一部分则认为法律法规对此不可过于严苛。
在天津大学法学院副教授王燃看来,目前的一些文件,在法律效力、执行效果以及对平台的“威慑”效力方面尚有不足。
王燃举例称,2022年12月1日起施行的《反电信网络诈骗法》第六章用十多个条文规定了平台不履职的法律责任,包括责令改正、警告、通报批评、责令暂停相关业务、停业整顿、吊销相关业务许可证或者吊销营业执照等。
“该法生效后,我们从日常生活中即可明显感受到电信部门、金融机构等在日常业务中的‘从严把关’。”王燃说。
对外经济贸易大学数字经济与法律创新研究中心执行主任张欣表示,目前治理体系的不足在于跨平台的治理体系仍未形成。网暴有时并非仅在一个平台上出现。相反,是从某一个平台上出现信息源,在其他若干社交媒体平台上相继爆发。因此,在网暴受害者维权的过程中,就会出现跨平台合作维权的难题。
但也有多位专家认为,不能对平台设置过重的审核责任。
在中国政法大学数据法治研究院教授张凌寒看来,由于网络言论自身的特性,在其正式形成暴力效应或规模化之前,往往难以准确厘清其与正常论之间的界限。现有的法律法规应及时予以明确认定规则,或者在这方面给予平台足够的信任,不宜片面强调网络平台的普遍审核义务,设置过重的责任负担,致使平台容易陷于客观履行不能的窘境,也限制了平台的正常发展。
6月7日,中国政法大学教授赵宏在一场围绕网暴法律规制的论坛上也表示,若平台要进一步加强事前监管,尤其是要履行更为广泛的内容审查义务,不仅在实践中会增加平台成本,影响平台的创新和健康发展,也容易造成审查扩大化趋势,伤及言论自由。
敬力嘉表示,目前中国法律对于网络服务提供者参与网暴治理没有“避风港原则”,网络服务提供者需要承担全链条的审查和兜底责任。主流平台已经投入了大量的资金和人力成本开发网暴防治的技术机制,但今年上半年还是发生了多起恶性网暴事件。从这一角度来看,网站平台单纯地采取技术措施、删帖封号并非是治理网暴的特效药。
未来该如何进一步对网暴治理进行建章立制,以确定平台的责任与义务?
石佳友建议,应当通过司法解释的方式对平台在网暴中的责任进行清晰地指引。
张欣认为,若未来在网暴领域立法,平台责任将会是非常重要的部分。重点在于如何将平台纳入整个网暴治理的生态链条中,并向其施加合理的注意义务和审核义务。而如何根据这些义务对平台进行追责,将是未来网暴立法对平台责任规定方面一个重要的逻辑和挑战。
张凌寒则建议,未来的立法有可能将政策中的柔性要求上升为对要求平台承担的法律义务。例如,过于追逐流量、网暴信息扎堆、防范机制不健全、举报受理处置不及时以及造成恶劣后果的网站平台,应依法予以相关问责。
敬力嘉表示,未来,不管对于网暴进行专门立法还出台部门规章,都需要在涉及网暴信息概念的界定上做到尽可能的清晰明确。敬力嘉认为,应当将涉网暴信息明确界定为“违法信息”,而非扩张至内涵不清、难以完全列举的“不友善信息”,这既能厘定涉网暴信息的形式与实质边界,也不会导致对网暴行为打击范围的过度扩张或限缩,可为网暴的技术治理确立理性的基点。
敬力嘉建议,一个信息如果是“违法信息”,平台就可以把它作为涉及网暴的信息处理,并不意味着传播、发布信息的行为要达到违法犯罪的程度才能进行处理。与此同时,如果一个信息没有对具体的个人权益或公共利益有侵害的可能性,或者按照刑法理论的表述,不具有法益侵害的抽象危险性,将其纳入涉网暴信息的治理范畴内就会给平台带来过度的负担。在平台无法界定什么是涉及网暴信息的情况下,理性的平台可能会有两种选择:第一种是彻底不管,第二种是有一点苗头就管。第一种情况可能会导致整个网暴治理制度被虚置;第二种则可能导致正常的信息自由流动被极大地妨害,平台过度封禁、删号。
敬力嘉建议,后续建章立制,可以根据网络服务提供者不同的类型、行业、规模,赋予其比较明确的网暴治理协助义务。具体而言,包括实体上的协助义务,即如何有效治理涉及网暴的违法信息;和程序上的协助义务,即如何协助进行涉及网暴的违法信息的证据固定、证据提供等。
本文来自微信公众号:财经E法 (ID:CAIJINGELAW),作者:樊朔,编辑:郭丽琴
关键词: