英国监管机构打击线上自杀自残内容
Share
英国监管机构对在线自杀和自残内容发力:调查匿名论坛,平台需加强应对措施
为了保护民众免受线上自杀和自残内容的危害,英国通信管理局 (Ofcom) 近日公布了最新指南,并针对涉嫌提供此类内容的匿名论坛展开正式调查。
该调查标志着 Ofcom 在打击网络有害内容方面的决心,尤其是在面对海外平台时。根据 Ofcom 的数据,4% 的英国互联网用户在过去一个月内遇到过促进自杀的内容,儿童更易遭遇此类内容。公众对这一问题的担忧日益增长,并促使监管机构采取行动。
Ofcom 拥有强大的工具来应对线上有害内容,包括发出警告通知、下架违规内容、封锁网站以及高达 £1800 万英镑或全球营业额 10% 的罚款。2025 年 3 月 16 日起,所有受管制平台都必须完成非法内容风险评估,并采取措施阻止其传播,包括快速移除违规内容、实施有效的审核和举报系统、测试和改进算法以及为用户提供清晰的保护措施。搜索引擎还必须降低或屏蔽有害结果,并在搜索结果中显示危机信息。
针对匿名论坛调查
今年 4 月 9 日,Ofcom 对一个涉嫌提供自杀鼓励内容并指导用户使用自杀方法的匿名讨论论坛展开正式调查。该调查重点关注其未完成充分的非法内容风险评估、缺乏相应的安全或审核措施以及对官方信息请求的滞后回应。Ofcom 目前正在收集证据,以确定是否发出违规警告通知,这可能导致罚款、内容下架或网站封锁。
信号:监管力度加大
该调查表明 Ofcom 决心严厉执法,即使是匿名海外平台也不例外,充分展示了英国《网络安全法》 (OSA) 的跨国效力。近期的调查范围不断扩大,包括五家新公司以及对两家公司的进一步调查,共计超过 50 个网站目前正在接受 Ofcom 的调查。
平台责任:行动而非观望
面对这一严峻形势,Ofcom 更新了其《保护用户免受在线自杀和自残内容危害》指南,强调了非法内容审核和儿童保护的重要性。所有平台都必须采取有效措施,包括:
- 投入充足资源进行内容审核
- 确保推荐系统排除儿童接触违规内容的风险
- 提供易于找到、使用友好的投诉流程
- 明确说明用户如何受到非法内容保护的条款和条件
- 为举报、发布、分享或搜索自杀或自残相关内容的用户提供适当支持
Ofcom 还正在考虑采取更加积极的安全措施,例如主动识别有害内容和实时监控直播。
对于所有平台而言,清晰的信息是明智之举:如果您的平台上存在鼓励或辅助自杀的内容,或者存在此类风险,现在就采取行动,而不是等待后果降临。
阅读本文之前,你最好先了解…
- 英国网络安全法 (OSA): 该法律赋予了 Ofcom 对线上有害内容的监管权,并要求所有受管制平台采取措施预防和应对此类内容。
- Ofcom 的职责: 作为英国独立监管机构,Ofcom 的任务是确保电信市场公平竞争、保护消费者权益,以及促进公众福利。
深入了解相关问题:
- 匿名论坛的监管挑战: 如何有效地监控和管理匿名平台,同时保障言论自由?
- 人工智能在内容审核中的作用: 如何利用 AI 技术更有效地识别和移除有害内容?
- 跨国合作的重要性: 网络有害内容跨越国家边界,因此国际间需要加强合作才能有效应对这一挑战。
思考题:
- 你认为匿名论坛应该被监管吗?为什么?
- 你对 Ofcom 的最新指南有何看法?平台应该承担哪些责任来防止在线自杀和自残行为?
- 除了 Ofcom 的措施,你还有什么想法可以帮助减少线上有害内容的传播?
如果你有其它意见,请评论留言。