炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
(来源:三言科技)
根据美国加利福尼亚北区联邦法院最新公开的诉讼文件,Meta被指控长期纵容其平台上的未成年人安全风险。原告方提交的简报显示,Meta明知数百万陌生成年人通过其平台骚扰未成年人,导致青少年心理健康问题加剧,甚至涉及自杀、儿童性剥削等内容却极少删除,还系统性隐瞒风险并拒绝整改。
Instagram前安全主管瓦伊什纳维・贾亚库马尔透露,2020年入职时Meta规定涉及性交易或招嫖的账户需违规16次,直至第17次才会被封禁,这一标准远超行业任何合理阈值。超过1800名原告指控Meta、Snapchat和YouTube等平台不计后果地追求增长,无视产品对儿童身心健康的危害。Meta发言人辩称这一指控断章取义误导公众,并强调公司持续推出青少年保护功能。
然而诉讼简报揭示多项关键指控:Meta平台未提供简易的儿童性虐待内容举报通道,却允许用户便捷举报低风险违规;2019年Meta内部研究发现用户“脱坑”一周后焦虑、抑郁类情况显著缓解,但公司终止研究并隐瞒结果;2019年研究者建议默认设置青少年账户为隐私状态以防陌生人接触,但因增长团队评估将导致用户流失而搁置,直至2024年才全面推行;2017年起Meta将获取青少年新用户列为核心目标,通过校方合作等方式吸引学生,尽管美国法律禁止13岁以下用户注册,但2015年Instagram仍有400万13岁以下用户;2019年Instagram曾测试隐藏点赞功能,但因损害广告收入而取消,同年禁用美颜滤镜后又因增长受损重新上线;Meta的AI系统即使100%确认内容属于未成年人风险内容,也不会自动删除,导致大量有害内容留存;2018年Meta调查发现58%的用户存在“问题性使用”,但公开报告仅提及3.1%的重度用户。