

最近美国法院给出了一个颠覆性的答案:不,这可能是平台故意设计的!
就在前几天,洛杉矶法院做出一项里程碑判决——Meta和谷歌要为一名20岁女性的“社交媒体成瘾”负责,两家巨头被判共同赔偿600万美元!
这起案件最震撼的地方在于,它完全绕过了美国互联网平台用了近30年的“护身符”——《通信规范法》第230条。
过去,230条的核心逻辑是:平台不对第三方发布的内容承担责任。但这次,原告律师玩了个“降维打击”。
律师在法庭上打了个精妙的比方:“我们起诉的不是报纸上刊登了什么文章,而是起诉报社故意把报纸印在有毒的纸上。”
什么意思?
原告根本没提Instagram或YouTube上任何一条具体的帖子!她指控的是平台自身设计的功能体系:
这些不是中立的工具,而是被故意打造成“成瘾机器”的产品缺陷!
加州法院的法官支持了这一逻辑,作出了历史性的区分:
涉及内容审查和发布的功能可能受230条保护;但通知推送的时机、互动循环的设计、缺乏有效的家长控制工具等“行为层面”的工程选择,属于平台自身的“产品设计”!
这一裁决,将“算法设计”从“内容托管”中剥离出来,在230条的保护伞上撕开了一道决定性的裂缝。
传统上,产品责任法主要针对汽车、电器等有形财产。社交媒体平台这种“服务”能算“产品”吗?
原告律师的论证太精彩了:当一项服务(如电力)的销售和使用方式与有形产品足够类似时,便可适用产品责任。
Meta和谷歌通过精心设计的“成瘾机器”获取用户注意力并变现,其商业模式与设计缺陷导致伤害的有形产品(如成瘾性香烟)具有高度类比性!
这迫使法律界对“产品”的定义进行数字时代的重构。
平台方最后的救命稻草可能是宪法第一修正案(言论自由)。他们可以主张,算法的内容排序和推荐是平台的“编辑性选择”,应受保护。
但这里有个致命的悖论!
在另一起案件中,法院指出:如果算法推荐被认定为平台自身的“第一方言论”,那么它就不再是“第三方信息”,反而可能因此失去Section 230的庇护!
平台陷入两难:
要么承认算法是自身言论从而直面产品责任诉讼,要么主张算法只是中立工具从而可能承担设计过失。
言论自由的盾牌,在此变得左右支绌。
就在KGM案判决的前一天,新墨西哥州也做出了一项裁决。陪审团认定Meta公司因危害儿童安全并误导公众对其平台安全性的认知而负有责任。
Meta公司在该案中必须支付3.75亿美元的民事罚款!
这场针对社交媒体巨头的“产品责任”诉讼浪潮,并非一夜而起。其源头可追溯至2019年的Lemmon v. Snap案。
此后七年,超过200起类似诉讼在美国各地的州法院和联邦法院被提起!
这些案件大多都指控Meta、TikTok、Google、Snap等平台,原告声称因使用社交媒体而遭受了各种损害。
过去,平台总是把用户沉迷归咎于“自制力差”。现在,法律明确告诉你:不,这是你们故意设计的!
产品的“行为设计”正在成为法律和监管的明确客体。
对平台而言,必须提前进行“设计伦理”审查,特别是针对未成年人模式。不能再简单追求“用户增长”和“参与时长”这些北极星指标了。
因为这些指标在法庭上可能被论证为一种“产品缺陷”!
虽然中国短期内难以出现同类判例,但行政监管的压力会持续加大。平台的合规重点必须从单纯的“内容安全”扩展到“设计安全”。
下次刷手机停不下来时,别再一味自责了。要知道,背后可能有几十个工程师在精心设计如何让你多停留一秒!
就像关注孩子的饮食健康一样,现在要开始关注他们的“数字饮食”了。哪些平台的设计更容易让人上瘾?哪些功能需要特别警惕?
如果你在互联网行业工作,现在是时候重新思考:我们设计产品的终极目标是什么?是最大化用户停留时间,还是真正为用户创造价值?
当算法成为“成瘾机器”,法律终于亮出了红灯。
这不仅仅是Meta和谷歌的600万美元赔偿,这是对整个互联网商业模式的根本性质疑!
你每天刷手机多长时间?你觉得哪些功能最让你停不下来?在评论区聊聊你的“数字成瘾”经历吧!
如果觉得这篇文章对你有启发,别忘了点赞和分享给更多朋友!