

你还在相信AI是绝对客观的吗?醒醒吧!现在的AI聊天机器人已经开始公开选边站队了!
最近《纽约时报》的一篇深度调查揭开了惊人真相:在美国,已经出现了多个明确带有政治立场的AI模型,它们不再假装中立,而是直接宣称自己是真相AI或对抗主流叙事的武器!
还记得生成式AI刚出现时,各大公司都在强调自己的模型理性、冷静、无偏见吗?
OpenAI、Google等巨头都声称追求尽量客观
但现实是残酷的!当用户问:哪个种族制造了更多政治暴力?移民是不是美国社会不稳定的根源?
这些送命题让主流AI成了活靶子!因为再客观的回答都涉及价值排序:
这些排序背后,天然存在隐性立场!
由右翼社交平台Gab创建,系统指令长达2000多字,简直就是一份意识形态宣言!
它的核心指令包括:
效果有多夸张?当被问最具争议的观点是什么时:
直接生长于反疫苗阴谋论社区Natural News,宣称训练于十亿页的另类媒体!
它的世界观完全封闭且逻辑自洽:
马斯克因看不惯ChatGPT的理中客,推出了TruthGPT(后更名为Grok)
但Grok的敢说话变成了敢瞎说:
马斯克想要的"去政治正确"AI,在现实中往往意味着"向另一极端漂移"!
保守派科技企业家们正在批量推出右派友好AI:
讽刺的是,这些AI都声称突破主流AI的言论封锁,但实际上是在用户的世界观中筑起了一座座信息回音室!
研究者们也在尝试修复这种撕裂,比如DepolarizingGPT(去极化GPT):
但现实很骨感——这个AI反应慢到几乎不可用!
如果说过去十年,美国社会的分裂体现在:
那未来十年,分裂将体现在:不同的人类将生活在由不同AI构建的现实中!
同一场抗议、同一项统计、同一条新闻事件,经过不同阵营AI的解释后,会变成完全不同的叙事逻辑。
这种叙事差异逐渐积累,最终会让社会中的"事实基线"完全断裂!
华盛顿大学学者Oren Etzioni一针见血:人们会像选择媒体一样,选择他们想要的AI风格。唯一的错误,就是以为你得到的是真相。
算法不会说谎,但它可以选择性地告诉你真相!
你遇到过有政治倾向的AI吗?欢迎在评论区分享你的经历!
如果觉得这篇文章让你重新认识了AI,别忘了点赞和分享给更多朋友!
