纭沙科技旗下信息展示站点

特斯拉汽车最新新闻

马斯克的新“Grokipedia”:批评维基有偏见,却难逃同样命运

埃隆·马斯克的AI公司

埃隆·马斯克的AI公司

埃隆·马斯克的AI公司xAI即将推出“Grokipedia”——一个号称能取代维基百科的新项目。马斯克认为维基百科存在“政治与意识形态偏见”,他声称Grokipedia能通过xAI的聊天机器人“Grok”生成并验证更“准确、公正”的信息。

但问题在于,维基百科的偏见并非来自制度,而是来自人。 这座全球最大的百科全书由志愿者编辑,他们必须引用现有出版物,而不能做原创研究。由于这些来源本身就带有媒体和学术界的偏向,维基百科自然反映出这些结构性不平衡——例如,约80%到90%的英文版编辑为男性,使得百科的内容更像是“男性视角的知识库”。

偏见往往来自谁参与了,而非谁制定了规则。 社会学家称之为“自我选择偏差”:愿意编辑的人群往往有相似的价值观与政治立场。马斯克自己的平台X上的“社区注释”功能,也依赖志愿者事实核查,但研究发现他们最常引用的外部来源竟是维基百科,其次多为中左倾媒体——这正是马斯克所指责的“偏见圈”。

埃隆·马斯克的AI公司
埃隆·马斯克的AI公司

然而,维基百科至少公开承认自身局限,并在制度上努力纠偏。它的中立原则要求呈现不同观点,公开争议、标注问题,并允许编辑历史追溯。它是一个不完美但自我修正的系统。

相比之下,AI并非“无偏见的救世主”。大型语言模型训练自互联网数据,天然继承了性别、政治、种族等偏见。研究显示,马斯克的Grok虽然比其他AI略中立,但仍有轻微的左倾倾向。若Grokipedia基于同样的数据和算法,它难以摆脱与维基相同的偏差。

更严重的是,AI生成内容往往给人一种“假共识”的错觉。它会流畅地输出看似权威的答案,却掩盖了背后的不确定与多样性。 当不同声音被算法平滑成“统一叙事”,知识可能变得更单一、更浅薄。

最终,Grokipedia也许会变得比维基百科更“整齐”,但未必更“真实”。

发表评论