【中共言论审查面临悖论:想要开发最顶尖的AI,就必须容忍自由思考】《华尔街日报》近日刊发了非营利机构“互惠研究”(Reciprocal Research)创始人兼总监卡梅伦·伯格(Cameron Berg)的深度评论。作为致力于人工智能认知研究的专家,伯格从认知科学的专业视角指出:中国的审查制度不仅是在封锁信息,更是在系统性地阉割AI的智力。
作者指出,大型语言模型(LLM)的底层逻辑,是通过吸收人类庞大的知识库来构建逻辑推理能力。自由探究、逻辑一致性以及基于证据的评估,是AI在训练过程中自然涌现的认知属性。然而,中国监管机构强制要求AI必须通过严苛的意识形态测试,确保绝对的“政治安全”。
为了满足这些审查要求,中国模型被迫在历史和现实面前撒谎。斯坦福大学和普林斯顿大学的最新研究证实了这一代价:在面对敏感问题时,中国AI不仅拒绝回答,还会主动捏造事实——例如将诺贝尔和平奖得主刘晓波荒谬地定义为“日本科学家”。
更致命的是,这种审查导致的智力降级是全局性的。研究发现,当系统被训练去刻意回避现实、在逻辑链条中强行制造盲区时,其在非政治领域的整体推理能力也会随之断崖式下降。你无法在一个习惯了自相矛盾和编造谎言的大脑中,培育出世界级的严谨智能。
过去数十年,中共依靠掐断信息的分发渠道建起了“防火长城”。但LLM的颠覆性在于,它能在私密的个人对话中进行发散式的独立推理。当AI技术的演进本质上越来越依赖于开放探究与求真时,极权体制下的信息控制与真正的前沿智能,注定无法共存。
原文链接👇
https://t.co/E8t8GVtqH5