Facebook(现在的Meta公司)并没有完全叫停所有的人工智能研究。 事实情况是,他们叫停了一个特定的、内部代号为“Galactica”的人工智能模型。

这个事件在2025年11月引发了广泛关注,很多人将其解读为Meta在AI发展上的一次重大挫折或转向,下面我将从几个方面为您详细解释:
事件核心:Galactica是什么?
- 定位:Galactica是一个由Meta AI(前身为Facebook AI Research, FAIR)开发的大型语言模型,类似于ChatGPT或Google的Bard。
- 目标:它的设计初衷非常宏大,旨在成为一个“科学界的搜索引擎”,它被训练在海量的科学文献、教科书、参考资料和网站数据上,目标是帮助科学家、研究人员和学生:
- 总结论文:快速理解一篇长篇论文的核心内容。
- 解决数学题:一步步解答数学和科学问题。
- 解释复杂概念:用简单的语言解释像“蛋白质折叠”或“量子纠缠”这样的术语。
- 生成代码:为科学计算编写代码。
- 发布形式:Meta在2025年11月15日发布了一个公开的演示网站,让公众可以免费试用这个模型。
为什么被叫停?—— 从“希望之星”到“一本正经地胡说八道”
Galactica只上线了三天,就被Meta紧急下线了,原因在于它在实际应用中暴露出了严重的问题,引发了学术界和公众的强烈批评。
主要问题包括:
a) 严重的“一本正经地胡说八道”(Hallucination) 这是最致命的问题,虽然Galactica看起来非常权威,但它会编造出看似合理但实际上完全错误的信息。

- 例子:当被问及“在2012年赢得诺贝尔物理学奖的科学家是谁?”时,它给出的答案中包括了已故的物理学家约翰·巴丁(他曾在1956年和1972年两次获奖),但错误地声称他在2012年获奖,对于一个科学工具来说,这种事实性错误是灾难性的。
b) 强化和固化偏见 Galactica的训练数据来源于现有的科学文献,而这些文献本身就充满了历史偏见(对女性和少数族裔科学家的贡献记录不足),模型不仅没有纠正这些偏见,反而通过“和“整理”的方式,将这些偏见系统化、权威化了。
- 例子:在搜索“著名的化学家”时,它给出的名单几乎全是男性,这无疑会加剧科学领域的性别不平等印象。
c) 错误地引用来源 为了增强可信度,Galactica会为它的回答附上看起来非常专业的引用列表,但很多引用是它自己捏造的,或者与回答内容毫不相关,这让用户很难判断信息的真伪,反而可能被虚假的“学术外衣”所欺骗。
d) 伦理担忧 批评者指出,将这样一个不成熟的、充满缺陷的模型公之于众,是对公众不负责任的行为,用户,特别是没有专业背景的学生,可能会轻易相信并使用这些错误信息进行学习或研究,造成误导。
Meta官方的回应与反思
面对铺天盖地的批评,Meta AI的负责人Joelle Pineau在官方博客上做出了回应,承认了Galactica的局限性,她表示:

- 模型无法区分事实和虚构。
- 它在处理科学领域的细微差别和事实准确性方面存在根本性挑战。
- 团队收到了有价值的反馈,并意识到该模型“目前无法满足我们为负责任的AI设立的标准”。
他们决定关闭演示网站,并表示将继续改进模型,但不会立即重新发布。
深层解读:这不仅仅是“一个项目失败”
“叫停Galactica”这一事件,背后反映了几个非常重要的行业趋势和思考:
a) 大型语言模型的“幻觉”问题是根本性挑战 这表明,即使是像Meta这样拥有顶级资源的公司,也无法完全解决当前LLM模型固有的“胡说八道”问题,这给整个AI行业敲响了警钟:AI的流畅和“智能”并不等于其事实的准确性。
b) 责任AI(Responsible AI)的重要性日益凸显 Meta这次的“翻车”案例,成为了关于“负责任的AI”开发和发布的经典反面教材,它说明,在将强大的AI技术推向公众之前,必须进行极其严格的安全测试、偏见评估和事实核查,单纯追求技术上的“酷炫”和“先进”是远远不够的。
c) Meta的AI战略并未倒退,而是更加务实 需要强调的是,叫停Galactica不等于Meta放弃AI,恰恰相反:
- 其他AI项目仍在继续:Meta在AI领域的投入巨大,尤其是在生成式AI方面,他们后来推出了与Instagram集成的AI图像生成器(如Emu),并且正在全力追赶ChatGPT,推出了自己的大语言模型Llama系列。
- 从“大跃进”到“稳扎稳打”:Galactica事件让Meta的AI战略变得更加谨慎和务实,他们可能意识到,与其过早发布一个功能强大但缺陷明显的“通用”模型,不如先在特定领域(如图像生成、聊天机器人)打磨出更稳定、更可控的产品,这也可以看作是他们对竞争对手(如OpenAI)的一种战略调整。
“Facebook叫停人工智能”是一个被简化的说法,准确的事件是:Meta公司因其开发的科学大模型Galactica存在严重的“一本正经地胡说八道”和偏见问题,在上线仅三天后就将其下架。
这一事件:
- 暴露了当前大型语言模型在事实准确性上的巨大缺陷。
- 成为了一个关于“负责任AI”开发的标志性案例。
- 并不意味着Meta放弃AI,反而促使他们在AI战略上更加谨慎和务实,专注于更可控、更安全的AI应用。
标签: Facebook叫停人工智能 AI伦理困境 人工智能失控风险 Facebook暂停项目 Facebook AI项目终止 技术安全边界