1月4日,前Meta FAIR团队研究总监田渊栋在一份公开的个人年终总结中,回顾了过去一年其在Meta经历的组织震荡与被迫离职的经历,并透露个人新的就业方向和研究方向。在他看来,模型的可解释性是非常重要的研究领域。
2025年10月22日,Meta首席执行官扎克伯格批准了对该公司人工智能部门裁减约600名员工的计划。这是Meta今年在AI领域的最大规模裁员,主要针对被称为“超智能实验室”的核心研发部门,2014年便加入Meta的田渊栋也在此次裁员名单中。
田渊栋说,在2025年1月底被要求加入Llama4救火时,就曾想过未来的四种可能性,如果最后项目没有成功,也至少尽力而为,但遗憾的是,最后发生的是没在计算之内的第五种可能,被裁员。
在被裁后,他曾在网络上透露对于裁员结果的不满,“真正应该负责解决问题的人并不是被裁员的人。”

田渊栋被裁后,曾在个人社交平台上表达不满
这份年终总结里,田渊栋也透露今后的就业方向,去当一家新初创公司的联合创始人,但其他具体细节暂不公开,“希望能安静地忙一段时间。”田渊栋说。
田渊栋也表示,在这个AI能力极其充沛的时代,巨大的便利往往伴随着巨大的陷阱。唾手可得的便利,会让许多人逐渐失去思考的动力,久而久之丧失原创能力,
个人如何保持原创力?
田渊栋认为,从战术上,我们需要学会不停地审视AI的答案,挑它的毛病,并找到它无法解决的新问题。从战略上来看,无论主动还是被动,每个人都将面临从“员工”角色向“老板”或“创始人”角色的转变。如果心中有一个坚定的目标,并愿意动用一切手段(包括将大模型作为核心工具)去达成它,那么主动思考就是自然而然的结果。目标越远大,触发的主动思考就越多,激发的潜力就越大。
——以下是田渊栋的2025年终总结(略有删减)
在2025年1月底被要求加入Llama4救火的时候,作为一直以来做强化学习的人,我事先画了一个2x2的回报矩阵(reward matrix),计算了一下以下四种可能(虽然在那时,因为来自上面的巨大压力,不同意是几乎不可能的):
田渊栋画的2x2的回报矩阵(reward matrix)
当时想的是我们去帮忙的话,即便最后项目未能成功,也至少尽力而为,问心无愧。不过遗憾的是,最后发生的是没在计算之内的第五种可能,这也让我对这个社会的复杂性有了更为深刻的认识。
尽管如此,在这几个月的努力过程中,我们还是在强化学习训练的核心问题上有一些探索,比如说训练稳定性,训推互动,模型架构设计,和预训练/中期训练的互动,长思维链的算法,数据生成的方式,后训练框架的设计等等。这个经验本身是很重要的,对我的研究思路也带来了不小的转变。
另外其实我也想过在公司十年多了,总有一天要离开,总不见得老死在公司里吧,但总是因为各种经济上和家庭上的原因还是要待下去。最近一两年的说话和做事方式,都是抱着一种“公司快把我开了吧”的心态,反而越来越放开。2023年年末我休第一个长假的时候,其实几乎差点要走了,但最后没签字还是选择待在公司继续,所以说真要做出离开的决定也不容易。现在Meta帮我做了也挺好。
这次波折和今年一年的起起落落,也为接下来的小说创作提供了非常多的新素材。所谓“仕途不幸诗家幸,赋到沧桑句便工”,生活太平淡,人生就不一定有乐趣了。还记得2021年年头上的时候,因为在年末工作总结里面写了几句关于”为啥paper都没中“的反思,喜提Meet Most(相当于被点名谈话),有一种突然不及格的懵逼感。但想了想与其到处抱怨世道不公,不如就在大家面前装成自己刚刚升职吧,结果半年后果然升了职,而那篇21年头上无人问津的工作,在2021年7月份中了ICML Best paper honorable mention(ICML 最佳论文荣誉提名),成为一篇表征学习中还比较有名的文章。
10月22日之后的一段时间,基本上我的各种通信方式都处于挤爆的状态,每天无数的消息和邮件,还有各种远程会议或者见面的邀请,实在是忙不过来了。一直到几周之后才渐渐恢复正常。这两个月非常感谢大家的关心和热情。如果那时有什么消息我没有及时回复,请见谅。
虽然最后有不少offer,大家能想到的知名公司也都联系过我,但最后还是决定趁自己还年轻,去当一家新初创公司的联合创始人,细节暂时不公开,先安静地忙活一阵吧。
一些研究的方向
2025年的主要方向,一个是大模型推理,另一个是打开模型的黑箱。
自从2024年末我们的连续隐空间推理(coconut,COLM’25)工作公开之后,25年在这个研究方向上掀起了一股热潮。大家探索如何在强化学习和预训练中使用这个想法,如何提高它的训练和计算的效率,等等。虽然我们组随后就被拉去llama干活,没能再继续花很大力气往下挖,但这个让我觉得非常欣慰。尽管如此,我们还是在上半年发了一篇理论分析(Reasoning by Superposition,NeurIPS‘25)的文章,展示连续隐空间推理有优势的地方究竟在哪里,获得了不少关注。
另外是如何提高大模型的推理效率。我们的Token Assorted(ICLR’25)的工作,先通过VQVAE学出隐空间的离散token,再将所得的离散token和text token混在一起进行后训练,减少了推理代价的同时提高了性能。我们的DeepConf通过检测每个生成token的自信程度,来决定某条推理路径是否要被提前中止,这样推理所用的token减少了很多,但在majority vote的场景下性能反而更好。ThreadWeaver则是通过制造并行推理的思维链,并在其上做后训练,来加快推理速度。另外我们也在dLLM上用RL训练推理模型(Sandwiched Policy Gradient),也有在小模型上学习推理的尝试(MobileLLM-R1)。
在可解释性方面,Grokking(顿悟)这个方向我大概两年前就在关注了。因为之前我做表征学习(representation learning)的分析,虽然能分析出学习的动力学过程,看到模型出现表征塌缩的原因,但究竟学出什么样的表征,它们和输入数据的结构有什么关系,能达到什么样的泛化能力,还是个谜团,而通过分析Grokking这个特征涌现的现象,从记忆到泛化的突变过程,正好能解开这个谜团。一开始确实非常难做没有头绪,2024年先做了一篇COGS,但只能在特例上进行分析,我不是很满意。在一年多的迷茫之后,在和GPT5大量互动之后,最近的这篇可证明的Scaling Laws的文章应该说有比较大的突破,能分析出之前的线性结构(NTK)看不到的东西,并把特征涌现的训练动力学大概讲清楚了。虽然说分析的样例还是比较特殊,但至少打开了一扇新的窗口。
2025年年末的这篇《未被选择的道路》(The path not taken)我很喜欢,对于强化学习(RL)和监督微调(SFT)的行为为何会如此不一致,在权重的层面给出了一个初步的答案。SFT造成过拟合和灾难性遗忘(catastrophic forgetting),其表层原因是训练数据不够on-policy,而深层原因是权重的主分量直接被外来数据大幅修改,导致“根基”不稳,模型效果大降。而RL则因为用on-policy的数据进行训练,权重的主分量不变,改变的只是次要分量,反而能避免灾难性遗忘的问题,而改变的权重其分布也会较为稀疏(特别在bf16的量化下)。
关于可解释性的信念
很多人觉得可解释性,或者“AI如何工作得那么好”这个问题不重要,但我却觉得很重要。试想之后的两种场景:场景一:如果我们仅仅通过Scaling就达到了AGI乃至ASI,全体人类的劳动价值都降为零,AI作为一个巨大的黑盒子帮我们解决了所有问题,那如何让AI作为一个超级智能,一直行善,不欺骗不以隐秘的方式作恶,就是当务之急,要解决这个问题就要做可解释性。场景二:如果Scaling这条路最终失效,人类在指数增长的资源需求面前败下阵来,必须得要寻求其他的方案,那我们就不得不去思考“模型为什么有效,什么东西会让它失效”,在这样的思考链条之下,我们就必须回归研究,可解释性就是目所能及的另一条路了。
在这两种情况下,最终都需要可解释性来救场。就算最终AI是个全知全能全善的神,以人类好奇和探索的天性,必然还是会去研究AI为什么能做得好。毕竟“黑盒”就意味着猜疑链的诞生,在大模型技术爆炸,开始达到甚至超过人类平均水平的今天,《三体》中“黑暗森林”的规则,也许会以另一种方式呈现出来。
目前打开训练好模型的黑箱,去找到电路(circuit),还是处于比较初步的阶段。可解释性真正的难点,在于从第一性原理,即从模型架构、梯度下降及数据本身的固有结构出发,解释为什么模型会收敛出这些解耦、稀疏、低秩、模块化、可组合的特征与回路,为什么会有大量不同的解释,这些涌现出来的结构和模型训练的哪些超参数相关,如何相关,等等。等到我们能从梯度下降的方程里,直接推导出大模型特征涌现的必然性,可解释性才算真正从生物式的证据收集走向物理式的原理推导,最终反过来指导实践,为下一代人工智能的模型设计开辟道路。对比四百年前的物理学,我们现在有很多AI版的第谷(收集数据),一些AI版的开普勒(提出假说),但还没有AI版的牛顿(发现原理)。
等到那一天来临的时候,我相信,世界一定会天翻地覆。
未来会是什么样子
抛开前公司里每三个月一次的组织架构重组不谈,2025年一年的变化本身已经很大。2025年年初的Deepseek-R1的发布,现在想来几乎已经算是20世纪的事情了。带思维链的推理模型的巨大成功,让强化学习(RL)又回到了AI的主流视野之中,也带动了AI for Coding及AI Agent的发展,而后两者让大模型有了大规模落地,大幅度提高生产力的切实可能。
以前做项目,招人是很重要的一环,但现在脑中的第一个问题是“还需不需要人?”几个Codex进程一开,给它们下各种指令,它们就可以24小时不间断干活,速度远超任何人类,而且随便PUA永远听话毫无怨言。和AI工作,我最担心的是工作量有没有给够,有没有用完每天的剩余token数目。这也是为什么各家都在试验让AI Agent做几个小时连续不断的工作,看AI的能力上界在哪里。因为人的注意力永远是最昂贵的,人要休息,要度假,要允许有走神、睡觉和做其他事情的时间。减少人的介入,让AI自己找到答案,干几个小时活之后再回来看看最好。
这每个月交给OpenAI的20块钱,一定要榨干它的价值啊。
我突然意识到,就因为这20块钱,我已经成为“每个毛孔里都滴着血”的肮脏资本家。我能这么想,全世界最聪明和最富有的头脑,也一定会这么想。
所以请大家丢掉幻想,准备战斗吧。
在帮忙赶工Llama4期间,我经常在加州时区晚上12点接到东部时区的组员消息,在伦敦的朋友们更是永不下线,熬夜折腾到凌晨四五点是寻常事,但大模型越来越强,辛勤劳动最终达到的结果,是看到大模型达到甚至超越我们日常做事的水准。
这应该说是一种陷入囚徒困境之后的无奈。
人类社会的“费米能级”
如果以后以AI为中心,那还需要人吗?

如果考虑劳动力的投入-回报模型,传统思维会告诉你,工作经验积累越多,人的能力越强,回报也越大,是个单调上升的曲线。这就是为什么大厂有职级,职级随年限晋升,越老越香。但现在的情况已经不同了。职级已经没有意义,过去的经验也没有意义,人的价值从按照“本人产出的劳动数量及质量”来评估,变成了是否能提高AI的能力,人加AI要大于AI本身的产出,这样才行。
这样就让投入-回报曲线从一个单调递增曲线变成了一个先是全零,再在一定阈值之后增长的曲线(也即soft-thresholding的曲线)。一开始人的能力是比不过AI的,而AI的供给只会越来越便宜,所以在很长一段成长期内,人本身是没有价值的。只有在人的能力强到一定程度之后,能够做到辅助AI变强,才开始变得有价值起来。
并且,在跨越阈值之后,厉害的人对AI的加成,会高于普通人很多,因为普通人只会对AI的一两条具体产出花时间修修补补,而厉害的人在看了一些AI存在的问题之后,能提出较为系统性和普遍性的解决方案,结合手上的各类资源(GPU和数据等),可以进一步让AI变得更强,而这种效应随着AI的广泛部署,会被几何级数地放大。“一骑当千”这种小说笔法,将很快变成现实。
在这样一个非常两极分化的投入-回报模型之下,如果把人+所有个人能获取的AI当成一个智能体,整体来看,它的能力分布会和电子能级在材料里的分布很像:低于或达到某个水准线的智能体遍地都是,求着客户给它干活,以证明自己还是有用的;而高于这个水准线的智能体则指数级地变少,获取和使用它非常花钱,还常常排不到。
这个水准线,就是AI洪水的高度,就是人类社会的“费米能级”。低于费米能级的职业,可能在一夜之间就被颠覆掉,就像一场洪水或者地震一样,前一天还是岁月静好,后一天整个行业被端掉了。
随着时间变化,这条水准线还会一直往上走。其进展的速度,和它能获取到的,比它更强的数据量成正比。如果大模型的训练过程没有特别大的进展,那和自动驾驶无人车一样,越往上走,有用的数据是越来越少的,进展也会越慢,最顶尖的那部分人,还能在很长时间内保有自己的护城河。如果训练过程有突破,比如说找到新的合成数据手段,乃至新的训练算法,那就不好说了。
当然以上的判断是假设有无限的GPU和能源的供给,并没有考虑到各种资源短缺的情况。能源短缺,芯片产能短缺,内存短缺,整个地球能否满足人类日益疯狂增长的AI需求还是个未知数,这方面深究下去,或许可以做一篇论文出来。
遍地神灯时代的独立和主动思考
那么,接下来会怎么样呢?
未来的世界,或许不再是传统故事里描绘的那样——人们为了争夺稀缺的武功秘籍,或是千辛万苦寻找唯一的阿拉丁神灯、集齐七颗龙珠而展开冒险。相反,这将是一个“遍地神灯”的时代。每一个AI智能体都像是一个神灯,它们能力超群,渴望着实现别人的愿望,以此来证明自己的价值。
在这种环境下,真正稀缺的不再是实现愿望的能力,而是“愿望”本身,以及将愿望化为现实的那份坚持。
然而,在这个AI能力极其充沛的时代,巨大的便利往往伴随着巨大的陷阱。大模型提供了极其廉价的思考结果,在当前信息交互尚不充分的市场中,这些结果甚至可以直接用来交差并获取经济价值(例如那些一眼就能看出的“AI味”文案)。这种唾手可得的便利,会让许多人逐渐失去思考的动力,久而久之丧失原创能力,思想被生成式内容和推荐系统所绑架和同化。这就是新时代对“懒人”的定义:不再是因为体力上的懒惰,而是精神上没有空闲去思考,没有能力去构思独特的东西。
最终变成一具空壳,连许愿的能力都失去了。
那我们该如何保持独立思考?如何不被AI同化?
战术上来说,我们需要学会不停地审视AI的答案,挑它的毛病,并找到它无法解决的新问题。未来的新价值将来源于三个方面:(1)新的数据发现;(2)对问题全新的深入理解;(3)新的路径,包括可行的创新方案及其结果。利用信息不对称来套利只是暂时的。随着模型越来越强,社会对AI的认知越来越清晰,这种机会将迅速消失。如果仅仅满足于完成上级交代的任务,陷入“应付完就行”的状态,那么在AI泛滥的今天,这种职位极易被取代。
AI时代生存指南 来源:田渊栋的知乎账号就拿AI Coding来说,用多了,我会觉得它虽然可以很快弄出一个可以跑的代码库满足需求,但随着代码越来越长,它贡献的代码也就越来越不如人意,还是需要人来做大的设计规划。如何调教它让它更快达成自己的长远目的,这会成为人类独有价值的一部分。如果只是盲目地命令它做这个做那个,而不自己去思考如何做才能和它配合做得更好,那就会和大部分人一样停留在应用层面,而无法理解得更深入,就更不用说独一无二了。
战略上来说,无论主动还是被动,每个人都将面临从“员工”角色向“老板”或“创始人”角色的转变。这种转变的核心在于“目标感”。如果心中有一个坚定的目标,并愿意动用一切手段(包括将大模型作为核心工具)去达成它,那么主动思考就是自然而然的结果。目标越远大,触发的主动思考就越多,激发的潜力就越大。
因此,如果将来的孩子立志要去土卫六开演唱会,或者想在黑洞边缘探险,千万不要打压这样看似荒诞的志向。因为这份宏大的愿望,或许正是他们一辈子充满前进动力,主动思考的根本源泉,也是让他们始终屹立于“费米能级”之上的关键。
澎湃新闻记者 喻琰
4001102288 欢迎批评指正
All Rights Reserved 新浪公司 版权所有
