菲尔兹奖得主亲测:ChatGPT 17分钟解决了博士级数学难题,我们该怎么办?
我不想用一个漂亮的结论来收尾,因为我自己也还没想清楚。但有一点我比较确定:Gowers 那篇博客里描述的那 17 分钟,是一个值得认真对待的信号。不是因为它证明了 AI「有多厉害」,而是因为它来自一个极其可靠的观察者,在一个极其难以造假的领域,给出了一个极其具体的案例。这种信号,比一千篇「AI 改变世界」的营销文章更值得花时间消化。原文出处:Timothy Gowers 博客,
昨天刷到一篇博客,看完之后我盯着屏幕发了大概两分钟的呆。
写这篇博客的人叫 Timothy Gowers,菲尔兹奖得主,剑桥数学教授,加法组合论领域的顶级学者之一。他不是那种会轻易被 AI 噱头吸引的人,恰恰相反,他对 AI 的态度一直相当审慎。但这次他写下的内容,让我觉得某个临界点可能真的到了。
事情经过
Gowers 把一篇关于 sumset 理论的数学论文里的开放问题喂给了 ChatGPT 5.5 Pro。这个问题来自数论学家 Mel Nathanson,核心是关于加法集合的界的估计——原有的结论给出的是指数级别的界(2^k),而研究者们希望知道能不能把它压缩到多项式级别。
ChatGPT 思考了 17 分钟零 5 秒,给出了一个构造,把指数界改进到了多项式界,大约是 k^(10h³) 的量级。
Gowers 找来一位叫 Isaac Rajagopal 的研究者对结果做了评估。结论是:几乎肯定正确。更重要的是,Rajagopal 认为 ChatGPT 的核心贡献——构造一个所谓的 h²-dissociated 集——是「原创且巧妙的」。
这不是 AI 在检索已有答案,也不是在重新排列文献里的证明步骤。这是一个新的构造,一个人类研究者正常情况下需要一两周才能想出来的东西。
我第一反应是怀疑,然后是不安
说实话,我的第一反应是:会不会是 AI 在胡说,只是胡说得很像样?这种情况以前不是没有过。
但 Gowers 本人是这个领域的专家,他能判断答案的方向是否合理,而 Rajagopal 的独立评估也不是走过场。这件事的可信度是相当高的。
然后我开始感到不安,不是那种「AI 要取代人类」的泛泛焦虑,而是更具体的一种感受:我们对「解决难题」这件事的定价体系,可能正在被悄悄重写。
Gowers 在博客里问了一个很尖锐的问题:如果 AI 完成了大部分技术工作和概念开发,这还算数学家的「重大成就」吗?他没有给出答案,但这个问题本身已经足够让人坐立不安。
这不只是数学家的事
我知道很多开发者看到这里会想:数学研究离我很远,这跟我写业务代码有什么关系?
关系其实挺大的。
数学研究是人类智识活动里最难被「外包」的那种工作之一,因为它需要真正的创造性推理,没有捷径可走。如果这个领域都开始出现这样的突破,那工程领域里那些我们以为「需要深度思考」的工作,处境其实更脆弱。
我自己最近在用 AI 辅助做一些架构设计的工作,有一个感受越来越强烈:AI 不只是在帮我写代码,它开始参与我的决策过程了。我问它「这个场景下用消息队列还是直接 RPC」,它给出的分析不是照本宣科,而是结合了我描述的具体业务约束,给出了有取舍理由的建议。大多数时候,我最终的决策和它的建议是一致的。
这让我想到一个问题:我在这个过程里的价值是什么?是我的判断力,还是我提出了正确的问题,还是我知道什么时候该信任它、什么时候该质疑它?
博士训练的困境,以及它对应的工程版本
Gowers 在博客里提到了一个很现实的担忧:博士训练正在面临冲击。过去,导师给学生一个「足够难但可以做」的问题,学生花几年时间啃下来,这个过程本身就是训练。但现在,光「提出问题」已经不够了,问题需要难到 LLM 也解决不了才行。
这个困境在工程领域有一个完全对应的版本。
初级工程师的成长路径,很大程度上依赖于「解决中等难度问题」的积累。调一个 bug、理解一个框架、设计一个小模块——这些事情现在 AI 都能做,而且做得越来越好。如果这些「训练题」都被 AI 包办了,一个刚入行的工程师怎么建立起真正的技术直觉?
我没有答案。但我觉得这个问题值得认真想,而不是用「AI 只是工具」这句话糊弄过去。
Gowers 的态度,我觉得是目前最务实的
Gowers 最后说,数学家可能需要从追求个人功劳,转向把「与 AI 协作解决问题」本身当成工作目标。他的语气不是愤怒,也不是投降,更像是一个人在认真重新校准自己的坐标系。
这个态度我觉得是目前最务实的。
不是「AI 只是工具,人才是主体」——这句话没错,但说了等于没说。也不是「AI 会取代一切,我们完了」——这是另一种懒惰。
而是:这件事正在发生,它改变了某些东西,我需要搞清楚改变的边界在哪里,然后重新想清楚我的位置。
对我自己来说,这意味着我需要更认真地思考:哪些能力是 AI 很难复制的?不是「创造力」「情感」这种大词,而是具体的、可操作的能力。比如在一个复杂的组织环境里推动技术决策落地,比如在信息极度不完整的情况下判断风险,比如在多个相互矛盾的需求之间找到真正的优先级。
这些事情不是不重要,只是以前被「写代码」这件事的光环遮住了。
最后
我不想用一个漂亮的结论来收尾,因为我自己也还没想清楚。
但有一点我比较确定:Gowers 那篇博客里描述的那 17 分钟,是一个值得认真对待的信号。不是因为它证明了 AI「有多厉害」,而是因为它来自一个极其可靠的观察者,在一个极其难以造假的领域,给出了一个极其具体的案例。
这种信号,比一千篇「AI 改变世界」的营销文章更值得花时间消化。
原文出处:Timothy Gowers 博客,A recent experience with ChatGPT 5.5 Pro
https://gowers.wordpress.com/2026/05/08/a-recent-experience-with-chatgpt-5-5-pro/
更多推荐



所有评论(0)