[文末附我最常用的大模型网址]

同样是芯片工程师,AI时代的分化已经到了让人不敢相信的地步。

大部分人对AI的认知还停留在"聊天工具"这个层面。问问它今天运势如何,让它写个周报凑合一下,或者闲着没事逗它玩。这些人觉得AI就是个新鲜玩意儿,偶尔用用,谈不上什么生产力。

但另一批人已经走到了完全不同的地方。

他们在用GPT-5、Claude Opus这些最先进的模型,搭建自己的工作SOP。什么意思?就是把整个设计流程、验证流程、debug流程都系统化地交给AI辅助完成。不是简单地问一句"这个bug怎么修",而是建立了一套完整的提示词体系,让AI深度参与到芯片设计的每个环节。

差距到底有多大

写Verilog的时候,普通工程师可能还在手敲代码,遇到问题去翻文档。

而那些会用AI的人,已经在让模型帮他们生成testbench、review时序逻辑、甚至重构整个模块的架构。

举个例子,假设你要写一个AXI总线的slave接口:

// 传统方式:自己一行行写,参考之前的代码
// 可能要花2-3小时,还得反复检查握手信号

// AI辅助方式:
// 1. 给模型提供spec和约束条件
// 2. 让它生成初版代码
// 3. 让它review潜在的时序问题
// 4. 让它生成对应的验证用例
// 整个流程压缩到30分钟

这不是效率提升20%、30%的问题,这是数量级的差距

更关键的是,这种差距会自我强化。会用AI的人每天能多完成3-4倍的工作量,他们积累经验的速度也是别人的3-4倍。半年之后,技术能力的差距已经大到无法追赶。

为什么大多数人还在用豆包算命

说白了,是认知问题。

很多工程师觉得AI就是个"智能搜索引擎",顶多帮你写点简单代码。他们没意识到,当你掌握了正确的提示词技巧,AI可以成为一个懂芯片设计的高级工程师。

还有人担心AI生成的代码不可靠。这个担心有道理,但问题在于使用方式。如果你只是把需求扔给AI,然后直接复制粘贴结果,那确实危险。但如果你把AI当成一个需要指导的junior工程师,给它明确的约束条件,让它解释设计思路,然后你再review和调整,这就是完全不同的工作模式。

最大的障碍其实是惰性。学习如何高效使用AI,本身需要投入时间。你得研究不同模型的特点,得积累提示词模板,得建立自己的工作流程。这个过程可能要花几周甚至几个月。很多人懒得折腾,觉得还是用老方法省事。

但他们没想到的是,这几周的投入,换来的是未来几年的降维打击。

技术准确性才是核心

这里必须强调一点:AI不是万能的,在芯片设计这种对准确性要求极高的领域,盲目依赖AI是灾难。

比如让AI生成一个CDC(跨时钟域)电路,它可能给你一个看起来很合理的方案,但实际上存在亚稳态风险。如果你不懂CDC的基本原理,根本发现不了问题。

所以正确的使用方式是:你必须比AI更懂技术,你用AI是为了加速执行,不是替代思考。

那些真正用好AI的工程师,都是技术功底扎实的人。他们知道什么地方可以放心交给AI,什么地方必须自己把关。他们会让AI生成代码,但会仔细review每一行逻辑。他们会让AI提供优化建议,但最终决策永远是自己做。

分化还会继续加剧

现在只是开始。

Claude 、GPT-5这些模型的代码能力已经强到让人意外。再过一年,模型能力还会继续提升。到那时候,会用AI的工程师和不会用的工程师,可能已经不在同一个竞争层面了。

公司招人的标准也会变。以前看你会不会写Verilog,会不会用EDA工具。以后可能要看你会不会用AI辅助设计,有没有建立自己的AI工作流。

这不是危言耸听,这是正在发生的事实。

有些人可能觉得,AI会取代芯片工程师。这个判断是错的。AI不会取代工程师,但会用AI的工程师会取代不会用的工程师。

差距已经拉开了。你是继续用豆包算命,还是开始搭建自己的AI工作流,这个选择会决定你未来几年的职业轨迹。


后台私信"提示词",把我最常用的大模型调用网址分享给你。前100名赠卡密兑换体验。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐