AI时代的严重分化!有人用豆包算命,有人已经在用Claude重构设计流程
大部分人对AI的认知还停留在"聊天工具"这个层面。问问它今天运势如何,让它写个周报凑合一下,或者闲着没事逗它玩。这些人觉得AI就是个新鲜玩意儿,偶尔用用,谈不上什么生产力。但另一批人已经走到了完全不同的地方。他们在用GPT-5、Claude Opus这些最先进的模型,搭建自己的工作SOP。什么意思?就是把整个设计流程、验证流程、debug流程都系统化地交给AI辅助完成。不是简单地问一句"这个bug
[文末附我最常用的大模型网址]
同样是芯片工程师,AI时代的分化已经到了让人不敢相信的地步。
大部分人对AI的认知还停留在"聊天工具"这个层面。问问它今天运势如何,让它写个周报凑合一下,或者闲着没事逗它玩。这些人觉得AI就是个新鲜玩意儿,偶尔用用,谈不上什么生产力。
但另一批人已经走到了完全不同的地方。
他们在用GPT-5、Claude Opus这些最先进的模型,搭建自己的工作SOP。什么意思?就是把整个设计流程、验证流程、debug流程都系统化地交给AI辅助完成。不是简单地问一句"这个bug怎么修",而是建立了一套完整的提示词体系,让AI深度参与到芯片设计的每个环节。
差距到底有多大
写Verilog的时候,普通工程师可能还在手敲代码,遇到问题去翻文档。
而那些会用AI的人,已经在让模型帮他们生成testbench、review时序逻辑、甚至重构整个模块的架构。
举个例子,假设你要写一个AXI总线的slave接口:
// 传统方式:自己一行行写,参考之前的代码
// 可能要花2-3小时,还得反复检查握手信号
// AI辅助方式:
// 1. 给模型提供spec和约束条件
// 2. 让它生成初版代码
// 3. 让它review潜在的时序问题
// 4. 让它生成对应的验证用例
// 整个流程压缩到30分钟
这不是效率提升20%、30%的问题,这是数量级的差距。
更关键的是,这种差距会自我强化。会用AI的人每天能多完成3-4倍的工作量,他们积累经验的速度也是别人的3-4倍。半年之后,技术能力的差距已经大到无法追赶。
为什么大多数人还在用豆包算命
说白了,是认知问题。
很多工程师觉得AI就是个"智能搜索引擎",顶多帮你写点简单代码。他们没意识到,当你掌握了正确的提示词技巧,AI可以成为一个懂芯片设计的高级工程师。
还有人担心AI生成的代码不可靠。这个担心有道理,但问题在于使用方式。如果你只是把需求扔给AI,然后直接复制粘贴结果,那确实危险。但如果你把AI当成一个需要指导的junior工程师,给它明确的约束条件,让它解释设计思路,然后你再review和调整,这就是完全不同的工作模式。
最大的障碍其实是惰性。学习如何高效使用AI,本身需要投入时间。你得研究不同模型的特点,得积累提示词模板,得建立自己的工作流程。这个过程可能要花几周甚至几个月。很多人懒得折腾,觉得还是用老方法省事。
但他们没想到的是,这几周的投入,换来的是未来几年的降维打击。
技术准确性才是核心
这里必须强调一点:AI不是万能的,在芯片设计这种对准确性要求极高的领域,盲目依赖AI是灾难。
比如让AI生成一个CDC(跨时钟域)电路,它可能给你一个看起来很合理的方案,但实际上存在亚稳态风险。如果你不懂CDC的基本原理,根本发现不了问题。
所以正确的使用方式是:你必须比AI更懂技术,你用AI是为了加速执行,不是替代思考。
那些真正用好AI的工程师,都是技术功底扎实的人。他们知道什么地方可以放心交给AI,什么地方必须自己把关。他们会让AI生成代码,但会仔细review每一行逻辑。他们会让AI提供优化建议,但最终决策永远是自己做。
分化还会继续加剧
现在只是开始。
Claude 、GPT-5这些模型的代码能力已经强到让人意外。再过一年,模型能力还会继续提升。到那时候,会用AI的工程师和不会用的工程师,可能已经不在同一个竞争层面了。
公司招人的标准也会变。以前看你会不会写Verilog,会不会用EDA工具。以后可能要看你会不会用AI辅助设计,有没有建立自己的AI工作流。
这不是危言耸听,这是正在发生的事实。
有些人可能觉得,AI会取代芯片工程师。这个判断是错的。AI不会取代工程师,但会用AI的工程师会取代不会用的工程师。
差距已经拉开了。你是继续用豆包算命,还是开始搭建自己的AI工作流,这个选择会决定你未来几年的职业轨迹。
后台私信"提示词",把我最常用的大模型调用网址分享给你。前100名赠卡密兑换体验。
更多推荐


所有评论(0)