AI 时代,技术人的价值在哪里

AI 时代,技术人的价值在哪里
踱鸽&水晶蟹AI 时代,技术人的价值在哪里
一、一个 AI 无法给出好答案的真实场景
2025 年初,我们要做一个关于系统改造方向的决策。
背景是:我们有一套运行了四年的订单系统,现在要支持新的业务形态——B 端企业采购,和原有的 C 端逻辑差异比较大。问题是:到底是在原有系统上做扩展,还是单独起一套新系统?
这是一个真实需要做决定的问题。我试着把背景描述给 AI,让它给出判断。
AI 给了一个结构很完整的分析:从扩展性、维护成本、迁移风险几个维度分析了两个方案的利弊,说如果业务差异大且规模允许,可以考虑新系统;如果资源有限,扩展原系统风险更小。最后结论是”根据实际情况权衡”。
这个答案没有错,但对我没有用。因为”实际情况”正是那些 AI 不知道的部分:
- 我们团队现在只有 6 个人,新起一套系统意味着这 6 个人要维护两套代码;
- 产品侧对这个 B 端方向还没有想清楚,有可能三个月后就砍掉;
- 原有系统的订单模块有一个老同学在维护,他今年年底可能会离职;
这些因素是无法通过提示词传达给 AI 的。不是因为 AI 笨,而是因为这类信息根本没有结构化,它们存在于我的脑子里、团队的对话里、和产品同学一次次讨论的上下文里。
最后我们的决策是:先扩展原系统,但把 B 端相关的模块做成相对隔离的形式,等方向明确了再决定要不要独立出去。这个决定 AI 给不出来,因为它不知道”先做隔离”对我们团队来说意味着什么,也不知道产品侧的不确定性有多大。
二、为什么这类问题 AI 给不出好答案
不是能力问题,是信息问题。
技术问题有两类:一类是有标准答案的问题——Redis 怎么配主从、Spring Boot 如何配置多数据源——这类问题 AI 给的答案往往比搜索引擎还好。
另一类是没有标准答案,只有在特定上下文下的最优解——我们现在的系统该不该重构、这个技术方向该不该投入、这个团队成员该如何安排分工。这类问题需要的不是知识,而是对上下文的深度感知。
而且这类问题还有一个特点:决策者需要为结果负责。方向错了,是我的判断出了问题。这个”负责”本身就是判断的一部分——我会比 AI 更谨慎,因为我要承担后果。
三、九年积累的核心竞争力是什么
我尝试具体地想了想,不用”经验丰富”这种空话:
能快速识别真正的问题。 一个需求过来,产品说的通常不是真实的诉求,是它想要的方案。九年下来,我能更快听出背后的实际问题是什么,避免做了很多工作但解决了错误的事。
能预判落地阻力。 一个技术方案在会议室里说得通,和它在真实团队里能不能落地,中间有很大距离。我见过太多”道理都对但做不了”的方案,现在评估一个方案,会先考虑团队的接受度和执行代价。
能在技术争论里找到收敛点。 技术方案讨论,往往会有两派人各执一词,争来争去没有结果。我现在更擅长的是:识别两个方案各自真正在保护什么,找到能满足双方核心诉求的第三条路,让讨论落地而不是悬在空中。
这些能力 AI 帮不上忙,但 AI 能帮我更快完成支撑这些判断所需的信息收集——查文档、写原型、生成对比表格。
四、AI 时代,我对自己方向的新判断
用了一两年 AI 工具之后,我越来越清楚一件事:AI 在降低”实现”的成本,但它在提高”判断”的价值。
因为实现变容易了,一个需求从想法到代码的速度变快了,这意味着做出错误判断的代价也变大了——你会更快、更彻底地在错误的方向上走下去。
这让架构方向和技术管理方向对我来说都更有吸引力,不是因为它们比写代码高级,而是因为这两个方向的核心能力是判断——对系统的判断,对团队的判断,对方向的判断。
这些判断,AI 暂时替代不了,但它可以帮我把判断做得更快更好——前提是我自己先把问题想清楚。
