Medium 上有好多文章都在说公司大规模引入AI编码工具后,会出现软件架构漂移问题,甚至会导致重大生产事故,比如 AWS。去年12月份 AWS 内部 Kiro 在处理 Cost Explorer 服务问题的时候,自主决定“删除并重建”整个生产环境,导致服务中断 13 小时,国内一大堆订单处理受影响。 AI 确实能给开发效率带来显著的提升,但是不是也会带来飞速的架构漂移?OpenClaw 就是一个典型的“几乎全靠 AI 维护”开源项目,它的代码规模也在 AI 快速迭代的情况下快速膨胀,社区也反馈了其很多“局部正确、全局崩坏”的情况。
所以判断力是不是应该成为程序员最核心的能力?
在 AI 时代,比起自己动手写代码,更重要的是能准确判断 AI 做的“对不对”——是不是符合长期架构、业务逻辑、全生命周期成本以及潜在风险 而判断力本质上是大量隐性知识的积累
代码可以外包给 AI,但判断没办法外包
#linuxdo
AI 时代,团队需要有很多ai想法或者产品思维的人,而不是螺丝钉(随时会被替代),如果你的想法很值钱,就不容易被替代 模型的结果质量 = 需求明确性 + (提示词)上下文(大模型侧的视角,用户侧的视角是认知)「认知:对代码的理解、产品的理解、开发的理解等等,懂得越多能更好的压榨模型的能力」 人不可能比 ai 聪明,但人能和 ai 相互促进良性循环
反思:如果没有极大发挥 AI 的能力,就只能算是普通程序员 + ai coding 工具协作罢了
#bilibili
在vibecogding过程中,快速生成、想法变原型快效果很刺激。但容易陷入代码腐化的危机,如错误堆积、改动影响大、维护成本高,快速生成的是项目而不是可演进的工程。软件的最大价值在于可以规模化推广,也就是一次开发多次分发,以及收拢通用需求演进。现在的生成模式很难让软件进入“复利模式”,应该从生成模式演变成治理模式即冻结边界、建立“单一事实源”、让AI不能乱写,并且项目后期AI收敛而不是扩张
#linuxdo
对于大模型要有一定理解,不要只把它当成一个黑盒用连最基本的原理都不知道 #linuxdo
车灯只能照亮50米,可车子就是可以跑完全程
沃德发 HelloAgents文档怎么这么多字
post memos test #test