Anthropic内部调查曝光:工程师自曝“每天上班都在让自己失业“
Anthropic最近做了件挺有意思的事。
他们把研究的镜头对准了自己,调查了132名工程师和研究员,想看看AI到底怎么改变了他们的工作。
结果发现的东西,既让人兴奋,也让人有点不安。
先说好消息:生产力确实在飙升
工程师们现在60%的工作时间都在用Claude,生产力提升了50%。
这个数字比去年翻了2-3倍。
更有意思的是,有27%的工作是以前根本不会做的。
比如那些"有了更好,没有也行"的小工具,或者一些探索性的尝试。
可以这么理解:以前你可能会想"这个功能挺好的,但要花两周时间做,算了"。
现在有了AI,两周变成两小时,你就会去做了。
那些曾经因为"性价比不高"而被放弃的想法,现在都可以试试看。
但技能在发生微妙的变化,这里开始有点复杂了。
一方面,工程师们变得更"全栈"了。
后端工程师能做前端界面,安全团队能分析不熟悉的代码。
有个工程师说他做了个复杂UI,设计师看到后问"你做的?"
他回答:"不是我,是Claude做的,我只是提了要求。"
但另一方面,有些人开始担心基础技能的退化。
一个资深工程师说得很直白:
我现在主要用AI处理那些我知道答案应该长什么样的任务。但如果我还是初级工程师,我会很担心自己是不是在盲目接受模型输出。
这里的悖论:你需要足够的技能来监督AI的输出,但过度依赖AI又可能让这些技能退化。
就像你需要懂编程才能判断AI写的代码对不对,但如果总是让AI写代码,你的编程能力会不会变差?
更微妙的变化在社交层面。
以前遇到问题,你会去问同事。
现在80-90%的问题都先问Claude了。
有人觉得这挺好,不用麻烦别人。
但也有人说:"我喜欢和人一起工作,现在'需要'他们的时候少了,这让我有点难过。"
一个资深工程师提到,初级工程师现在很少来问问题了,"
虽然他们的问题确实得到了更有效的解答,学得也更快。"
这让我想起一个问题:学习到底是什么?
是快速得到答案,还是在寻找答案的过程中建立对系统的理解?
有工程师说,以前调试一个问题,你会读很多文档和代码,虽然不是所有内容都直接有用,但你在建立对整个系统的认知。
现在Claude能直接带你找到问题所在,效率提高了,但那种"附带学习"少了。
最让人深思的是工程师们对未来的看法。
很多人说不清楚几年后自己的工作会是什么样。
有人说:"短期我很乐观,但长期来看,我觉得AI最终会做所有事情,让我和很多人变得无关紧要。"
也有人更直接:"感觉我每天上班就是在让自己失业。"
但也有人觉得这只是又一次技术抽象层级的提升。
就像以前程序员要手动管理内存、写汇编语言,现在高级语言帮我们处理了这些。
也许未来,英语就是编程语言,我们会在更高的层次上思考问题。
一个工程师说:
"'技能退化'这个说法的前提是,编程总有一天会回到Claude 3.5之前的样子。但我不这么认为。"
Anthropic自己也在摸索。
他们在思考怎么让团队更好地协作,怎么支持职业发展,怎么建立AI辅助工作的最佳实践。
但说实话,没人有确定的答案。
这个研究最有价值的地方,可能不是给出了什么结论,而是提出了正确的问题:
• 当AI能做越来越多的事情,我们该保持哪些技能?
• 效率提升和深度学习之间,怎么平衡?
• 工作的意义到底是什么,是产出还是过程?
• 人与人之间的协作会变成什么样?
这些问题不只是Anthropic的工程师要面对的,可能很快就会成为我们所有人的问题。
技术进步从来不是单纯的好或坏,它会带来新的可能性,也会带来新的挑战。
重要的是我们怎么去适应,怎么在变化中找到新的平衡。
就像一个工程师说的:"没人知道会发生什么,重要的是保持适应能力。"
这可能是最诚实,也最实用的建议了。
AI总结,人工排版,原文地址见评论区