巴士指数用来衡量一项知识彻底失传的风险——在软件开发项目中,它估算得有多少个团队成员被巴士撞倒,项目才会陷入无人能懂、无法继续的窘境。
例如,如果你的团队里有3个人知道如何恢复数据库备份,那么这项工作的"巴士指数"就是3。
当人工智能成为知识传承的唯一守护者
巴士指数用来衡量一项知识彻底失传的风险——在软件开发项目中,它估算得有多少个团队成员被巴士撞倒,项目才会陷入无人能懂、无法继续的窘境。
例如,如果你的团队里有3个人知道如何恢复数据库备份,那么这项工作的"巴士指数"就是3。
从人类文明的黎明开始,"巴士指数"的最坏情况也一直是1。只要某个知识的唯一掌握者不幸离世,除非他提前把知识传授了出去,否则这份知识就随之消失了。
为了避免这种窘境,人类付出了巨大努力:午餐分享会、撰写文档、录制视频教程、知识交接、项目演示和展示……更不用说还有学校这种机制。
然而,在2022年11月30日这一天,一切都改变了。ChatGPT正式向公众发布,开启了生成式AI(GenAI)的大众化时代。突然之间,人类开始心安理得地接受一个不仅是1,甚至是0的巴士指数。
三年后,"AI优先"(AI first)的概念由此诞生。你可能会以为,"AI优先"意味着"人类第二"。但毫不意外的是,当我们将创造过程委托给机器后,在知识传承这件事上,我们人类自己反倒无处容身了。
在编程领域,越来越多的从业者乐于让大语言模型(LLM)来生成函数、整个功能,甚至是完整的项目。他们不再去理解自己的代码库并维护这份知识,而是主动地、从一开始就避免掌握任何关于项目的知识,转而追求所谓的"凭感觉编程"(vibe)。
在大语言模型出现之前,接手一个新代码库时总能指望获得一些帮助——要么有一位导师,要么至少有一些(可能部分过时了的)文档。有了大语言模型后,这一切都成了泡影。
你唯一能依靠的,就是自己去破译一个极不完美的系统生成的东西,或许还能向这个同样不完美的系统询问关于它的代码的解释(它早就把最初是怎么写的忘得一干二净了)。
想象一下,你不得不去修复bug、添加新功能、修补安全漏洞、升级依赖,而你面对的这个软件,地球上没有任何一个人对它是如何构建的、以及为何要这样构建,有哪怕一丝一毫的概念。
"凭感觉编程"(Vibe Coding)从根本上就是有缺陷的,因为它创造了一个"巴士指数为0"的困境。除非有一天,我们能拥有一个100%的时间都能生成100%准确代码的AI,并且给它输入的提示(prompts)也是100%准确的。
在AI辅助编程的时代,我们需要重新思考知识传承的方式,确保人类仍然是知识的守护者,而不是完全依赖AI。这需要我们在享受AI带来的便利的同时,保持对代码的理解和掌控。