Skip to content

深度专注力而非人工智能

在技术社区中,工程师们纷纷利用大型语言模型(LLMs)解决计算机科学问题,这一热潮引起了广泛关注。这类模型无疑是极其强大的工具,对工程师而言,如同如虎添翼。它们能够自动化重复性任务、生成代码片段、协助头脑风暴、帮助调试等,这些功能为工程师节省了大量时间和脑力,使其可以将资源投入到更复杂、更具创造性的解决问题过程中。然而,正所谓 “工欲善其事,必先利其器”,就像使用任何工具一样,大型语言模型也应被明智地使用。

大型语言模型虽强大,但过度依赖它们所带来的风险不容小觑。这不禁让人想起过去面试程序员时的一个现象 —— 需要甄别 “百度 / 谷歌程序员”。这类程序员在面试中对技术问题的回答看似头头是道,对自己的工作内容也能介绍得清楚明白,但一旦深挖实现细节,就会暴露出他们不过是通过搜索引擎获取各种代码,稍作修改拼凑后,调试通过即认为大功告成,却对实现原理知之甚少,这无疑会给后续的迭代工作埋下巨大隐患。而在大型语言模型时代,这种 “Ctrl+C/V” 式的编程习惯,只会让我们基本技能加速退化,甚至连基础算法原理都有可能遗忘。

回溯到搜索引擎时代,用户会通过多轮探索,比如不断调整关键词,来寻找最佳答案。这种过程其实是一个半自动化的模式,搜索引擎负责返回结果列表,最终选用哪个结果,仍需我们自己逐一查看。大型语言模型则大不相同,它们往往倾向于直接给出答案,除非提供的方案行不通,用户才会被迫去探索其他可能性。这并非在比较搜索引擎与大型语言模型的优劣,而是想强调一个关键观点: “利用” 和 “探索” 本应相辅相成。然而,过度依赖大型语言模型会导致探索与利用的失衡,缺乏探索的支撑,单纯的 “利用” 就如同在沙滩上建造高楼,基础不稳,越往后越容易摇摇欲坠。

试想这样一个场景:一家初创公司利用大型语言模型生成的代码构建了其核心产品,初期产品运转良好。但当竞争对手推出更高效的方案时,由于团队缺乏对底层原理的理解,无法迅速迭代产品,最终在市场竞争中被淘汰。这并非危言耸听,现实中已有许多过度依赖 “快速交付” 的团队在大型语言模型营造的舒适环境中,丧失了突破性创新能力。

计算机科学的诞生源于人类对更快解决问题工具的需求,我们希望将精力集中在真正的问题上,而非耗费在重复性任务中。人类创造机器以加速问题解决,工程师本应是算法的主人。然而,若工程师沉迷于大型语言模型生成的 “快餐式” 代码,我们将面临一项基本技能 —— 专注力 —— 丧失的风险。专注力如同肌肉,需要不断练习才能保持强健。

计算机科学的本质在于人类对复杂性的掌控。在 20 世纪 90 年代,程序员需要手写汇编代码以优化性能;如今,大型语言模型能够自动生成优化建议。当我们逐渐将复杂问题的解决权交给人工智能时,人类的独特价值在哪里?或许答案就藏在每一次我们深呼吸、关掉所有通知、专注盯着屏幕调试代码的瞬间。真正的创新,永远属于那些愿意在混乱中寻找秩序、在噪声中聆听真相的人类工程师,至少在目前的 AI 水平下,距离达到这个标准还有很长的路要走。