软件开发的格局正在经历根本性转变。著名AI研究员、特斯拉前AI总监Andrej Karpathy最近在YC AI Startup School 2025上提出了他的”软件3.0”愿景,概述了人工智能如何重塑编程和软件架构的本质。
演变:从1.0到3.0
Karpathy的框架建立在他早期的软件2.0概念之上,在软件2.0中神经网络和机器学习模型开始取代传统的手工编码算法。现在,软件3.0代表了 next evolutionary leap,其中提示变成程序,自然语言成为主要编程接口。
这种演变可以理解为:
- 软件1.0:带有明确指令的传统编程
- 软件2.0:神经网络和机器学习模型
- 软件3.0:LLM驱动的开发,其中英语成为最热门的编程语言
关于这种转变特别 striking 的是,软件3.0并没有 completely replacing its predecessors。相反,我们看到一种混合共存,其中”软件3.0正在吞噬1.0/2.0”,导致我们如何处理软件开发被根本重写。
将LLMs理解为基础设施
Karpathy提供了几个 compelling analogies for how we should think about Large Language Models in our software stack:
LLMs作为实用工具
就像我们不会对电力或水基础设施三思而后行一样,LLMs正在成为为现代应用提供动力的不可见基础。它们正在从实验工具转变为我们可以可靠依赖的基本设施。
LLMs作为制造工厂(Fabs)
类似于半导体制造,LLMs代表使无数下游应用成为可能的 massive infrastructure investments。构建这些”fabs”的复杂性和成本意味着只有少数参与者可以创建它们,但许多可以从其输出中受益。
LLMs作为操作系统
也许最 intriguing 的是,LLMs开始 functioning as a new kind of operating system——管理资源、提供API、并作为人类意图和计算执行之间的接口。
时间共享悖论
虽然LLMs最初类似于 expensive timeshare mainframes,它们表现出典型技术采用模式的 unusual reversal。而不是从企业 trickling down to consumers,AI能力正变得越来越 accessible to individuals, hinting at a future of “Personal Computing v2”。
人工智能的心理学
Karpathy最有洞察力的贡献之一是他将LLMs characterize as “people spirits”——人类认知的随机模拟,表现出 emerging psychological properties。然而,这种模拟带来了两个 significant limitations:
锯齿状智能
当前LLMs显示一种奇怪的智能形式,既不是 uniformly capable 也不是 predictably limited。它们可以解决复杂的数学问题,同时 failing at seemingly simple tasks like comparing 9.11 and 9.9。这种”锯齿状智能”创造了开发者必须 careful navigate 的不可预测的失败模式。
挑战不仅仅是技术性的——它是关于 developing intuition for when and how LLMs will succeed or fail。与倾向于在相关任务上更 uniformly distributed 的人类智能不同,LLMs show dramatic performance variations que don’t follow intuitive patterns。
顺行性遗忘
LLMs suffer from a form of digital amnesia where they cannot consolidate long-term learning beyond their training phase。就像”Memento”的主角,他们有对其训练数据的 perfect recall 但无法通过持续互动建立 persistent knowledge or relationships。
这一 limitation points toward a missing paradigm in AI development——Karpathy所谓的”System Prompt Learning。“与其将所有知识 baked into model weights,我们需要使LLMs能够 maintain and update their own problem-solving strategies 的机制,essentially allowing them to”write books for themselves”about how to approach different challenges。
为部分自主性设计
前进的道路不是 about achieving full artificial general intelligence (AGI) by 2027,而是 about thoughtfully implementing partial autonomy。Karpathy使用Iron Man盔甲 as a metaphor——理想的AI系统应该提供 both augmentation (enhancing human capabilities) and selective autonomy (taking independent action when appropriate)。
自主性滑块概念
成功的AI产品实现Karpathy所谓的”自主性滑块”——允许用户为特定上下文选择 appropriate level of AI independence 的机制:
- Cursor:Tab → Cmd+K → Cmd+L → Cmd+I (agent mode)
- Perplexity:Search → Research → Deep Research
- Tesla Autopilot:Level 1 a Level 4 autonomy
这种渐进方法承认不同的任务和用户需要 different balances of human control and AI autonomy。
生成-验证循环
在有效的人机协作核心是一个 rapid generation-verification cycle。这个循环运行得越快,伙伴关系就越有效:
- 改善验证:使人类能够快速、轻松地验证AI输出
- 改善生成:将AI系统保持在”tight leash”上以确保质量和对齐
弥合演示-产品差距
Karpathy谈话中最 sobering insights 之一是在 impressive AI demos 和可靠产品之间 persistent gap。他通过他2014年乘坐Waymo原型的经历来说明——尽管demo期间 zero interventions,它花了 years to develop a truly reliable autonomous vehicle。
关键洞察:“Demo is works.any(), product is works.all()“——demos需要有时工作,产品需要始终工作。
AI辅助开发的现实
Karpathy的”vibe coding”经验——使用AI快速原型应用——揭示了当前AI开发工具 both promise and limitations。虽然AI可以 dramatically accelerate initial development,when dealing with the complex web of modern software dependencies and deployment requirements 时生产力收益 often vanish。
2025年网络开发的 current reality 是”a disjoint mess of services” designed for expert developers rather than AI agents。这为工具制造商创造了 critical opportunity 来重新设计其产品 for a nueva categoría de consumidores digitales:
- Humans (GUIs)
- Computers (APIs)
- Agents (computers que behave like humans)
像Vercel这样的公司已经在调整其文档和API以使其更 agent-friendly,而其他公司在此 transition 中落后。
为未来建设
软件3.0的影响远远超出 individual productivity improvements。我们正在目睹软件被 conceived, developed, and maintained 方式的根本转变。早期认识到这种转变的组织和开发者将在AI驱动的未来获得 significant advantages。
在软件3.0时代建设的关键原则:
为代理设计:认识到AI代理代表一种需要与 traditional human users 或 programmatic APIs 不同接口和交互模式的新类别用户。
实现自主性滑块:为用户提供对AI自主性级别的 granular control,允许他们为特定上下文和舒适度选择适当的平衡。
优化生成-验证循环:专注于使AI输出易于快速验证和验证,实现 rapid iteration and improvement。
构建部分自主性,而非完全AGI:与其追求 complete artificial general intelligence, focalizarse en dominios específicos donde la IA puede proporcionar augmentación significativa y autonomía selectiva。
为软件重写做准备:承认”a huge amount of software será reescrito” a medida que los principios de Software 3.0 se adopten más ampliamente。
结论
软件3.0代表的不仅仅是一套新工具——它是 human intent and computational execution 之间关系的根本 reimagining。随着提示变成程序和自然语言变成代码,我们正在进入一个时代,人类创造力与软件实现之间的 barrier continues to dissolve。
未来属于那些能够 navigate the psychological quirks of LLMs, design effective human-AI collaboration patterns, and build systems que gracefully handle the transition from impressive demos a productos confiables。与其等待完美的AGI,机会在于 thoughtful implementing partial autonomy que augmenta human capability while maintaining appropriate human oversight。
软件3.0的时代不是coming——it’s already here。问题是我们将成为这个变革中的乘客还是飞行员。