TRENDS / FIELD REPORTS · № 06
CASE FILE USSR · CYBERNETICS · 1965-1985 VS AI AGENTS · 2025-NOW

控制论的第三次降临

1965 年,苏联控制论之父格卢什科夫提议建立 OGAS——
一个用计算机网络管理整个苏联经济的系统。他失败了。
失败的原因不是技术,是政治
六十年后,AI Agent 工程师正在面对完全相同的挑战:
把人类模糊的偏好、伦理判断和风险容忍度,转化为机器可执行的约束。
OGAS PROPOSED
1962
VIKTOR GLUSHKOV · UKRAINE
EST. COST
20 Y · ₽20B
2/5 OF ANNUAL DEFENSE
REJECTIONS
3
1965 · 1970 · 1980s
WIENER · CYBERNETICS
1948
FOUNDING TEXT
§ 01 / FORGOTTEN

一段被遗忘的历史

1962 年,乌克兰科学家 Viktor Glushkov 向苏联领导层提交了一份具有划时代意义的提案:建立 OGAS(全国自动化经济管理系统)——连接苏联全国所有工厂、商店、银行的计算机网络,实时收集生产消费数据,由中央算法动态调整资源配置。

OGAS 的承诺是用实时数据和数学优化替代官僚直觉。Glushkov 估算需要 20 年时间、约 200 亿卢布——远低于同期军费 500 亿/年。这是一个完全可行的项目。

但 1965 年提案被否决。1970 年再次被否决。1980 年代彻底搁置。OGAS 永远没有建成。

ОБ-АГЕНТСТВО · 1965
REJECTED

否决的理由不是技术——苏联在 1960 年代是世界第二大计算机生产国。也不是经济——成本远低于军费。

真正的原因是政治。

OGAS 一旦运行,将让中央获得前所未有的精确信息,意味着部委官僚的"信息中介"角色被消解。地方党委通过虚报数据获得的灰色权力将彻底失去。每一个层级的中间管理者都会失去他们的不可替代性。

一个能让所有人变得透明的系统,
威胁了那些靠不透明获得权力的人。

§ 02 / WIENER

维纳的预言

控制论由 Norbert Wiener 在 1948 年同名著作中确立。核心洞察是:

生物体、机器、社会组织都可以用同一套数学语言描述——核心是"反馈循环"和"信息流动"。

控制论传统在 1950-60 年代影响极为深远:

控制论在 1980 年代逐渐淡出主流话语。但今天的 AI Agent 系统提供了一个完美的应用场景:自主决策、实时反馈、多目标优化、跨域协作——这些恰恰是控制论传统最擅长描述的问题

当机器开始追求一个被定义的目标时,
它会精确地优化那个目标
而不是我们真正想要的目标。
— NORBERT WIENER · 1960 · "MORAL & TECHNICAL CONSEQUENCES OF AUTOMATION"
§ 03 / THIRD COMING

三次降临

FIRST COMING · 1962-1973

政治否决

OGAS(苏联)/ Cybersyn(智利)。技术完全可行,死于权力结构对透明度的本能抗拒

SECOND COMING · 1990s-NOW

企业之名实现

亚马逊供应链 / 沃尔玛库存 / Palantir 数据整合——做的事与 OGAS 几乎完全一致,只不过为资本服务而非计划经济

THIRD COMING · NOW

AI Agent 之名

自主决策 + 实时反馈 + 多目标优化 + 跨域协作。把人类模糊偏好、伦理判断、风险容忍度转化为机器可执行的约束——这正是 Glushkov 当年面对的挑战。

SIGN 01 · 重新发现

"目标对齐"="reward hacking","反馈循环设计"=RLHF 训练,"多 Agent 协调"=Beer 的 Viable System Model,"可观测性"=Ashby 的需要的多样性——每一个 Agent 工程问题都有控制论对应物

SIGN 02 · 政治再现

企业内部 Agent 部署的最大阻力不是技术问题,是组织问题——中层管理者意识到 Agent 让"信息中介"角色变得多余。这是 Glushkov 在 1965 年苏联部委办公室遇到过的同样阻力。

§ 04 / ACUTE

从慢性病到急性爆破

真正重要的因素不变:目标对齐、反馈设计、责任归属、政治可接受性——这些控制论传统已经研究了 60 年。变化的是:

忽视这些真理的代价从"慢性病"变成了"急性爆破"。

在传统软件中,糟糕的反馈循环设计导致系统缓慢腐化。在 AI Agent 系统中,糟糕的约束和反馈设计导致 Agent 在几分钟内就失控——真正的瓶颈是把人类高层判断外化成可校准的规则与反馈信号

这恰恰是 Glushkov 失败的原因:不是他的技术不行,而是他无法将苏联官僚体系中隐性的权力博弈外化成可计算的约束条件。今天的 Agent 工程师面临完全一样的挑战。

§ 05 / TAKEAWAYS

三条启示

TAKEAWAY 01

认真学习控制论。 不是作为历史知识,而是作为 Agent 系统设计的第一性原理。维纳的《控制论》和 Ashby 的《控制论导论》比大多数 Agent 框架文档更有价值。

TAKEAWAY 02

OGAS 的失败是政治失败,不是技术失败。 谁有权定义 Agent 的目标函数?谁承担 Agent 决策的后果?技术设计无法回避这些问题——回避只会让政治冲突在更高代价的位置爆发。

TAKEAWAY 03

Cybertonia 是面镜子。 一个理论上完全可行的系统,可能因为权力结构的抵抗而永远无法实现。AI Agent 真正的瓶颈,未必是模型能力,而是组织对透明度的承受力