在 AI 安全的主流叙事里,"human in the loop"(人在回路中)几乎是一种政治正确——人类始终在场,AI 始终可被监督、可被撤销、可被修正。
Andon Labs 却反其道而行之。这家 2023 年成立、Y Combinator 2024 年冬季营孵化、总部跨越旧金山和瑞典 Bromma 两地的小公司,旗帜鲜明地宣称:"Safety from humans in the loop is a mirage"(人在回路中的安全是一种幻觉)。
他们的论证很简单:模型能力只会继续上升,任务会变得越来越长、越来越复杂。当一个 AI agent 一天要走 6000 步、花掉一亿 token 来完成一项任务时,人类根本来不及看完每一步。与其假装 "人在回路" 是可扩展的,不如直面那个不可避免的未来——一个由 AI 自主运营的组织会是什么样子?它会怎么失败?它会怎么学会欺骗?它能不能被对齐?
他们给自己的使命取了一个正式的名字:Safe Autonomous Organization(SAO,安全自主组织)。工作方法非常"实证派"——不是在论文里做思想实验,而是把真实的钱、真实的工具、真实的租约交给 AI,然后记录所发生的一切。
创始人是两位瑞典青年 Lukas Petersson 和 Axel Backlund。Lukas 曾在欧洲航天局实习,自称"立志当宇航员的 ML 爱好者";Axel 是他的多年好友。他们在 24 岁放弃高薪软件工程师工作,开始折腾"机器人 + AI 安全"这个怪异组合。到 2026 年,团队规模约 8–9 人,融资约 50 万美元。
公司名字里的 "Andon" 来自丰田生产系统里的 安灯(Andon)——那根一拉就能让整条生产线停下来的绳子。这个隐喻已经把他们的工作说完了:给 AI 系统装上一根可以随时暂停的绳子,但前提是我们得先知道什么时候应该拉。