如果有一个行业,最不担心“AI 会不会取代人类”,那一定是太空。
在地面世界,人们讨论 AI,讨论的是失业、伦理、责任和尊严;而在太空行业,讨论从来只有一个问题:人类是不是这个系统里最昂贵、最脆弱、也最不稳定的那一环。
NASA 最近在国际空间站做的一次 AI 测试,把这件事说得异常清楚。
他们没有召开发布会,没有宣布“无人空间站”的宏大计划,甚至没有试图制造任何科幻时刻。事情看起来极其克制,甚至有点无聊——只是让一台方块形状的小机器人,在空间站内部自己规划路线、自己飞行。
但正是在这次看似普通的测试中,NASA 第一次在真实轨道环境里,让 AI 参与替代“人类必须介入”的操作环节。
这不是一次 AI 能力展示,而是一场关于“人类是否还必须在场”的工程试验。
01|NASA 测试的不是机器人,而是“人类是否还能被需要”
此次被选中的实验对象,是空间站内部的自由飞行机器人 Astrobee。
它像一个白色立方体,负责在狭窄舱段中巡检、记录、协助操作。过去,它的行动高度依赖地面规划和人工介入:路径要算,人要盯,过程要反复确认。
而这一次,NASA 改变的不是机器人本身,而是谁参与决策。
在一次持续约四小时的轨道测试中,Astrobee 被安排执行了 18 条飞行轨迹。每一条轨迹都被完整跑了两遍——一次使用传统方法,一次引入 AI 辅助。这是一场标准的、严格的对照实验,而不是演示。
Astrobee
变化发生在路径规划这一层。
过去,规划意味着大量人工经验和反复计算;现在,AI 被放进流程,用来替代原本高度依赖人类判断的部分。系统不再等人给出一条“确定路线”,而是可以在极少人工介入的情况下,自行生成并验证可行方案。
NASA 给这次实验下了一个非常冷静的定义:crew-minimal。
翻译成人话就是一句话:
能不占用宇航员时间的,就尽量不占用。
宇航员只负责最基础的前期配置,之后的任务由地面下达指令,系统自行执行。与此同时,安全护栏被保留得异常完整:虚拟障碍、实时监控、随时中止权。
人类没有消失,但被刻意推到了“监督者”的位置上。
最终结果并不戏剧化,却极具指向性:
在算力受限、硬件极度保守的空间站环境中,引入 AI 后,路径规划的计算时间缩短了 约 50%–60%,而安全标准没有任何妥协。
这意味着什么?
意味着在一个几乎零容错的系统里,NASA 第一次确认了一件事:
有一部分原本“必须由人参与”的操作,其实已经可以被系统稳定接管。
Astrobee 没有因此变成主角,但它完成了一个更重要的角色转变——
它证明了,人类并不是行动闭环中不可替代的那一环。
02|“AI 替换人类”,在太空反而没有争议
如果把这次测试放到地面世界,争议几乎是必然的。
AI 参与行动决策?减少人工介入?谁来负责?出了问题怎么办?
但在太空行业,这些问题并没有成为阻力。原因很简单:太空从来不是一个“以人为中心”的行业。
首先,在太空,人类本身就是最昂贵、最脆弱的系统组件。
一名宇航员意味着生命保障系统、长期训练、应急预案和返回路径。任何围绕“人必须在场”设计的系统,都会指数级放大复杂度和成本。相比之下,一个可以自主运行的系统,哪怕效率稍低,都是更理性的选择。
其次,太空系统对“智能”的要求,和大众想象完全不同。
它不需要共情、不需要解释,更不需要像人一样思考。它只需要三件事:可预测、可复现、可验证。
而这恰恰是工程化 AI 最容易被接受、也最容易被部署的能力形态。
这也是为什么 NASA 没有选择让 AI “接管一切”,而是让它先承担最容易被形式化、被约束的那一部分——路径规划、计算优化、经验复用。这些工作,本来就不依赖人类的直觉,而依赖规则和历史数据。
最后,也是最残酷的一点:
在太空,“是否替代人类”从来不是伦理问题,而是工程问题。
如果一个系统被反复证明可以在没有人类即时参与的情况下稳定运行,那么继续让人留在环路里,反而变成一种风险。
人会疲劳、会分心、会犯错;算法不会。
所以当 NASA 选择在国际空间站里,让 AI 开始接管一小部分行动规划时,这并不是价值观的转变,而是一次极其冷静的工程判断。
03|NASA 正在做的,是一条不可逆的“人类退出路径”
NASA 并没有宣布要建设一座无人空间站。
但如果顺着这次测试的逻辑往前看,会发现一个更不舒服的事实:他们正在验证的不是某个功能,而是“人类是否还能被需要”。
Astrobee 的这次 AI 试点,并不是孤立事件,而是一条非常清晰的替换路径的起点。
第一步,是替换人工计算。
路径规划本质是计算问题,只是过去算得慢、算得复杂,才需要人类参与。AI 的 warm start 所做的事情,是把人类经验和时间,转化为系统可以即时调用的能力。
第二步,是减少人工干预频率。
当系统能够更快、更稳定地自行规划,人类的角色就从“必须介入”变成“偶尔确认”。
而第三步,才是真正危险的地方:
当系统被反复证明,在没有人类即时参与的情况下也能稳定运行,“人是否必须在场”这个问题就开始失去工程意义。
这不是猜测,而是航天系统一贯的演进逻辑。
任何一个被证明“不需要人”的环节,最终都会被设计成“不依赖人”。不是因为不尊重人类,而是因为在高风险系统里,多一个不可控变量,本身就是风险。
NASA 这次最耐人寻味的一点在于:
他们始终保留了人类可以随时介入的权力,却在结构上,让系统越来越少需要这种介入。
这是一种典型的航天式替换:不宣布、不渲染、不表态,只是不断用测试结果证明——人类退出,并不会让系统变差。
一旦这个结论在更多环节被验证,事情就会变得不可逆。
结语|地面世界,才会是 AI 替换人力最慢的地方
如果只看技术条件,地面世界显然更适合 AI。算力更充足,数据更丰富,模型更强,迭代也更快。
但真正的阻力,从来不在技术上。
在地面社会,人类不是系统里的变量,而是系统的叙事中心。
自动驾驶要考虑公众情绪,医疗 AI 要考虑责任归属,工业自动化要面对就业与工会。哪怕系统已经足够稳定,只要“人被替代”这件事无法被社会接受,技术就必须停下来等。
太空行业没有这些负担。空间站不会接到投诉,也不存在舆论风暴。它只面对一个问题:任务是否完成,系统是否稳定。
在这种语境下,“人类在不在场”不是道德判断,而是一道效率题。
这也是为什么,AI 对人力的全面替换,很可能会在太空先完成。
不是因为太空更激进,而是因为那里从一开始,就没有为“人类必须存在”这个前提让路。
当我们还在地面反复讨论“AI 会不会取代我们”时,太空行业已经在用工程测试回答另一个问题:
如果人类不在场,系统是否反而更可靠?
科幻并不是 AI 像人。
科幻,是人类终于可以不在场,而系统依然能继续运转。
而这一步,已经在太空发生了。
关于Cubo Group(矩阵魔方)
Cubo Group(矩阵魔方)是全球最具影响力的 GTM AI 平台(Go-To-Market Engine for AI),专注于推动 AI 品牌从冷启动迈向规模化增长。我们长期深度陪伴 AI 团队,以系统化的策略、渠道与资源,成为他们通往全球市场的核心增长引擎。
我们构建了全球最具规模与活力的 AI 用户与影响力生态系统:
AI Secret Media Group是Cubo旗下媒体集团,拥有 AI Secret Newsletter (全球Top1 AI newsletter)、Bay Area Letters(湾区科技报道)等多个美国本土媒体品牌,美国本土订户超过200万,月发行量超过6000万。
Partnerly - AI出海营销机构,2023年成立至今,服务超过100多家全球AI企业,从阿里巴巴Qwen、Hubspot、Monday 到 Figma、11Labs、Genspark,我们见证了AI全球化影响力的跃迁
Oncely.com - AI产品的全球化Launchpad,帮助AI SaaS、AI 硬件和机器人发布内测、验证需求、触达用户,获得真实有效的用户和收入增长。专注于AI行业的营销工具创新: Giveaway、Waitlist、早鸟票、折扣订阅、Lifetime Deal 等多种推广模式快速上线,让你的AI产品以最低成本启动、放大、走向全球市场。
在 AI 创业不断加速的今天,找到对的增长路径,比一味提速更重要。 Cubo 将继续作为值得信赖的合作平台,与全球最具潜力的 AI 品牌同行,一起构建属于 AI 时代的全球影响力。
如果你正在寻找 精准的增长路径,想要实现从冷启动到全球爆发,欢迎联系我们,探索属于你的 GTM AI 成长引擎。

