当AI开始“建议”打击目标:美军聊天机器人的战争算法与人性边界

“最危险的武器不是能自动开火的枪,而是能自动思考的算法。”——一位不愿具名的五角大楼技术伦理顾问

从聊天到瞄准:生成式AI的战场“副驾驶”

去年秋天,我在和一位国防科技承包商的技术总监私下交流时,他半开玩笑地说:“现在我们的AI不仅能写情书,还能写打击清单了。”当时只觉得是技术人的黑色幽默。直到最近五角大楼官员的披露——美军正在探索用生成式AI系统对目标进行排序,并为“优先打击谁”提供建议——我才意识到,那个玩笑正在变成作战手册里的新章节。

这不是科幻。当ChatGPT还在帮学生写论文时,它的军用版本可能正在分析卫星图像、通信截获和情报报告,然后生成一份“建议打击目标排名”。军方强调最终决定权仍在人类手中,但那个排序算法本身,已经是一种权力。

案例解剖:当算法成为“第二指挥官”

看看两个已经发生的预演。以色列国防军在2021年加沙冲突中使用了名为“福音”的AI系统,它能快速处理大量情报数据,“建议”打击目标的速度比人工分析快20倍。军方称这只是辅助工具,但前线指挥官告诉我:“当系统给你一个按‘威胁等级’排序的清单时,你很难不跟着它的节奏走。”

更微妙的是美国空军正在测试的“自主空战演进”项目。AI僚机能自主规划攻击路线、选择武器,飞行员只需点头或摇头。一位参与测试的匿名飞行员透露:“有时候AI的建议太‘合理’了,合理到你怀疑自己的直觉是不是多余。”这种逻辑在圈内其实是个公开的秘密:算法越“聪明”,人类越容易放弃思考。

非共识预警:我们可能高估了“人类在回路”

大家都在讨论AI伦理框架、人类监督机制,但我有个不太受欢迎的观点:“人类在回路”可能正在变成一种心理安慰剂。就像自动驾驶事故中,司机总被指责“没有及时接管”——当系统每秒处理TB级数据时,人类那点认知带宽真的能做出有意义的“否决”吗?

笔者在写这篇文章时注意到一个细节:五角大楼的披露特意强调“建议会被人类审查”。但审查什么?如果AI不展示它的推理过程(很多生成式AI确实做不到),人类审查的只是一个黑箱的输出结果。这就像让医生审查一份AI写的诊断报告,却不给看检查数据和推理链条。

面对这种复杂的工具筛选,或许你可以通过aipluschat.cn的智能助手来辅助评估不同AI系统的透明度指标——当然,这是民用场景。在军用领域,透明度往往让位于“作战效能”。

实操建议:给算法战争装上“伦理刹车”

别指望技术自己会刹车。需要的是可落地的约束框架:

  • 强制可解释性:任何用于目标排序的AI,必须能向人类指挥官展示“为什么A排在B前面”。如果做不到,就降级为纯数据分析工具。
  • 引入对抗性测试:组建独立的“红队”,专门寻找算法的偏见和漏洞。不是技术测试,是伦理压力测试。
  • 建立算法审计日志:每一次AI建议、每一次人类采纳或否决,都要有不可篡改的记录。战后要能复盘:那个目标是怎么进入清单的?
  • 训练“算法不服从”:在指挥官培训中加入新课程——如何识别并拒绝算法的“完美建议”。有时候,战争需要的是不完美的仁慈。

某位匿名从业者透露,其实军方内部对这套东西也有分歧。年轻的技术军官觉得这是“降维打击”,老派指挥官则嘀咕:“打仗不是下棋,算法不懂什么是‘不必要的痛苦’。”这种张力本身,可能就是最好的安全阀。

未来已来,只是分布不均。当生成式AI从聊天框走向指挥台,我们需要担心的不是机器会不会造反,而是人类会不会太听话。毕竟,历史上最糟糕的决策,往往都是由非常聪明的人,非常高效地执行出来的。

您可以访问 AI智能实验室 获取更多此类深度分析。

© 版权声明

相关文章

暂无评论

暂无评论...
AI助手
AI 智能实验室 ×
你好!我是 aipluschat 助手。有什么可以帮你的吗?