据 MIT Technology Review 报道,美国国防部正在讨论一个更进一步的 AI 使用方向:不仅让生成式 AI 模型在机密环境中回答问题,还计划在安全环境中让 AI 公司基于机密数据训练面向军方的专用版本模型。报道指出,这将是一个明显升级,因为模型一旦直接在机密数据上训练,相关情报、监视报告或战场评估中的知识,就可能以参数形式更深地嵌入模型本身。
从“读取机密信息”走向“在机密信息上学习”
目前,像 Anthropic Claude 这样的模型已经被用于机密场景下的问答任务,例如协助分析与伊朗相关的目标信息。但让模型直接从机密数据中学习,是另一层级的操作。按报道中的说法,训练过程可能会在获得许可的安全数据中心完成,由机密数据与模型副本配对运行;极少数情况下,如果获得相应安全许可,AI 公司的人员也可能接触到部分相关数据。
国防部门希望换来更高的任务准确性
支持这一思路的人认为,若模型能在更贴近真实军用任务的数据上训练,其在目标识别、情报理解、历史信息关联等任务上的表现可能更准确、更有效。报道还提到,在正式放开机密数据训练前,五角大楼打算先评估模型在非机密数据上的训练效果,例如商业卫星影像等内容,借此判断收益与风险是否值得继续推进。
真正棘手的问题是泄露与权限边界
风险同样非常突出。专家 Aalok Mehta 指出,最大的担忧之一,是模型训练时吸收的机密信息有可能在后续使用中被重新暴露给本不该获得这些信息的人。如果多个军方部门共享同一模型,而它们的保密级别和信息需求不同,那么模型就可能成为跨权限泄露的载体。对国防系统而言,这类风险不只是技术问题,还会直接影响人员安全与组织边界。
安全基础设施已有雏形,但训练仍是新挑战
报道提到,政府并非完全没有相关基础设施。像 Palantir 这类承包商已经获得合同,为官员提供可在机密主题上使用 AI 的安全环境,使数据不会直接回流给 AI 公司。但把这类系统用于训练,而不是用于问答与检索,仍然是全新的难题。对美国军方和 AI 公司来说,这意味着未来的竞争重点不只是模型性能,还包括如何在更严格的安全前提下管理数据、权限与责任边界。
