bystander [博客] [个人文集]
加入时间: 2004/02/14 文章: 1760
经验值: 82133
|
|
|
作者:bystander 在 罕见奇谈 发贴, 来自 http://www.hjclub.org
人工智能军事化的伦理危机与治理真空
人工智能正以前所未有的速度和深度融入全球军事体系。美国国防部与七大科技巨头达成协议,将AI技术用于"任何合法用途";帕兰提尔(Palantir)凭借百亿美元合同成为美军数字战场的"默认操作系统";以色列的"熏衣草"AI系统将目标确认时间压缩至20秒,标记超过37,000名潜在目标。
与此同时,谷歌DeepMind员工以98%支持率组建工会反抗技术军事化,而国际法规制进程已停滞十二年。本文梳理这一技术-军事-资本合流的核心事实,揭示算法战争对问责机制、比例原则和区分原则的系统性瓦解。
一、军工复合体与科技巨头的全面融合
1. 美国国防部的"任何合法用途"协议
2025年,美国国防部宣布与七家AI领军企业达成协议,允许美军将其技术用于"任何合法政府用途"。这七家企业包括:SpaceX、OpenAI、谷歌(Google)、英伟达(Nvidia)、Reflection AI、微软(Microsoft)和亚马逊云服务(AWS)。
2. 帕兰提尔:数字战场的"默认操作系统"
数据巨头帕兰提尔(Palantir)是这一融合的典型代表。2025年8月,美国陆军与其签署为期十年、最高价值100亿美元的企业协议,整合75份既有合同,旨在成为陆军未来软件和数据需求的综合框架。该合同使帕兰提尔成为美军数字战场基础设施的核心处理器。
帕兰提尔的Maven智能系统(Maven Smart System)在2026年针对伊朗的"史诗怒火行动"(Operation Epic Fury)中发挥关键作用。该系统将雷达信号、卫星与无人机影像、电子通信等多源数据融合为"战场通用作战图",指挥官可通过单一可视化界面识别目标、选择打击方案并下达攻击指令——"从识别目标到制定行动方案再到执行打击,全部在一个系统中完成"。
2026年2月28日行动启动后,美军在24小时内打击超过1,000个目标,截至3月11日已打击超过5,500个目标,包括60余艘舰船。中央司令部司令布拉德•库珀上将表示:"人类始终对射击目标、不射击目标以及射击时机做出最终决定。但先进的AI工具可以将过去需要数小时甚至数天的流程缩短至数秒。"
帕兰提尔2025年第四季度营收同比增长70%,达14亿美元,其中美国商业销售额增长约140%。公司预计2026年全年营收将达72亿美元,运营收入41亿美元,主要得益于市场对AI"决策工具"的强劲需求。
3. 从战场到国内:技术扩散的闭环
帕兰提尔的产品不仅用于军事。其"哥谭项目"(Project Gotham)为执法部门提供数据聚合系统,可实时扫描互联网上的个人信息,一键生成涵盖社交媒体动态、银行账户乃至医疗记录的摘要。此外,其预测性警务工具根据个人社会经济地位、种族、社交媒体足迹和居住地等因素,将尚未犯罪者标记为"潜在未来罪犯"。
二、一线应用的灾难性后果与机制缺陷
1. "熏衣草"系统:20秒确认一条人命
以色列国防军精锐情报部门8200部队开发的"熏衣草"(Lavender)AI系统,在加沙战争中标记了超过37,000名巴勒斯坦人为潜在目标。该系统扫描加沙约90%人口(超过100万人)的数据,为每个人给出1至100的评分,表示其为哈马斯或伊斯兰圣战组织成员的可能性。
六名以色列情报官员向《+972杂志》和《Local Call》透露,军方明知约10%被标记者并非武装分子——他们可能是同名者、民防人员或警察。但系统仍被大规模使用,人类操作员仅投入20秒确认每个目标,"除了作为批准盖章外,人类毫无附加价值"。
更关键的是,以军授权军官在打击每名哈马斯低级成员时可附带杀伤多达20名平民。一位使用者称:"机器冷酷地执行,这让一切变得更容易。"此前,目标识别需经多人讨论并由法律顾问签署,但10月7日后流程被急剧加速,情报人员持续承受"带来更多目标"的压力。
2. "人在回路"的形式化危机
美军"史诗怒火行动"声称24小时内打击超千个目标,依赖AI提升决策节奏。但人类根本无力逐一核实如此数量的目标。尽管军方强调"人类始终做出最终决定",批评者指出,当决策节奏超越人类核查能力时,"人在回路"(human-in-the-loop)已从伦理保障退化为形式背书。
2026年2月28日,美军巡航导弹击中伊朗米纳布市的Shajareh Tayyebeh女子小学,导致超过170人死亡,多数是儿童。中央司令部初步评估称,情报地图未能显示该设施早已转为民用,被加入AI生成的目标清单时缺乏充分人工监督。《纽约时报》报道,官员称这更可能是"战时人为失误"而非新技术导致,但观察者警告,对AI目标系统的过度依赖("自动化偏见")将导致更多类似悲剧。
3. 偏见编码与历史错误的循环
AI训练数据源自过往作战经验,可能将争议性做法编码为"标准操作"。若系统学习的是后9/11时代将"适龄男性+特定地点"等同于威胁的逻辑,则可能在无人直接下令的情况下重复误判。这种"签名式打击"(基于行为模式而非身份确认)的自动化,使历史偏见获得算法正当性。
三、伦理框架的瓦解与内部抵制
1. 谷歌的"尼姆巴斯计划":内部预警与商业利益的冲突
2021年,谷歌与亚马逊共同签署价值12亿美元的"尼姆巴斯计划"(Project Nimbus)合同,为以色列政府提供云服务。谷歌内部律师曾在报告中警告:"谷歌云服务可能被用于、或与促进人权侵犯行为相关联,包括以色列在约旦河西岸的活动。"但管理层仍签署了这份为期7年(可延长)的协议。
合同要求数据存储在以色列司法管辖区的本地服务器上,并强制要求为私营武器制造商(如拉斐尔先进防御系统公司、以色列航空航天工业公司)提供服务。拉斐尔生产的"香料"(SPICE)制导套件——将无制导炸弹转化为精确弹药的技术——在加沙造成大规模伤亡的袭击废墟中被发现。
2025年,《+972杂志》、《Local Call》和《卫报》的调查揭示,合同中包含两项异常条款:禁止谷歌和亚马逊限制以色列使用其产品,即使使用违反其服务条款;要求公司在被外国法院强制移交数据时秘密通知以色列政府,通过以谢克尔支付对应国家国际区号的"特殊补偿"金额来传递信号。
公开场合,谷歌否认合同有军事维度,坚称该项目"并非针对与武器或情报服务相关的高度敏感、机密或军事工作负载"——尽管以色列国防部是最大单一客户(约占5.25亿美元),且合同明确服务于以色列政府的"国防机构"。
2. 谷歌DeepMind:前沿AI实验室的首次工会化
2026年5月,谷歌DeepMind伦敦总部员工以98%的支持率投票决定组建工会,由通信工人工会(CWU)和联合工会(Unite)联合代表,覆盖至少1,000名员工。这是全球首个主要"前沿AI"实验室的重大工会化努力。
员工在致谷歌管理层的信中要求:立即停止援助以色列在加沙的军事行动及美以对伊朗的AI项目;恢复不开发自主武器和监控工具的承诺;确立研究人员对项目提出良心异议的正式权利。一位匿名员工表示:"即使我们的工作仅用于行政目的,它仍在使种族灭绝变得更廉价、更快速、更高效。"
工会化运动始于2025年2月——谷歌母公司Alphabet从AI伦理准则中删除了不将AI用于武器开发和监控的承诺。DeepMind员工还考虑采取"研究罢工",暂停对Gemini AI助手等服务的改进工作。
四、法律真空与全球扩散
1. 国际规制停滞十二年
目前没有任何国际条约禁止"致命自主武器系统"的研发和使用。《特定常规武器公约》框架下关于致命自主武器的讨论已持续12年,仍未形成具有约束力的定义、规则或追责机制。全球南方国家呼吁法律限制,而西方大国倾向于"自愿原则",导致治理进程消耗民间社会精力却无实质进展。
2. 技术输出的责任稀释
美国及北约的AI作战理念通过军售协议输出至盟友,但配套的伦理监督框架并未同步转移。阿塞拜疆在纳卡冲突中使用土耳其制AI无人机、苏丹内战中多方利用AI辅助瞄准等案例显示,算法战争范式正在全球扩散,且常与平民伤亡增加相关联。
3. 从后台到前台:科技公司成为攻击目标
2026年3月31日,伊朗伊斯兰革命卫队将帕兰提尔的设施列为合法军事目标——这是首家获此"殊荣"的西方科技公司。这标志着高科技企业已从战场的"后台"走向"前台",成为冲突的直接参与方和攻击目标。
结语:效率逻辑与人道底线的博弈
算法战争的根本问题不在于"杀人更高效",而在于它系统性瓦解了战争法的根基:当决策推理变得不可知、后果极具破坏性、且结构上无法被质疑时,"问责"本身的概念便被架空。
技术已经跑到了法律和伦理的前面,而监管的真空正在被军工商用填满。谷歌DeepMind员工的工会化努力揭示了一个关键战场:强大的AI系统一旦嵌入复杂体系并高效运行,就会产生巨大的组织和流程依赖性,届时再想剥离将无比困难。他们的斗争是在争夺一种"事前的否决权"——在技术被深度整合、形成路径依赖之前打断这一进程。
我们正在目睹的,是战争从物理摧毁向一种更隐蔽的"系统性支配"转变。代码已成为最致命的武器,而它的研发和应用,正在一个法律真空、问责悬置的阴影地带,由追求效率的资本和追求权力的国家机器联手,以前所未有的速度和规模向前推进。
重建法律、伦理与公众监督对算法权力的制衡,不是阻碍创新,而是防止效率逻辑吞噬人道底线的必要努力。
(笔者/DeepSeek/Qwen/Kimi)
浏览或加入电报频道
https://t.me/unbrainwashyourself
作者:bystander 在 罕见奇谈 发贴, 来自 http://www.hjclub.org |
|
|