发布时间:2026-03-27
浏览次数:0
战争背后,谁在按下AI的按钮?
前几天我们曾聊过《被封杀的AI反而火了,这波赢麻了还是输惨了?》,其中描述了签五角大楼、用户卸载,因守住红线被政府封杀、下载却反而暴涨的情况,那一篇讲的是商业选择与用户用脚投票。今天这篇则是同一波事件里的另一面,美以伊战火中,AI已经真的上了战场。谁在按按钮、红线画在哪,这直接关系到咱们每个人将来所用的AI会是什么样。
这几日,美以与伊朗之间战事激烈,新闻报道尽是导弹、空袭以及报复相关内容。鲜有人提及的是,此次美军在对伊朗的打击行动中,运用了制造聊天机器人那家公司所研发的AI。并非科幻影片情节,而是实实在在用于情报分析、目标识别,甚至还包括“模拟这场战争如何进行”。随后,特朗普转身便对这家公司实施了“封杀”举措。一边使用你的AI进行战争活动,一边却将你拉黑,这般行径背后所争夺的究竟是什么呢?
一、战场上,AI已经在"干活"了
在2月底的时候,进行了美以对伊朗的那一轮大规模空袭,这件事大家都从新闻当中看到了。然而,很少有人注意到的是mestrenova mac,在那次行动里面,对于美军中央司令部而言,做了三件事情,分别是情报评估,还有目标识别,以及战斗情景模拟。
也就是说,并非是人于一堆报告之中来回翻找而后进行拍板决定“打何处”,而是人工智能先进行一轮筛选、排出一个优先级,之后人才做出决策。有专家讲,瞄准德黑兰的导弹,其背后极有可能是人工智能在协助系统“标记目标、排列威胁、计算顺序”,速度相较于单纯人工要快出一大截。并且这也不是第一次进入“战场”——之前在委内瑞拉那次针对马杜罗的行动里面,就存在它的踪迹。所以这并非试验,而是已然嵌入到作战链路当中了。
我从事技术方面工作,一听便清楚知晓:这实际上是将大模型当作“决策支持系统”来运用。这与你借助AI撰写周报、查找代码的情况是一样的,其底层运用的都是同一类技术;只是在这里所连接的是导弹以及目标清单。技术本身不存在善恶之分,然而究竟是谁在使用、将其应用于何处,这将会决定我们未来生活在一个怎样的世界当中。
二、政府封杀的不是"战争",是"红线"
更魔幻的情况出现了,特朗普政府将其列为“供应链风险”,此标签通常是用于对付敌对的外国企业,随后下令联邦机构停止使用。原因是什么呢?是因为其不肯答应五角大楼提出的两件事情,一是不利用人工智能在美国本土进行大规模监控,二是不制造“完全自主、人不用点头就能开火”的武器。该公司表示,这两条红线是不能被突破的。
五角大楼所期望的是,“所有合法用途”均可被使用,其中涵盖监控以及更为激进的自动化,若不这么做,两边的谈判就会破裂mestrenova mac,其结果便是,政府会进行封杀并断绝合作,然而AI已然深深嵌入国防系统,据报道称,若真要将其全部撤掉得耗费几个月时间,于是便出现了一种荒诞的情况,禁令下达后,几小时后美军在伊朗方面的行动中,依旧在使用。
两两相对比,xAI已然同五角大楼签订了全新协议,这等同于接受了更为宽泛的使用范畴。因而一直以来所争执的压根不是“是否要借助AI去打仗”,而是“界限究竟该划定在何方何处”。有一家公司宣称:监控以及全然自主的武器这是我不会去触碰的;政府则表明:倘若你不予以配合便会构成风险。这才是实实在在的分歧所在。
三、深一层:战争背后,不只是AI
想要明白这场仗缘何而打,为何打到“斩首”这般境地,仅仅盯着导弹与AI是不足够的,还得朝着历史回溯一段距离才行。
宗教与意识形态这根线,于1979年就埋下了,那年发生了伊朗伊斯兰革命,什叶派领袖霍梅尼推翻了巴列维王朝,进而建立了政教合一的伊斯兰共和国,此次革命的口号竟然是「不要东方,不要西方,只要伊斯兰」,在巴列维时期伊朗亲美,甚至承认以色列,然而革命之后反美、反以却成了国家意识形态的支柱,伊朗领导层将以色列称作非法的「犹太复国主义实体」,而以色列把伊朗的核计划以及地区代理武装看作生存威胁,两边在宗教和地缘方面皆呈现出结构性的对立。
光真主党就有十几万枚火箭、数万武装人员,在有的报道里是这么说的,黎巴嫩真主党、也门胡塞武装、哈马斯以及伊拉克、叙利亚的什叶派武装,在伊朗革命卫队协调下形成一张代理网络,而「什叶之弧」恰恰是伊朗在中东的抓手,以色列的扩张野心——吞并巴勒斯坦、控制戈兰高地、在中东建立绝对优势——就和这张网直接撞在一起,美国呢,要遏制伊朗影响力、防核突破、保以色列、攥住石油定价权,所以这场仗,既是宗教与意识形态的延续,也是地缘和能源的博弈。
当把AI放置到这个背景当中去看,就会更加清晰地明白,究竟是谁在按压按钮,红线究竟画在了哪里,这并非是技术方面的问题,而是权力以及规则方面的问题。战争是会过去的,然而“AI的按钮究竟掌握在谁的手中”这一情况将会留存很长时间。
四、硅谷的反应:近900人说"我们不站队"
眼下这件事情在科技领域引发了极大震动,一封名为“We Will Not Be”(意即“我们不会被分裂”)的公开信出现了变化,一开始有几百人进行了签到,而发展到现在有将近900人参与其中,并将谷歌等多家公司的员工涵盖在内,其中核心的要点是这样一句话,即用于军事方面的人工智能必须要存在一条清晰明确的界限,绝不能够毫无限制地放开。
就是说,从事写代码、训练模型工作的人儿,与按下“发射”按钮的人,并非是同一拨;然而前者却忧心起来:我所打造的工具,其边界究竟该由谁来定呢?我们或许并不在意谁更强些,但不禁会发问:往后打仗、抓人、监控这些事儿,难道都要交给机器去做了吗?此问题并无标准答案,可总得有人去问一问。
五、跟咱们普通人有什么关系?
对于我们而言,战争的情形是远离的状态,而AI的情形是处于接近的状态。存在着同一套技术,这套技术能够协助你来查找资料,还能够协助你去撰写邮件,然而这套技术同样也能够被接入到情报以及武器系统当中。彼此之间的区别仅仅在于:究竟是谁在使用它,规则又是由谁来制定,红线应该画在什么地方。
“封杀”的缘由不是反战,是因不肯放开两条底线,政府所追求的是能力最大化,而公司则是自行划定一条线,技术本身不存在善恶之分,然而画线的人却有善恶之别,我们不一定能够改变大国之间的博弈状况,但是我们可以多问出这样一个问题:你正在使用的、你孩子未来会使用的AI,它的红线究竟是谁在绘制?绘制在了哪里?
对于这件事,我会持续予以关注。战争是会过去的,然而,“AI的按钮在谁手里”这样一个问题,它是会留存很长时间的。
技术没有善恶,但画线的人有。
半山腰的红超,看见技术,也看见人。
如有侵权请联系删除!
Copyright © 2023 江苏优软数字科技有限公司 All Rights Reserved.正版sublime text、Codejock、IntelliJ IDEA、sketch、Mestrenova、DNAstar服务提供商
13262879759
微信二维码