您现在的位置:kastop>> Kas信息 Web3信息>>正文内容

从合作到决裂:Anthropic为何敢与五角大楼叫板?

邓通,金色财经

当地时间2月27日,美国总统特朗普在社交平台发文称:“我指示美国政府的每一个联邦机构立即停止使用Anthropic的技术。”特朗普表示,对于像国防部这样在不同层面使用Anthropic产品的机构,将有六个月的过渡期来逐步停用。 “Anthropic最好给我识相点,在停用过渡期提供配合,否则我将动用总统的全部权力迫使他们就范,并追究其重大民事及刑事责任。”

Anthropic为何与五角大楼起了冲突?OpenAI成了五角大楼的新宠?AI将成为杀人工具?相关人士如何解读该事件?

一、敢与五角大楼叫板,Anthropic祸从何来?

因为五角大楼坚持希望 AI 能在“所有合法军事用途”下被使用,包括更广泛的自动化任务。而作为目前唯一获准在美军涉密网络中运行的前沿 AI 公司,Anthropic 拒绝了五角大楼要求其放弃 AI 用途限制(特别是禁止用于无人干预的自动武器、大规模国内监控等)的要求。

自 2024 年以来,Anthropic 一直被美国政府和军方使用,并且是第一家将其工具部署到从事机密工作的政府机构的先进人工智能公司。据悉,一月抓捕委内瑞拉总统马杜罗的行动中,Claude也曾立功。

Anthropic在官网刊登首席执行官达里奥·阿莫迪的声明(文末附全文),声明指出:

两种用途从未被纳入我们与美国国防部的合同中,我们认为现在也不应该纳入:大规模国内监控、全自主武器。我们不能昧着良心答应他们的要求。国防部有权选择最符合其愿景的承包商。

国防部长皮特·赫格塞斯在X发文,怒斥Anthropic“傲慢”、“背叛”、“伪善”,并将其列为“国家安全供应链风险”。

本周,Anthropic公司展现了傲慢和背叛的典型案例,也为如何与美国政府或五角大楼开展业务树立了反面教材。我们的立场从未动摇,也永远不会动摇:美国国防部必须拥有不受限制地使用Anthropic公司模型的权限,用于所有合法的保卫共和国的目的。然而,@AnthropicAI及其首席执行官@DarioAmodei他们选择了虚伪。他们披着“有效利他主义”这套伪善的外衣,企图强迫美国军方屈服——这是一种懦弱的企业道德作秀,将硅谷的意识形态置于美国人民的生命之上。Anthropic公司这种有缺陷的利他主义的“服务条款”永远无法凌驾于战场上美军的安全、战备和生命之上。他们的真实目的昭然若揭:攫取对美国军方作战决策的否决权。这是不可接受的。正如特朗普总统在Truth Social网站上所说,只有三军统帅和美国人民才能决定我们军队的命运,而不是那些未经选举的科技高管。Anthropic公司的立场与美国的原则从根本上说不通。因此,他们与美国武装部队和联邦政府的关系已经发生了永久性的改变。鉴于总统指示联邦政府停止使用Anthropic的所有技术,我指示国防部将Anthropic公司列为国家安全供应链风险。即日起,任何与美国军方有业务往来的承包商、供应商或合作伙伴均不得与Anthropic公司开展任何商业活动。Anthropic公司将继续为美国国防部提供服务,期限不超过六个月,以便顺利过渡到更优质、更符合爱国精神的服务。美国的战士绝不会被大型科技公司的意识形态所左右。此决定为最终决定。

文中提到了被列为“国家安全供应链风险”,这会产生什么样的后果?

其影响不仅仅是“政府不用它”这么简单,这是一项通常用于对付外国敌对势力的举措。首先,联邦机构必须停用:所有行政部门需停止采购和部署其模型、现有合同可能被终止或不再续签、云平台若嵌入其模型,也可能被要求剥离。其次,任何联邦承包商不能在系统中使用该公司的产品、参与政府项目的企业必须证明“无 Anthropic 组件”,这意味着像英伟达、亚马逊和谷歌这样的万亿美元科技巨头将需要与 Anthropic 断绝关系。其他影响包括投资者回避、融资困难等。

该公司周五晚间表示,“将通过法律途径对任何供应链风险认定提出质疑”。该公司表示,被认定为供应链风险“既不符合法律规定,也会为任何与政府谈判的美国公司树立危险的先例”。

一位不愿透露姓名的美国国防部前官员曾指出:Anthropic 公司似乎在这场竞争中占据了上风。“这对他们来说是很好的公关机会,而且他们根本不缺钱。”

阿莫迪自己也坦言:自从该公司就人工智能在战场上的部署方式与特朗普官员表明立场以来,公司的估值和收入只增不减。如果国防部选择分道扬镳,Anthropic 将“确保平稳过渡到其他供应商”。

在现实中,Anthropic公司因其反对政府的立场而获得了OpenAI的支持:OpenAI 的老板 Sam Altman 表示支持竞争对手。他给员工发了一份备忘录,声明在应用两家公司的产品方面,他与阿莫迪有着相同的“底线”,“我们一直认为,人工智能不应该被用于大规模监控或自主致命武器,在涉及高风险的自动化决策中,人类应该始终参与其中。这些是我们的主要底线。”

但随后,Altman 转头投入了美国政府的怀抱……

二、“浓眉大眼的 Altman”也“叛变”了

Altman 后来在 X 上证实,OpenAI 已与美国国防部达成协议,将在机密云网络上使用其人工智能模型。目前尚不清楚 OpenAI 协议中以安全为中心的措施与 Anthropic 谈判中的措施有何不同。

今晚,我们与美国国防部达成协议,将我们的模型部署在其机密网络中。在所有互动中,国防部都展现出对安全的充分尊重,并渴望与我们合作,以期取得最佳成果。人工智能的安全性和广泛惠益是我们使命的核心。我们最重要的两项安全原则是:禁止在国内进行大规模监控,以及人对武力的使用负有责任,包括对自主武器系统的使用。国防部认同这些原则,并在法律和政策中予以体现,我们也将其纳入了协议。我们还将构建技术保障措施,以确保我们的模型运行正常,这也是国防部所希望的。我们将部署功能性部署环境(FDE)来辅助模型运行,为了确保模型的安全,我们将仅在云网络上部署。我们要求国防部向所有人工智能公司提供相同的条款,我们认为所有公司都应该愿意接受这些条款。我们强烈希望事态能够缓和,避免诉诸法律和政府行动,并达成合理的协议。我们将继续竭尽所能地服务于全人类。世界是一个复杂、混乱,有时甚至充满危险的地方。

在Altman 的帖子下,有不少X用户发表看法:

  • 从非营利组织到营利性企业,再到国防部。这一切变化得真快。

  • 我迫不及待地想在11月当选国会议员后调查这笔交易。

  • 所以 OpenAI 就这么在短短 12 小时内,从“我们也有底线”到“这是我们在保密的 DoW 网络上的模型”?Anthropico 因为坚持同样的原则而受到威胁/被列入黑名单,但当 Sam 进行谈判时,它却因为对安全的深刻尊重而赢得所有人的掌声。

先假装与竞争对手站在同一战线,随后立即投入政府怀抱,Altman 的一手好牌实在是6。

Altman 的“叛变”,也许可以从两位科技巨头的早年渊源中寻找蛛丝马迹。

阿莫迪是科技界的资深人物,他早年曾是OpenAI的员工,并因此声名鹊起。后来,他和几位OpenAI的员工因与Altman 意见不合而离开OpenAI。

2021年,Anthropic问世。其开发的模型和工具已被联邦政府广泛使用,这主要得益于其与领先的云服务提供商亚马逊网络服务(AWS)的合作,Anthropic最初正是通过这种合作在国防部和情报机构站稳了脚跟。去年7月,Anthropic与xAI、谷歌和OpenAI一起获得了价值2亿美元的国防合同,以支持五角大楼推进人工智能应用。

这两家初创公司现在通过不断发展的 AI 聊天机器人、代理和其他工具,直接争夺用户和企业客户。

三、科技成了一把沾血的剑

在本次科技界巨头与美国政府的冲突中,特朗普用大写字母表达内心的愤怒:“美利坚合众国绝不会允许一家激进的左翼觉醒公司来左右我们伟大的军队如何作战和赢得战争!”

自2018年以来,科技公司与五角大楼的冲突就从未间断。当时,Alphabet旗下谷歌的员工抗议五角大楼利用其人工智能分析无人机拍摄的视频。此后,双方关系有所缓和,亚马逊和微软等公司竞相争取国防业务,而几位大型科技公司的首席执行官去年也承诺与特朗普政府合作。

但随着乌克兰和加沙战争中自动化系统的日益普及,理论上的“杀手机器人”引发了人权和科技活动人士的担忧。曾领导五角大楼算法战项目“Maven计划”的杰克·沙纳汉表示,过去一年美国采取的更为大胆的军事行动加剧了这些担忧。“人们可能会对没有任何限制感到更加不安,白宫的法律批准可能成为‘任何可能导致程序不正当、平民伤亡和附带损害的行为的掩护’。”

Anthropic 的人工智能技术已在情报界和武装部队得到应用,并且是同类人工智能公司中首家通过与云服务提供商亚马逊达成供应协议来处理机密信息的公司。根据路透社、华尔街日报等的报道,Anthropic 的 Claude AI 被美国军方在今年1月抓捕马杜罗的突袭行动中使用。它通过与数据分析公司 Palantir Technologies 的合作,被整合到军方的情报和数据分析系统中,用于分析海量情报资料、解读卫星图像、支援决策制定、可能辅助行动部署规划等,但具体细节仍属于机密。

四、相关人士的看法

  • 周五晚间,一封由一些知名科技和人工智能领袖联署的致五角大楼和国会的公开信开始流传。联署人包括11名OpenAI员工,其中包括Boaz Barak和William Feng,以及Waymark首席执行官Alexander Persky-Sterm。“我们坚信,联邦政府不应该因为一家私营公司拒绝接受合同变更而对其进行报复。这种情况开创了一个危险的先例。惩罚一家拒绝接受合同修改的美国公司,向美国所有科技公司发出一个明确的信号:要么接受政府提出的任何条件,要么面临报复。美国之所以能在人工智能竞争中胜出,是因为它致力于自由企业和法治;为了惩罚一家公司而破坏这一承诺,是目光短浅且有悖于国家安全利益的。”

  • 马斯克在他的社交媒体平台X上表示“Anthropic仇恨西方文明”。Altman 则采取了不同的策略,他声援Anthropic的安全保障措施,反对政府“威胁性”的做法,同时努力促成OpenAI与五角大楼的交易。

  • 曾在前总统拜登的白宫国家安全委员会任职的赛义夫·汗表示:国防部的这一举措“可能是任何政府颁布过的最严苛的国内人工智能法规”。“可以说,将 Anthropic 视为比任何中国人工智能公司都更大的国家安全威胁,而他们并没有将任何一家中国人工智能公司列为供应链风险。”“针对Anthropic虽然能博得眼球,但最终每个人都是输家。”

  • 曾担任特朗普人工智能高级政策顾问的迪恩·鲍尔在X上发帖称:“这简直就是企图谋杀企业。我绝对不会向任何投资者推荐投资美国人工智能;我绝对不会推荐在美国创办人工智能公司。”

  • 国防部副部长埃米尔·迈克尔在推特上发表了一系列推文:阿莫迪“是个骗子,而且有上帝情结。他一心只想亲自控制美国军队,并且不惜将我们国家的安全置于危险之中。”

  • 马萨诸塞州民主党参议员伊丽莎白·沃伦敦促就这场争端的核心——人工智能权力问题举行听证会。“特朗普政府惩罚Anthropic公司,是因为该公司拒绝帮助大规模监控美国社区或制造杀人机器人吗?美国人民有权知道特朗普政府官员在五角大楼的计划。”

  • 马萨诸塞州民主党参议员埃德·马基和马里兰州民主党参议员克里斯·范霍伦表示:五角大楼“威胁要惩罚一家美国人工智能公司,因为该公司拒绝放弃对其人工智能模型使用的基本保障措施,这代表着对政府权力的令人不寒而栗的滥用”。

  • 加州民主党众议员乔治·怀特塞兹:他担心赫格塞斯“威胁要加快安全政策的修改速度,可能会推动国防部在没有足够的保障措施的情况下进行更广泛的部署”。

  • 参议院情报委员会资深成员、弗吉尼亚州民主党参议员马克·沃纳在一份电子邮件新闻稿中表示:“总统指示联邦政府停止使用一家领先的美国人工智能公司,再加上攻击该公司的煽动性言论,这令人严重担忧国家安全决策是出于谨慎分析还是政治考量。”

五、附:Anthropic CEO 达里奥·阿莫迪声明

我深信,利用人工智能来保卫美国和其他民主国家,并击败我们的专制对手,具有关乎存亡的重要意义。

因此,Anthropic积极主动地将我们的模型部署到美国国防部和情报机构。我们是首家将模型部署到美国政府机密网络的尖端人工智能公司,也是首家在国家实验室部署模型的公司,更是首家为国家安全客户提供定制模型的公司。Claude模型已广泛应用于美国国防部和其他国家安全机构的关键任务应用,例如情报分析、建模与仿真、作战规划、网络作战等等。

Anthropic公司也曾采取行动捍卫美国在人工智能领域的领先地位,即便这违背了公司的短期利益。我们放弃了数亿美元的收入,阻止一些公司使用Claude芯片;我们制止了试图滥用Claude芯片的网络攻击;我们还倡导对芯片实施严格的出口管制,以确保民主优势。

Anthropic公司明白,军事决策是由美国国防部而非私营公司做出的。我们从未对任何具体的军事行动提出异议,也从未试图以任何临时性的方式限制我们技术的使用。

然而,在少数情况下,我们认为人工智能可能会破坏而非捍卫民主价值观。某些用途也完全超出了现有技术能够安全可靠执行的范围。其中两种用途从未被纳入我们与美国国防部的合同中,我们认为现在也不应该纳入:

  • 大规模国内监控。我们支持将人工智能用于合法的对外情报和反情报任务。但将这些系统用于大规模国内监控与民主价值观相悖。人工智能驱动的大规模监控对我们的基本自由构成了严重的、前所未有的风险。目前此类监控之所以合法,仅仅是因为法律尚未跟上人工智能快速发展的能力。例如,根据现行法律,政府无需获得搜查令即可从公共渠道购买美国公民的详细行踪、网络浏览记录和社交关系记录。情报界已承认这种做法引发了隐私担忧,并在国会遭到两党反对。强大的人工智能能够将这些分散的、单独来看无害的数据整合起来,形成任何人的生活全貌——而且是自动且大规模地进行。

  • 全自主武器。部分自主武器,例如目前在乌克兰使用的那些,对于捍卫民主至关重要。即使是自主武器(完全无需人工干预,自动选择和攻击目标),也可能对我们的国防至关重要。但目前,前沿人工智能系统的可靠性还不足以驱动全自主武器。我们绝不会故意提供会危及美国军人和平民安全的产品。我们已主动提出与美国国防部直接合作开展研发,以提高这些系统的可靠性,但他们拒绝了这一提议。此外,如果没有适当的监督,就无法指望全自主武器像我们训练有素的专业部队那样,每天做出关键判断。它们需要配备完善的保障措施才能部署,而这些措施目前尚不存在。

据我们所知,这两个例外情况迄今为止并未阻碍我们武装部队加快采用和使用我们的模型。

美国国防部已声明,他们只会与同意“任何合法用途”并在上述情况下移除安全措施的人工智能公司签订合同。他们威胁说,如果我们继续保留这些安全措施,就会将我们从他们的系统中移除;他们还威胁要将我们列为“供应链风险”——这一标签通常用于美国的敌对势力,此前从未用于美国公司——并援引《国防生产法》强制移除这些安全措施。后两项威胁本身就自相矛盾:一项将我们视为安全风险;另一项则将Claude视为国家安全不可或缺的一部分。

然而,这些威胁并不会改变我们的立场:我们不能昧着良心答应他们的要求。

国防部有权选择最符合其愿景的承包商。但鉴于Anthropic的技术为我军带来的巨大价值,我们希望他们重新考虑。我们强烈希望在两项我们要求的保障措施到位的情况下,继续为国防部和我们的作战人员服务。如果国防部选择终止与Anthropic的合作,我们将努力确保平稳过渡到其他供应商,避免对正在进行的军事计划、行动或其他关键任务造成任何干扰。我们将按照我们提出的优惠条款,在需要的时间内继续提供我们的产品。

我们随时准备继续为维护美国国家安全而努力。



感动 同情 无聊 愤怒 搞笑 难过 高兴 路过
【字体: 】【收藏】【打印文章】 【 打赏 】 【查看评论

相关文章

    没有相关内容