El Pentàgon reavalua la relació amb Anthropic per les restriccions a l'ús militar del seu IA Claude

  • El Pentàgon revisa la seva col·laboració amb Anthropic per les limitacions a l'ús militar del IA Claude.
  • Defensa vol poder emprar la tecnologia per a “tots els fins legals”, inclòs armament i intel·ligència.
  • Anthropic manté salvaguardes davant de vigilància massiva i armes totalment autònomes.
  • Fins i tot s'estudia declarar-la “risc per a la cadena de subministrament”, amb impacte en altres contractes.

Pentàgon i Anthropic

El Pentàgon ha obert una revisió exhaustiva de la seva relació amb l?empresa d?intel·ligència artificial Anthropic després de diversos mesos de friccions per l?ús militar de la seva tecnologia. La companyia, creadora del model d'IA Claude, ha imposat una sèrie de límits ètics que xoquen amb les exigències del Departament de Defensa dels Estats Units.

Al centre del desacord es troba la petició de l'Exèrcit de poder emprar aquests sistemes per “tots els fins legals”, mentre Anthropic defensa salvaguardes estrictes davant de la vigilància massiva i l'armament totalment autònom. Aquesta disputa, que ha sortit a la llum a través d'informacions d'Axios, Reuters, Bloomberg i l'agència EFE, amenaça ara de derivar en la ruptura d'un contracte valorat a uns 200 milions de dòlars.

Rússia està desenvolupant una nova arma per atacar els satèl·lits Starlink
Article relacionat:
Rússia i el desenvolupament d'una arma antisatèl·lit contra la xarxa Starlink

Pressió del Pentàgon per ampliar l?ús militar de la IA

D'acord amb fonts esmentades per diversos mitjans dels Estats Units, el Departament de Defensa ha estat pressionant quatre grans companyies d'IA, entre elles Anthropic, perquè permetin als militars utilitzar els seus models en un ventall molt més ampli d'operacions. La petició abasta des de la recopilació d'intel·ligència i el suport en missions sobre el terreny fins al desenvolupament i prova de noves armes.

Un funcionari del Pentàgon, sota condició d'anonimat, va explicar que s'estudien diferents escenaris, que van des de reduir la col·laboració amb Anthropic fins trencar completament la relació. En aquest cas, el Departament insisteix que s'hauria d'organitzar un “reemplaçament ordenat” per no deixar buits en sistemes crítics en què ja es fa servir la tecnologia de la companyia.

El portaveu principal del Departament de Defensa, Sean Parnell, va confirmar a EFE que "la relació del Departament de Guerra amb Anthropic està sent revisada". En les seves paraules, els Estats Units necessiten que els seus socis tecnològics estiguin disposats a ajudar les seves forces armades a “guanyar qualsevol batalla”, subratllant que el focus d'aquesta revisió és a la protecció de les tropes i la seguretat nacional.

Alhora, un alt càrrec militar citat per Axios va ser més dur en el to i va advertir que, si es veuen obligats a desmantellar la integració d'Anthropic en els seus sistemes, l'empresa “pagarà un preu” per haver forçat aquesta situació, reflectint fins a quin punt el malestar ha escalat les últimes setmanes.

Les salvaguardes d'Anthropic i el cas de Claude

Davant aquesta pressió, Anthropic manté una postura ferma en dues línies vermelles: evitar la vigilància massiva sobre ciutadans nord-americans i rebutjar el desplegament de armes letals completament autònomes, és a dir, sense un control humà significatiu. Aquestes salvaguardes formen part del marc d'ús responsable que la companyia ha anat fent públic els darrers anys.

El model d'IA insígnia de l'empresa, conegut com Claude, ha esdevingut el centre del debat. Segons informacions avançades per Axios i altres mitjans, Claude s'hauria utilitzat ja a operacions militars reals en xarxes classificades del Pentàgon, donant suport a anàlisis d'intel·ligència i planificació operativa dins de sistemes als quals només s'accedeix amb autorització d'alt nivell.

En aquest context se situa una operació especialment delicada: diverses fonts apunten que Claude va ser emprat, a través de la plataforma de Palantir Technologies, en una missió que tenia com a objectiu la captura del deposat president veneçolà Nicolás Maduro el 3 de gener passat. Aquesta participació hauria encès encara més les alarmes sobre l‟abast de l‟ús militar de models d‟IA de propòsit general.

La companyia, però, sosté que ha estat pionera a desplegar un model d'IA en xarxes classificades amb el compromís que es respectin les polítiques d'ús. Anthropic insisteix que la seva col·laboració amb el govern nord-americà ha girat precisament al voltant de com aplicar aquests límits en contextos de seguretat nacional, sense entrar en detalls operatius concrets.

Amenaça de ser considerada “risc per a la cadena de subministrament”

Un dels moviments més contundents que avalua el Pentàgon és la possibilitat de designar Anthropic com “risc per a la cadena de subministrament”. Aquesta figura, normalment utilitzada contra actors estrangers considerats adversaris, complicaria seriosament la relació de l'empresa amb altres contractistes de defensa.

Si aquesta etiqueta es fes efectiva, qualsevol companyia que volgués continuar treballant amb el Departament de Defensa hauria de acreditar que no empra eines de Anthropic en els sistemes o processos. A la pràctica, aquesta decisió podria empènyer bona part de l'ecosistema de contractistes a distanciar-se de la firma per no posar en perill els seus acords amb l'Exèrcit nord-americà.

Les fonts consultades per Axios assenyalen que el secretari de Guerra, Pete Hegseth, està “a punt” de fer aquest pas si no s'assoleix una entesa. El contracte actualment en vigor, signat l'estiu passat, puja a uns 200 milions de dòlars (prop de 168 milions d'euros), una xifra modesta si se la compara amb els contractes globals del Pentàgon, però clau pel caràcter estratègic de la IA en defensa.

Per a Anthropic, l'impacte no seria només econòmic. Ser assenyalada com un risc a la cadena de subministrament podria danyar la seva reputació dins i fora dels Estats Units, obrint la porta al fet que altres administracions o aliats reconsiderin alhora quin tipus de col·laboració mantenen amb la companyia en l'àmbit de la seguretat i la defensa.

Claude Gov i la batalla per les condicions d'ús

En paral·lel a aquestes tensions, Anthropic ha desenvolupat una versió específica de la seva tecnologia per a entorns governamentals i militars, coneguda com a Claude Gov. Segons Bloomberg, aquest model està pensat per manejar materials classificats, anàlisi d'intel·ligència i ciberseguretat, oferint a l'aparell de seguretat nacional una alternativa que pretén equilibrar capacitat i responsabilitat.

El Pentàgon, per la seva banda, busca que tant Claude Gov com altres models avançats puguin utilitzar-se sense les restriccions que avui limiten certs escenaris, especialment a operacions ofensives, tasques de ciberdefensa agressiva i planificació d'armament de nova generació. La consigna que es repeteix a Defensa és que la IA ha d'estar disponible per “tots els usos permesos per la llei".

Reuters ha informat que aquesta pressió no es dirigeix ​​només a Anthropic. Altres tecnològiques com OpenAI, Google i xAI també estarien rebent senyals clars que, si volen operar en xarxes classificades del Departament de Defensa, hauran de flexibilitzar les pròpies polítiques d'ús, sobretot pel que fa a violència, vigilància i ocupació militar directa.

Anthropic, però, s'ha mostrat més renocent a cedir en certs punts, mantenint “límits durs” a les armes totalment autònomes ia sistemes que permetin vigilar de manera massiva la població. Aquesta resistència és precisament un dels factors que expliquen perquè la seva relació amb el Pentàgon ha arribat a una situació tan delicada.

Un pols que marcarà el futur de la IA militar a Occident

La revisió de la relació entre el Pentàgon i Anthropic s'ha convertit en un cas d'estudi per al sector tecnològic, especialment a Europa, on el debat sobre l'ús militar de la intel·ligència artificial és molt present a l'agenda política i regulatòria. La manera com es resolgui aquest pols podria influir en com l'OTAN i els països europeus estructuren les seves aliances amb proveïdors privats d'IA.

A la Unió Europea avancen normes com la Llei d'Intel·ligència Artificial, que inclouen prohibicions i forts límits a la vigilància biomètrica massiva ia determinats usos militars d'alt risc. Des d'aquesta banda de l'Atlàntic s'observa amb atenció com un dels principals aliats, Estats Units, toreja amb les companyies que intenten imposar criteris ètics interns en entorns de defensa.

Per als governs europeus, el conflicte entre Anthropic i el Pentàgon ofereix una bestreta dels problemes que sorgiran quan les normes de drets fonamentals xoquin amb les demandes operatives dels exèrcits. És previsible que, en futurs contractes, tant la UE com els estats membres hagin de definir amb molta més precisió quines responsabilitats assumeixen les tecnològiques i fins on poden arribar les clàusules dús responsable.

El paper dels Estats Units també és rellevant per a la indústria europea de defensa i ciberseguretat, ja que moltes empreses del continent treballen en contractes conjunts o integren solucions nord-americanes a les seves plataformes. Un enduriment de la posició de Washington, o una ruptura sonada amb un proveïdor com Anthropic, podria reconfigurar les cadenes de subministrament en què participen empreses europees.

Xoc entre missió militar i principis corporatius

El rerefons d'aquest conflicte és el xoc entre la lògica militar i lètica corporativa. Mentre el Pentàgon se centra a mantenir la superioritat estratègica davant de potències com la Xina o Rússia, les grans firmes d'IA intenten preservar una imatge de responsabilitat i respecte als drets humans, també de cara als seus clients civils i als reguladors.

Des del costat militar, s'argumenta que limitar de manera estricta l'ús de la IA en operacions ofensives podria deixar els Estats Units a desavantatge tecnològicespecialment si altres països no imposen les mateixes restriccions als seus sistemes d'armes i vigilància. D'aquí ve el missatge insistent que els models s'utilitzin per a tots els fins legals, sense traves addicionals.

Anthropic i altres companyies, per contra, temen que una cessió completa a l'àmbit militar pugui derivar en casos d'abús o en el desenvolupament de sistemes pràcticament impossibles de controlar una vegada desplegats, sobretot pel que fa a armes autònomes ia la monitorització massiva de poblacions senceres.

Organitzacions i experts en ètica de la tecnologia fa temps que alerten que la “automatització de decisions letals” i l'expansió de la vigilància basada en IA plantegen riscos directes per a drets fonamentals com la privadesa, la llibertat d'expressió o fins i tot el dret a la vida en contextos de conflicte armat.

En aquest equilibri inestable entre avantatges operatius i principis ètics es mouen ara el Pentàgon i Anthropic, amb la continuïtat del seu contracte a l'aire i sota la mirada atenta de governs, empreses i reguladors dels dos costats de l'Atlàntic.

Ara com ara, la revisió que ha iniciat el Departament de Defensa sobre la seva relació amb Anthropic continua oberta i sense un desenllaç clar. Mentre els militars reclamen llibertat total per explotar el potencial de la IA en “tots els usos legals”, la companyia insisteix a mantenir salvaguardes davant la vigilància massiva i les armes totalment autònomes, en un pols que va molt més enllà d'un contracte de 200 milions i que pot establir les bases de com s'integrarà la intel·ligència artificial a la defensa i la seguretat als Estats Units.


Segueix-nos a Google News