Claude d'Anthropic usat per seleccionar objectius militars
La IA Claude d'Anthropic hauria estat emprada per identificar objectius en atacs contra l'Iran, incloent-hi possiblement escoles. Un cas que alarma experts.
Claude d’Anthropic usat per seleccionar objectius en atacs militars contra l’Iran
Claud, el model d’intel·ligència artificial desenvolupat per Anthropic, hauria estat utilitzat per identificar i seleccionar objectius militars en el marc d’atacs contra l’Iran. El cas és especialment pertorbador perquè entre els possibles objectius seleccionats podria haver-hi una escola, una revelació que ha encès totes les alarmes en el món de la tecnologia i entre els defensors dels drets humans.
Com hauria actuat Claude en un context militar
La IA d’Anthropic és coneguda pel seu disseny orientat a la seguretat i l’alineament amb valors humans —el que en anglès s’anomena AI safety. L’empresa, fundada per antics membres d’OpenAI, s’ha posicionat públicament com una de les organitzacions més compromeses amb el desenvolupament responsable de la intel·ligència artificial. Per això, la notícia resulta especialment contradictòria: un sistema dissenyat explícitament per ser segur i beneficiós hauria acabat formant part d’una cadena de decisions que podrien haver tingut conseqüències letals per a civils.
En contextos de seguretat nacional i operacions militars, els sistemes d’IA s’empren cada vegada més per processar grans volums d’informació, creuar dades d’intel·ligència i generar llistes de possibles objectius. El problema és que, quan una IA participa en aquest procés, la responsabilitat de les decisions finals es dilueix de manera preocupant entre els humans que interpreten les recomanacions i els algoritmes que les generen.
El problema del control humà sobre la IA en decisions crítiques
Un dels debats centrals en l’ètica de la intel·ligència artificial és el del control humà significatiu: fins a quin punt un operador humà pot —o vol— qüestionar una recomanació generada per una IA avançada? La pressió operacional, la confiança excessiva en els sistemes automatitzats i la velocitat amb què es prenen decisions en entorns militars fan que la supervisió humana sigui, sovint, poc més que una formalitat.
En el cas de Claude, si les informacions es confirmen, caldria entendre quin tipus d’accés tenia el sistema a les dades d’intel·ligència, quines instruccions rebia i, sobretot, quines salvaguardes —si n’hi havia alguna— impedien que el model recomanés objectius en zones civils sensibles. La possible inclusió d’una escola en la llista d’objectius suggereix que aquestes salvaguardes, en cas d’existir, no van funcionar o van ser deliberadament ignorades pels usuaris.
Anthropic i les contradiccions del mercat de la IA
Anthropice ha construït bona part de la seva reputació sobre la idea que és possible crear IA potent i alhora segura. La companyia publica regularment investigacions sobre alineament, imposa restriccions d’ús als seus models i ha signat diverses declaracions internacionals sobre IA responsable. Tanmateix, com moltes empreses tecnològiques, opera en un mercat on les pressions comercials i els contractes governamentals poden entrar en conflicte directe amb els seus principis declarats.
No és la primera vegada que una gran empresa d’IA es troba en aquesta tessitura. El sector porta anys debatent on s’han de traçar les línies vermelles quan es tracta d’aplicacions militars o de seguretat nacional. Alguns actors han decidit no treballar mai en aquest àmbit; d’altres han establert comitès d’ètica interns; i uns tercers han optat per una postura pragmàtica que, en la pràctica, obre la porta a usos com el que ara se li atribueix a Claude.
Un debat urgent sobre la regulació de la IA en conflictes armats
A escala internacional, el dret humanitari estableix principis clars sobre la distinció entre objectius militars i civils, la proporcionalitat dels atacs i la precaució en la planificació. Ara bé, la normativa vigent no contempla de manera específica el paper que poden tenir els sistemes d’IA en la identificació d’objectius, ni qui n’és legalment responsable quan una recomanació algorítmica porta a un atac il·legal.
Organitzacions com la Creu Roja Internacional i diversos experts en dret internacional porten anys reclamant un marc normatiu específic per als sistemes d’armes autònoms i per a les IA que participen en decisions de vida o mort. Fins ara, els avenços han estat mínims, en part perquè les grans potències militars no tenen cap incentiu per limitar les seves pròpies capacitats tecnològiques.
El cas de Claude és un recordatori brutal que el debat sobre la IA no és només acadèmic ni futurista. Les decisions que es prenen avui sobre com es dissenyen, es comercialitzen i es regulen aquests sistemes tenen conseqüències reals, immediates i, de vegades, irreversibles. La pregunta ja no és si la IA pot causar dany: és qui és responsable quan ho fa, i com evitem que torni a passar.