ChatGPT i la vigilància massiva: el debat que crema
OpenAI ha acceptat posar les seves tecnologies al servei del Pentàgon mentre Anthropic es negava. El moviment #CancelChatGPT creix a les xarxes.
ChatGPT i la vigilància massiva: el debat que crema
El moviment per cancel·lar ChatGPT ha esclatat a les xarxes socials després que OpenAI acceptés posar les seves tecnologies a disposició del Departament de Defensa dels Estats Units. La decisió del conseller delegat Sam Altman contrasta amb la postura d’Anthropic, que va preferir ser exclosa dels contractes governamentals abans de cedir el control sobre com s’utilitza la seva IA.
Anthropic traça línies vermelles i en paga les conseqüències
Antropic, la companyia darrere del model Claude, va marcar aquesta setmana un precedent insòlit en el món de la intel·ligència artificial corporativa: va dir que no. L’empresa va establir dos límits innegociables davant del govern dels Estats Units: Claude no es pot fer servir per operar armament autònom ni per dur a terme vigilància massiva de ciutadans nord-americans.
La resposta de l’administració no es va fer esperar. Anthropic va ser declarada un risc per a la cadena de subministrament i, com a conseqüència, va quedar prohibida en les agències governamentals nord-americanes. És una mesura dràstica que, paradoxalment, posa en evidència fins a quin punt els governs contemporanis veuen la IA com una eina de control poblacional. Que una gran corporació tecnològica estigui disposada a perdre contractes milionaris per mantenir uns principis ètics mínims és, avui dia, una excepció que crida l’atenció precisament perquè és rarísima.
Sam Altman omple el buit i encén la polèmica
Amb Anthropic fora de joc, OpenAI va ocupar ràpidament l’espai deixat lliure. Sam Altman va anunciar que ChatGPT i la resta de tecnologies de la companyia estarien disponibles per al Pentàgon. En declaracions públiques, Altman va intentar matisar que els models no s’usarien per a vigilància massiva, però un funcionari del govern nord-americà va contradir aquesta afirmació de manera immediata, assegurant que l’ús seria per a «tots els mitjans legals».
El problema és que «legal» és un terme molt elàstic als Estats Units en matèria de vigilància. La Llei Patriota, aprovada després dels atemptats de l’11 de setembre del 2001, permet la recollida massiva de metadades de comunicacions en determinats supòsits. Això significa que, en la pràctica, OpenAI ha delegat en el govern la interpretació de fins on pot arribar l’ús dels seus sistemes, una postura radicalment diferent a la d’Anthropic, que volia mantenir el control directe sobre les aplicacions de la seva tecnologia.
#CancelChatGPT: la rebel·lió dels usuaris
La reacció a les comunitats en línia va ser immediata i contundent. A Reddit, fils amb milers de vots positius van omplir-se d’usuaris que anunciaven la cancel·lació de les seves subscripcions a ChatGPT Plus. Els missatges eren eloqüents: «Anthropic va ser eliminada per tenir ètica, i Sam Altman va córrer a agafar els diners del Pentàgon», escrivia un usuari en un dels fils més compartits.
El moviment posa de manifest una tensió creixent entre els usuaris de plataformes d’IA i les decisions corporatives que es prenen sense comptar amb ells. ChatGPT acaba de tancar una ronda de finançament que valora l’empresa en 730.000 milions de dòlars, amb inversors com Amazon, SoftBank i NVIDIA. Amb aquestes xifres sobre la taula, les consideracions ètiques tendeixen a quedar en segon pla.
Un sector sense líders morals clars
El panorama general del sector no convida a l’optimisme. Google va eliminar l’any passat la prohibició explícita sobre armament autònom dels seus protocols interns. Microsoft accepta sistemes d’armes autònomes sempre que un humà premi el botó final. Amazon es limita a un llenguatge vague sobre «ús responsable», i Meta no ha amagat l’interès pels contractes militars. En aquest context, la postura d’Anthropic destaca com una anomalia, però una anomalia que el mercat ha castigat en lloc de premiar.
La qüestió de fons és profunda: models d’IA que encara fallen estrepitosament en trencaclosques lògics elementals podrien acabar participant en decisions sobre seguretat nacional. Sistemes propensos a les al·lucinacions i fàcilment manipulables amb les tècniques adequades. El debat sobre qui controla la IA i amb quins límits ja no és una discussió acadèmica: és una conversa urgent que afecta tothom, visqui on visqui.
FONTS
HN — OpenAI ↗