Intel·ligència Artificial

OpenAI defensa Anthropic davant acusacions de risc

OpenAI emet una declaració oficial per negar que Anthropic representi un risc per a la cadena de subministrament de la IA, en un gest inesperat entre rivals.

OpenAI defensa Anthropic davant acusacions de risc

OpenAI defensa Anthropic davant acusacions de risc en la cadena de subministrament

OpenAI ha emès una declaració oficial per negar que Anthropic, una de les seves principals competidores en el sector de la intel·ligència artificial, hagi de ser considerada un risc per a la cadena de subministrament. El gest, inesperat en un sector on la competència és ferotge, posa de manifest fins a quin punt la regulació de la IA ha començat a redefinir les relacions entre les grans empreses del sector.

Quan els rivals es defensen mútuament

En el món de la tecnologia, i especialment en l’ecosistema de la intel·ligència artificial, és poc habitual que una empresa surti públicament en defensa d’una competidora directa. OpenAI i Anthropic es disputen els mateixos clients, els mateixos talents i, en bona mesura, el mateix futur del sector. Però la declaració d’OpenAI deixa clar que, davant determinades amenaces regulatòries o institucionals, les fronteres entre rivals es poden difuminar.

Anthropicva ser fundada l’any 2021 per antics treballadors d’OpenAI, entre els quals Dario Amodei i Daniela Amodei, precisament després de discrepàncies internes sobre la direcció ètica i de seguretat de l’empresa. Des d’aleshores, les dues companyies han competit intensament, però sempre des d’un cert respecte mutu basat en objectius compartits: desenvolupar sistemes d’IA potents i, alhora, segurs.

Què significa ser un “risc per a la cadena de subministrament”?

La noció de risc per a la cadena de subministrament aplicada a empreses d’IA és relativament nova, però cada vegada més rellevant en els debats regulatoris. En termes generals, es refereix a la possibilitat que una empresa proveïdora de tecnologia —models, infraestructura, APIs— pugui representar una amenaça per a la seguretat nacional, la competència econòmica o la integritat dels sistemes que en depenen.

Aquest tipus de designació s’ha aplicat en el passat a empreses de telecomunicacions o semiconductors, però ara comença a plantejar-se en el context dels models d’IA de gran escala. Si una empresa desenvolupa models que altres organitzacions integren als seus productes i serveis, una hipotètica vulnerabilitat —tècnica, ètica o geopolítica— podria tenir efectes en cascada.

Que OpenAI hagi considerat necessari emetre una declaració pública en defensa d’Anthropic suggereix que hi ha hagut alguna mena de procés o debat institucional en el qual el nom d’Anthropic ha aparegut com a possible element de risc. El gest d’OpenAI actua, en aquest sentit, com una mena d’aval simbòlic cap a la comunitat reguladora.

Les tensions i aliances d’un sector en plena ebullició

La declaració d’OpenAI no és aliena al context més ampli en què opera la indústria de la IA. Als Estats Units i Europa, els governs estan treballant activament per establir marcs regulatoris que determinin quines empreses poden operar, en quines condicions i amb quin nivell de supervisió. En aquest escenari, ser etiquetada com a «risc» pot tenir conseqüències molt concretes: restriccions d’accés a determinats mercats, limitacions en contractes públics o fins i tot bloquejos en processos d’inversió.

Per a Anthropic, que ha construït bona part de la seva reputació sobre el concepte de «IA constitucional» i el compromís amb la seguretat dels sistemes, una designació d’aquest tipus hauria estat especialment paradoxal. L’empresa ha fet de la responsabilitat i la transparència els seus principals arguments de mercat.

Des d’una perspectiva estratègica, la posició d’OpenAI també és intel·ligent: defensar Anthropic és, en part, defensar tota la indústria dels models d’IA d’alt rendiment desenvolupats als Estats Units davant d’una regulació que podria perjudicar el sector en conjunt.

Un sector que aprèn a parlar amb una sola veu quan cal

El que revela aquest episodi és que, malgrat la competència intensa, les grans empreses d’IA nord-americanes comencen a entendre que determinades batalles s’han de guanyar col·lectivament. La regulació, la percepció pública i la geopolítica tecnològica són fronts on la fragmentació pot ser costosa per a tothom.

Això no significa que OpenAI i Anthropic vagin a deixar de competir pels mateixos clients o de publicar estudis rivals sobre seguretat i rendiment. Però sí que apunta cap a una maduresa creixent del sector: la capacitat de distingir quan la cooperació és més útil que la confrontació. En un moment en què la regulació de la intel·ligència artificial es juga en despatxos governamentals de Washington, Brussel·les i Pequín, saber quan fer pinya pot ser tan important com tenir el millor model.

FONTS

HN — OpenAI ↗
← Tornar a l'inici