DeepSeek i la guerra de la destil·lació de models IA
Anthropic acusa DeepSeek, Moonshot AI i MiniMax d'atacs de destil·lació de models. Una batalla que revela les tensions entre IA occidental i xinesa.
DeepSeek i la guerra de la destil·lació de models IA
La destil·lació de models d’intel·ligència artificial s’ha convertit en el nou camp de batalla tecnològic entre Orient i Occident. Anthropic, una de les empreses punteres en el desenvolupament d’IA als Estats Units, ha denunciat públicament que DeepSeek, Moonshot AI i MiniMax —tres dels gegants xinesos del sector— haurien dut a terme el que els experts anomenen ‘atacs de destil·lació’, una pràctica que posa sobre la taula qüestions fonamentals sobre propietat intel·lectual i seguretat en la cursa global per dominar la intel·ligència artificial.
Què és exactament la destil·lació de models?
Per entendre l’abast d’aquesta controvèrsia, cal primer comprendre de què parlem quan diem ‘destil·lació’. En el món de la IA, la destil·lació és una tècnica legítima que consisteix a entrenar un model més petit i eficient a partir del coneixement d’un model més gran i complex. El model petit aprèn a imitar les respostes del gran, aconseguint un rendiment comparable amb molts menys recursos computacionals.
El problema sorgeix quan aquesta tècnica s’aplica sense el permís del creador del model original. En lloc de limitar-se a interactuar amb una IA com qualsevol usuari, els presumptes atacants generarien de manera sistemàtica i massiva milers o milions de parells de preguntes i respostes, usant-los posteriorment per entrenar els seus propis models. D’aquesta manera, s’estaria transferint el ‘coneixement’ i les capacitats del model original sense haver invertit els recursos necessaris per desenvolupar-les, i sobretot, sense cap autorització.
Les acusacions contra les empreses xineses
Anthopic, creadora del model Claude, apunta directament a tres empreses xineses de primer nivell. DeepSeek ha saltat als titulars internacionals en els últims mesos per la qualitat sorprenent dels seus models, que han aconseguit rivalitzar amb els millors sistemes occidentals a una fracció del cost declarat. Moonshot AI, coneguda pel seu model Kimi, i MiniMax, amb una àmplia cartera de productes d’IA generativa, completen el trio acusat.
Les acusacions suggereixen que aquests models haurien aprofitat les capacitats de Claude de manera il·legítima per accelerar el seu propi desenvolupament. Si es confirmen, les implicacions serien enormes: significaria que part de l’avantatge competitiu que exhibeixen alguns models xinesos no s’hauria construït des de zero, sinó extret dels esforços i la inversió d’empreses occidentals.
Cal assenyalar, però, que de moment es tracta de denúncies i acusacions. Cap de les empreses xineses esmentades ha admès les pràctiques descrites, i el debat legal i tècnic sobre com demostrar aquest tipus d’atacs és extraordinàriament complex.
Un conflicte que va molt més enllà de la tecnologia
Aquest incident no és un fet aïllat, sinó el símptoma d’una tensió estructural que porta anys gestant-se. La cursa per liderar la intel·ligència artificial té implicacions estratègiques, econòmiques i geopolítiques de primer ordre. Els governs dels Estats Units i la Unió Europea han imposat restriccions a l’exportació de xips avançats precisament per frenar el progrés tecnològic de la Xina en aquest àmbit.
En aquest context, les acusacions de destil·lació no fan sinó reflectir una realitat incòmoda: quan les vies legals d’accés a la tecnologia puntera estan bloquejades o restringides, la temptació d’explorar camins alternatius —i potencialment il·legals— augmenta. Des d’una perspectiva diferent, però, les empreses xineses argumenten que el seu progrés és fruit de la seva pròpia investigació i que els models occidentals no tenen el monopoli de la innovació.
El debat sobre la propietat intel·lectual en la IA és, a més, un terreny jurídicament pantanós. No existeix encara un marc normatiu clar i universal que reguli qui posseeix els outputs d’un model, com es pot demostrar un ús indegut o quines sancions correspondrien en cas de verificar-se.
Una batalla que definirà el futur de la IA
El cas DeepSeek-Anthropic no és només una disputa corporativa: és un indicador del tipus de conflictes que proliferaran a mesura que la intel·ligència artificial es converteixi en un recurs estratègic de primer ordre. Les empreses que lideren el sector han invertit milers de milions de dòlars i anys de recerca per construir models capaços de raonar, escriure i resoldre problemes complexos. Veure com aquesta inversió pot ser aprofitada per tercers de manera encoberta representa una amenaça existencial per al model de negoci de la IA generativa tal com el coneixem.
Mentrestant, la comunitat científica i els reguladors de tot el món observen aquest enfrontament amb atenció. La manera com es resolgui —o no es resolgui— aquest conflicte marcarà el camí per a futures disputes i establirà precedents sobre com es protegeix —i es comparteix— el coneixement en l’era de la intel·ligència artificial.
FONTS
HN — DeepSeek ↗