GPT-5.4 mini i nano: més ràpids però fins a 4x més cars
OpenAI llança GPT-5.4 mini i nano, dos models compactes optimitzats per a programació i subagents amb un rendiment proper al model gran però preus molt més elevats.
GPT-5.4 mini i nano: més ràpids però fins a 4x més cars
OpenAI acaba de presentar dos nous models compactes, GPT-5.4 mini i GPT-5.4 nano, dissenyats específicament per a tasques de programació, control d’ordinadors i arquitectures d’agents. La novetat és que, tot i ser versions reduïdes, el seu rendiment s’acosta significativament al del model gran —però amb un preu considerablement més elevat que els seus predecessors.
GPT-5.4 mini: rendiment gairebé professional en format petit
El GPT-5.4 mini és el gran protagonista d’aquest llançament. OpenAI assegura que supera àmpliament el GPT-5 mini anterior en codificació, raonament, comprensió multimodal i ús d’eines, tot funcionant més del doble de ràpid. Els números ho avalen: al benchmark SWE-Bench Pro, orientat a la resolució de problemes de programació en entorns reals, el mini aconsegueix un 54,4%, mentre que el model complet arriba al 57,7%. Una diferència mínima per a un model que costa molt menys de processar.
On destaca especialment és en el control d’ordinadors. A OSWorld-Verified, una prova que avalua la capacitat d’interactuar amb interfícies gràfiques com ho faria un humà, el GPT-5.4 mini obté un 72,1% enfront del 75,0% del model gran. El seu predecessor, el GPT-5 mini, només aconseguia un 42,0% en aquesta mateixa prova. És un salt enorme que obre la porta a aplicacions d’automatització molt més capaces.
GPT-5.4 nano: el model per a tasques de suport
El GPT-5.4 nano ocupa l’esglaó inferior de la família, però no per això és menor. Està pensat per a classificació de dades, extracció d’informació, ordenació de resultats i, sobretot, per actuar com a subagent dins d’arquitectures més complexes. En termes de rendiment, al SWE-Bench Pro assoleix un 52,4%, un resultat que, fa no gaire temps, hauria estat considerat excel·lent per a qualsevol model.
El nano és exclusiu de l’API —no està disponible a ChatGPT ni a Codex de manera directa— i suporta una finestra de context de 400.000 tokens, igual que el mini. Aquesta capacitat de context extens el fa útil per a processar documents llargs o bases de codi voluminoses sense perdre informació pel camí.
L’arquitectura de subagents: cervell gran, braços petits
Un dels aspectes més interessants d’aquest llançament és com OpenAI imagina que s’usin aquests models conjuntament. A la plataforma Codex, l’empresa mostra una arquitectura on un model gran com el GPT-5.4 s’encarrega de la planificació, la coordinació i l’avaluació final, mentre delega les tasques paral·leles i més mecàniques als models mini o nano.
Aquestes subtasques inclouen cerques dins d’una base de codi, lectura de fitxers grans o processament de documentació auxiliar. El resultat pràctic és que el GPT-5.4 mini consumeix només el 30% de la quota del GPT-5.4 dins de Codex, cosa que pot reduir els costos operatius de manera significativa quan la majoria de la feina no requereix el model més potent. És, en essència, una divisió del treball intel·ligent: el model gran pensa, els models petits executen.
El preu, l’altra cara de la moneda
Aquí és on arriba la part menys celebrada de l’anunci. El GPT-5.4 mini té un preu de 0,75 dòlars per milió de tokens d’entrada i 4,50 dòlars per milió de tokens de sortida. Comparat amb el GPT-5 mini —que costava 0,25 dòlars i 2,00 dòlars respectivament— suposa multiplicar per tres el cost d’entrada i per més de dos el de sortida.
El nano és encara més sorprenent en termes relatius: passa de 0,05 a 0,20 dòlars per milió de tokens d’entrada, és a dir, quatre vegades més car. La sortida també es multiplica per tres aproximadament, passant de 0,40 a 1,25 dòlars.
OpenAI justifica implícitament aquesta pujada de preu amb els guanys de rendiment. I no és del tot injustificat: si el mini s’acosta al model complet en molts benchmarks, és lògic que el seu preu s’acosti també. Tanmateix, per a empreses i desenvolupadors que havien construït solucions assumint els costos anteriors, l’increment pot obligar a recalcular marges i arquitectures.
En definitiva, OpenAI continua apostant per una gamma de models escalonada on els models petits ja no són una opció de segona categoria, sinó peces clau d’un ecosistema d’agents cada cop més sofisticat. El repte per als usuaris serà decidir si el rendiment addicional justifica una factura considerablement més alta.
FONTS
The Decoder ↗