Anthropic

Claude 1M de context: disponible per a Opus i Sonnet 4.6

Anthropic obre la finestra d'1 milió de tokens per a Claude Opus 4.6 i Sonnet 4.6 sense sobrecost. Fins a 600 imatges o pàgines PDF per petició.

Claude 1M de context: disponible per a Opus i Sonnet 4.6

Claude 1M de context: disponible per a Opus i Sonnet 4.6

Anthropic ha anunciat que la finestra de context d’un milió de tokens per als models Claude Opus 4.6 i Sonnet 4.6 ja és disponible de manera general, sense costos addicionals respecte als preus estàndard. Aquesta és una fita important per a les aplicacions d’empresa que treballen amb grans volums de text, codi o documents.

Finestra d’1M de tokens al preu habitual

Un dels aspectes més destacats d’aquest llançament és la política de preus: no hi ha cap multiplicador per context llarg. Una petició de 900.000 tokens es factura exactament al mateix preu per token que una de 9.000. Per a Opus 4.6, el cost és de 5 dòlars per milió de tokens d’entrada i 25 de sortida; per a Sonnet 4.6, de 3 i 15 dòlars respectivament.

A més, ja no cal cap capçalera beta especial al codi per activar el context extès. Les peticions de més de 200.000 tokens funcionen automàticament, cosa que simplifica la integració per als equips de desenvolupament que ja treballaven amb versions anteriors.

Sis vegades més contingut multimèdia per petició

Més enllà del text, Anthropic ha ampliat significativament els límits de contingut multimèdia: ara es poden incloure fins a 600 imatges o pàgines de PDF en una sola petició, enfront de les 100 anteriors. Aquesta millora és especialment rellevant per a casos d’ús com l’anàlisi de contractes llargs, la revisió de documentació tècnica extensa o la síntesi d’articles científics amb figures.

La disponibilitat s’estén a les principals plataformes cloud: Amazon Bedrock, Google Cloud Vertex AI i Microsoft Azure Foundry, a més de la plataforma pròpia de Claude.

Per què importa la qualitat del record a llarga distància

Tenir un milió de tokens de finestra no és útil si el model perd el fil quan s’allunya dels primers fragments. Aquí Anthropic destaca que Opus 4.6 obté un 78,3% en el benchmark MRCR v2 —que avalua la recuperació d’informació en contextos llargs—, la puntuació més alta entre els models fronterers a aquesta longitud de context.

En termes pràctics, això vol dir que es pot carregar una base de codi completa, milers de pàgines de contractes, o el rastre sencer d’un agent de llarga durada —incloent-hi crides a eines, observacions i raonaments intermedis— i treballar-hi directament. Desapareix la necessitat d’enginyeria manual per fraccionar el context, de resums amb pèrdua d’informació o de netejar la memòria durant la sessió.

Els equips que ja ho fan servir en producció descriuen beneficis concrets: menys esdeveniments de compactació de context (una reducció del 15% en alguns casos), revisions de codi de més qualitat en analitzar diffs grans de cop, i agents jurídics capaços de creuar-referenciar expedients complets sense perdre el fil des de la pàgina primera.

Claude Code també se n’aprofita

Els usuaris de Claude Code amb plans Max, Team i Enterprise a Opus 4.6 passen automàticament a la finestra d’1 milió de tokens. Això resol un dels principals punts de dolor dels desenvolupadors: quan Claude Code rastrejava logs, bases de dades i codi font en una sessió llarga, la compactació forçada feia perdre detalls crucials en mig d’una depuració. Amb la nova configuració, tota la sessió —cerques, resultats, hipòtesis— es manté intacta fins a la resolució del problema.

Això representa un canvi de paradigma per a la programació assistida per IA en projectes grans: el model pot agregar casos límit, proposar solucions i mantenir el context de múltiples arxius simultàniament sense necessitat de reiniciar la conversa.

Un pas cap a agents de llarga durada

L’obertura del context d’un milió de tokens a preu estàndard és, en el fons, una aposta d’Anthropic per fer viables els agents autònoms que treballen durant hores en tasques complexes. Fins ara, el cost i les limitacions tècniques obligaven a sacrificar informació per seguir operant. Amb aquest canvi, la càrrega de gestionar la memòria passa del desenvolupador al model, simplificant l’arquitectura de les aplicacions i obrint la porta a casos d’ús que fins ara eren massa costosos o massa complexos d’implementar.

FONTS

HN — Anthropic / Claude ↗
← Tornar a l'inici