Anthropic vs OpenAI: la rivalidad ya no va de “quién habla mejor en el chat”, sino de “quién actúa y desarrolla mejor”.
Esta semana Hnos visto dos movimientos casi consecutivos que apuntan a lo mismo: modelos pensados para trabajar durante más tiempo, con más contexto y con más autonomía. Y eso cambia totalmente el papel del desarrollador… y con lleva nuevos riesgos.
Qué pasó concretamente:
Claude Opus 4.6 (Anthropic): actualización continuista, pero con un salto clave: 1 millón de tokens de contexto (más “memoria” dentro de una tarea larga).
GPT-5.3 Codex (OpenAI): modelo centrado en programación que, según lo comunicado, mejora en benchmarks frente a Opus 4.6 y busca más autonomía y más eficiencia (menos tokens por trabajo).
App de Codex: la IA deja de ser “chat” y pasa a ser centro de control: proyectos, tareas y agentes (asistentes con objetivos y permisos).
Por qué importa:
Como usuarios, estamos pasando de pedir respuestas a delegar acciones. Y cuando delegas, la pregunta deja de ser “¿acierta?” y pasa a ser “¿qué puede tocar, qué información registra y cómo corrige los fallos que se generan?”.
Tres trucos prácticos para aplicar ya:
Si programas con IA: ejecuta cambios pequeños, con tests obligatorios y revisión de diffs.
Si gestionas equipos: da permisos mínimos, usa logs y ten la trazabilidad por defecto.
Si eres usuario: usa la IA para acelerar trabajo, no para “delegar de verdad”.
¿Dónde te parece más delicado este salto a agentes: en código, en datos internos o en decisiones de negocio?
#IA #GenAI #Anthropic #OpenAI #Agentes #Programación #Ciberseguridad