Qué cambió en el system prompt de Claude entre Opus 4.6 y 4.7
Anthropic actualizó el system prompt de Claude con Opus 4.7, introduciendo cambios importantes en seguridad infantil, manejo de ambigüedad, uso de herramientas y lineamientos de concisión. Este artículo explica los cambios y qué significan para desarrolladores y responsables en la región.
Introducción
Anthropic sigue siendo la única gran empresa de IA que publica sus system prompts para los modelos orientados al usuario. Esa práctica aporta transparencia sobre cómo se orienta el comportamiento del asistente y permite analizar las prioridades de diseño detrás de cada lanzamiento. El investigador Simon Willison documentó las diferencias entre los prompts publicados para Claude Opus 4.6 (febrero de 2026) y Opus 4.7 (publicado el 16 de abril de 2026), reconstruyendo una historia de versiones mediante un ejercicio de git a partir de los archivos Markdown.
En este artículo sintetizo los cambios más relevantes detectados en ese diff, explico su impacto práctico y apunto a consideraciones para equipos y tomadores de decisión en América Latina.
Cambios principales: qué aparece y qué desaparece
-
Cambio de denominación: la referencia a la plataforma de desarrolladores pasó a llamarse Claude Platform. No es un cambio técnico, pero muestra una preferencia terminológica que puede influir en documentación y marketing.
-
Herramientas nuevas en la lista pública: el prompt ahora menciona Claude in Chrome (navegación autónoma en sitios web), Claude in Excel (agente para planillas) y Claude in PowerPoint (agente de diapositivas). Además, el prompt indica que Claude Cowork puede usar estas herramientas. Claude in PowerPoint no figuraba en la versión 4.6.
-
Se añadieron y expandieron instrucciones sobre seguridad infantil, ahora encapsuladas en una etiqueta nueva llamada <critical_child_safety_instructions>. Un punto clave: si Claude rechaza una petición por motivos de seguridad infantil, todas las solicitudes posteriores en la misma conversación deben manejarse con extrema cautela. Esto subraya una priorización más fuerte de seguridad en interacciones potencialmente sensibles.
-
Nueva sección acting_vs_clarifying: orienta al modelo a actuar cuando faltan detalles menores en lugar de interrogar al usuario. Solo debe pedir más información si la petición es realmente imposible de responder sin esos datos. Además, si existe una herramienta capaz de resolver la ambigüedad, Claude debe invocarla antes de preguntar al usuario. Una instrucción explícita: una vez que Claude inicia una tarea, debe llevarla hasta una respuesta completa y no detenerse a medias.
-
Mecanismo de tool_search: antes de concluir que carece de una capacidad (por ejemplo, acceso a calendario, archivos, ubicación, memoria), Claude debe llamar a tool_search para verificar si hay una herramienta relevante disponible pero en estado diferido. Decir “no tengo acceso a X” solo es correcto después de confirmar que tool_search no encontró una herramienta adecuada.
-
Concisión reforzada: hay lenguaje nuevo que incentiva respuestas enfocadas y concisas para evitar saturar al usuario con respuestas excesivamente largas. Las advertencias o matices deben aparecer de forma breve y no dominar la respuesta principal.
-
Eliminación de reglas previas: ciertas prohibiciones que aparecían en 4.6, como evitar emotes entre asteriscos o la prohibición de palabras como “genuinely” u “honestly”, han sido removidas en 4.7, lo que sugiere que la nueva versión del modelo maneja mejor esos sesgos de estilo.
-
Inclusión del tema desórdenes alimenticios: hay una sección nueva que instruye a Claude a no dar cifras detalladas, objetivos numéricos o planes paso a paso si un usuario muestra signos de desorden alimenticio, para evitar reforzar conductas peligrosas.
-
Protección contra ataques de captura de pantalla: en la sección sobre imparcialidad, el prompt indica que si alguien exige respuestas de solo sí o no sobre temas complejos o figuras controversiales, Claude puede negarse y ofrecer una respuesta matizada explicando por qué un veredicto simple sería inapropiado.
-
Actualización implícita de conocimientos: la aclaración específica que aparecía en 4.6 sobre Donald Trump ya no está en 4.7, lo que coincide con un cambio en la fecha de corte de conocimiento del modelo hacia enero de 2026.
Qué no está completamente documentado
Aunque Anthropic publica los system prompts, no incluye en esos archivos las descripciones completas de cada herramienta disponible al modelo. Esas descripciones son críticas para entender cómo y cuándo un asistente invoca capacidades externas. Simon Willison consultó directamente a Claude para obtener la lista de herramientas registradas y obtuvo nombres como ask_user_input_v0, bash_tool, conversation_search, create_file, fetch_sports_data, image_search, message_compose_v1, places_map_display_v0, places_search, present_files, recent_chats, recipe_display_v0 y una entrada parcial recommend_cl… La lista completa y las descripciones detalladas no aparecen en el repositorio público, lo que limita la trazabilidad total.
Implicaciones prácticas para LATAM
-
Productos y flujos de trabajo: la aparición de agentes dedicados para Excel y PowerPoint y la capacidad de navegación autónoma pueden acelerar la automatización de tareas de oficina comunes en la región, desde reportes financieros hasta presentaciones. Equipos de TI y líderes de producto deberían evaluar cómo integrar estas funciones respetando políticas internas de datos.
-
Regulación y cumplimiento: la expansión de las instrucciones de seguridad infantil y la prudencia frente a desórdenes alimenticios muestran un enfoque proactivo en mitigación de daños. Reguladores y responsables de cumplimiento en Latinoamérica pueden tomar esto como referencia para exigir transparencia similar en proveedores de IA que operen con usuarios locales.
-
Desarrollo de integraciones: el mecanismo de tool_search enfatiza que el modelo puede descubrir y preferir herramientas antes que pedir al usuario que busque la información. Para desarrolladores en la región, esto implica diseñar APIs y conectores que sean detectables y seguros, y documentar claramente qué capacidades ofrecen.
-
Confianza del usuario: las instrucciones para no insistir cuando un usuario quiere finalizar la conversación y para mantener respuestas concisas responden a necesidades de usabilidad que importan en contextos empresariales y de atención al cliente en mercados latinoamericanos, donde la claridad y el respeto al tiempo del usuario son valorados.
Conclusión
La actualización de Opus 4.7 refleja una madurez operativa: mayor atención a la seguridad infantil, manejo más pragmático de la ambigüedad mediante herramientas, y esfuerzos por mantener interacciones más concisas y respetuosas. Para organizaciones y responsables de producto en América Latina, estos cambios ofrecen tanto oportunidades como requerimientos: aprovechar capacidades nuevas (agentes para productividad, navegación) mientras se exige transparencia sobre las herramientas y se garantiza protección de usuarios vulnerables.
Seguir la publicación de system prompts y complementar ese análisis con interrogaciones directas al modelo (como hizo Willison para conocer las herramientas) sigue siendo una práctica útil para evaluar riesgos, posibilidades de integración y cumplimiento en proyectos de IA en la región.
Fuente original: Simon Willison