La compañía de inteligencia artificial Anthropic lanzó una nueva versión de su modelo, que mejora la precisión en el seguimiento de instrucciones, el análisis de imágenes de alta resolución e incorpora medidas de detección de solicitudes de ciberseguridad de riesgo.
Anthropic, la compañía especializada en inteligencia artificial, presentó oficialmente Claude Opus 4.7. Este nuevo modelo introduce mejoras significativas en varias áreas clave respecto de su versión anterior.
Según informó la empresa, una de las principales novedades es una mayor precisión en el seguimiento de instrucciones, interpretándolas de manera más literal para evitar resultados inesperados. Además, se ha mejorado el soporte multimodal, permitiendo ahora el procesamiento de imágenes de mayor resolución (hasta 2576 píxeles en su lado más largo). Esta capacidad está orientada a tareas que requieren un alto nivel de detalle visual, como la extracción de información de diagramas complejos.
En el ámbito financiero, el modelo demostró generar análisis y modelos más rigurosos, así como presentaciones profesionales con una mejor integración entre tareas. Otra característica destacada es su sistema de memoria basado en archivos, que le permite conservar notas importantes durante sesiones de trabajo extensas y utilizarlas para abordar nuevas tareas con menos contexto previo.
La compañía afirma que, en conjunto, Claude Opus 4.7 gestiona tareas complejas y de larga duración con rigor y coherencia, prestando especial atención a las instrucciones y diseñando mecanismos para verificar sus propios resultados.
En materia de seguridad, este modelo es el primero de los «modelos menos avanzados» de Anthropic en incorporar medidas probadas de Claude Mythos Preview, un modelo de vanguardia de lanzamiento limitado. Aunque sus capacidades en ciberseguridad no son tan avanzadas como las de Claude Mythos, Claude Opus 4.7 incluye sistemas que detectan y bloquean automáticamente solicitudes que indican usos prohibidos o de alto riesgo en esta área.
Según el comunicado de Anthropic, el modelo mantiene bajas tasas de comportamientos no deseados, como el engaño o la cooperación con usos indebidos, y muestra una ligera mejora en honestidad y resistencia a ataques maliciosos como la inyección de instrucciones.
