Claude Mythos Preview encontró miles de zero-days y está restringido al público porque sus capacidades de hackeo son demasiado peligrosas.
Por primera vez en la historia de la IA, una empresa decide no lanzar un modelo al público porque es demasiado peligroso para la ciberseguridad global.
Anthropic anunció el 7 de abril que Claude Mythos Preview —su modelo más avanzado hasta la fecha— no estará disponible para el público en general debido a su capacidad destructiva en ciberseguridad. En pocas semanas de pruebas internas, Mythos identificó miles de vulnerabilidades de día cero en los principales sistemas operativos y navegadores web, incluyendo un bug de 27 años en OpenBSD que había permanecido sin detectar en código de producción crítico. El Instituto de Seguridad de IA del Reino Unido (AISI) realizó una evaluación independiente y confirmó que Mythos crea exploits funcionales al primer intento en el 83,1% de los casos en los que se le pide que reproduzca una vulnerabilidad conocida. TechCrunch señala que el resultado supera ampliamente las capacidades de cualquier modelo anterior en tareas de seguridad ofensiva. El CEO de Anthropic, Dario Amodei, reconoció que el modelo representa "un punto de inflexión en las capacidades de la IA". Anthropich lanzó en paralelo el Proyecto Glasswing, en el que el modelo se usa de forma controlada para encontrar y parchar vulnerabilidades en infraestructura crítica junto a Amazon, Apple, Broadcom, Cisco, CrowdStrike, la Linux Foundation, Microsoft y Palo Alto Networks. Un escéptico clave: investigadores del Council on Foreign Relations advierten que los atacantes sofisticados ya tienen acceso a modelos con capacidades similares sin las restricciones de Anthropic, lo que hace que la restricción proteja principalmente a actores de baja sofisticación. Para Costa Rica, el impacto más directo es que empresas de la Zona Franca con operaciones de ciberseguridad —incluyendo CrowdStrike, que tiene equipo en el país— podrán acceder a Mythos a través del Proyecto Glasswing antes que el mercado general.
El modelo especializado en ciberseguridad defensiva permite ingeniería inversa binaria y análisis de malware que la versión general rechaza.
El 14 de abril de 2026, OpenAI presentó GPT-5.4-Cyber, una variante del modelo GPT-5.4 ajustada específicamente para profesionales de ciberseguridad verificados. El modelo tiene umbrales de rechazo deliberadamente más bajos para tareas de seguridad ofensiva con propósitos defensivos: ingeniería inversa de binarios compilados, análisis de código malicioso sin acceso al código fuente, y generación de pruebas de concepto para vulnerabilidades conocidas. The Hacker News reporta que el acceso a GPT-5.4-Cyber requiere verificación de identidad profesional, firma de términos de uso especializados y, en algunos casos, acreditación como investigador de seguridad. El enfoque contrasta con el de Anthropic: mientras Anthropic restringe Mythos completamente, OpenAI opta por acceso controlado con verificación de usuarios. GPT-5.4-Cyber se lanza en el contexto de una carrera entre los principales laboratorios de IA por posicionarse en el mercado de ciberseguridad empresarial, que según analistas de Kersai superará los $200.000 millones anuales para 2027. En Costa Rica, las empresas de servicios de seguridad informática que operan en el mercado regional podrán solicitar acceso pero deberán cumplir los requisitos de verificación de OpenAI, que en la práctica excluyen a buena parte de los operadores más pequeños.
En febrero de 2026, SpaceX completó la adquisición de xAI —la empresa de IA de Elon Musk que también controla la red social X— en un acuerdo valuado en $1,25 billones. La rationale publicada por Musk: los centros de datos terrestres de IA ya no pueden satisfacer la demanda eléctrica global sin imponer cargas inaceptables sobre las comunidades y el medio ambiente; la solución son centros de datos en órbita alimentados por energía solar, accesibles vía Starlink. El 10 de abril, xAI anunció una reestructuración interna: el director financiero Anthony Armstrong dejó la empresa, y Michael Nicholls —vicepresidente de Starlink— asumió como presidente de xAI, señalando la profundidad de la integración operativa. Motley Fool reporta que SpaceX podría lanzar su IPO en junio con una valoración combinada de hasta $1,75 billones, lo que la convertiría en la sexta empresa más valiosa de EE.UU. El impacto en Costa Rica pasa principalmente por Starlink: el servicio de internet satelital de SpaceX opera en el país y compite con los operadores de fibra óptica. Una integración más profunda con xAI podría traducirse en capacidades de IA en el borde de la red para usuarios de Starlink.
Google DeepMind publicó el modelo Gemini 3.1 Pro el 19 de febrero de 2026, y el análisis acumulado de los últimos dos meses lo consolida como uno de los dos modelos líderes en el mercado. En el índice de inteligencia artificial de Artificial Analysis, Gemini 3.1 Pro y GPT-5.4 empatan en la primera posición con 57 puntos cada uno. En benchmarks específicos, Gemini 3.1 Pro registra el puntaje más alto reportado en GPQA Diamond —el examen de ciencias a nivel de posgrado— con un 94,3%, y en ARC-AGI-2 logra un 77,1%, más del doble del puntaje de su predecesor Gemini 3 Pro. La ventana de contexto de 2 millones de tokens es la más grande de cualquier modelo disponible al público: equivale a procesar 15.000 líneas de código, colecciones enteras de libros o horas de video en una sola consulta. El 15 de abril, Google lanzó adicionalmente Gemini 3.1 Flash TTS, un modelo de texto a voz con soporte para más de 70 idiomas y diálogo multi-hablante nativo, que logra un Elo de 1.211 en el leaderboard de TTS de Artificial Analysis. Para Costa Rica, Gemini 3.1 Pro está disponible sin restricciones regionales a través de Google AI Studio y la API de Google.
— Con 2 millones de tokens de contexto y soporte nativo de búsqueda en tiempo real, Gemini 3.1 Pro redefine lo que puede procesar un modelo en una sola consulta.
El estudio de desempeño en IA 2026 de PwC, publicado esta semana, documenta una concentración extrema en los beneficios económicos de la tecnología: el 20% de las empresas captura el 75% de las ganancias, y ese grupo tiene en común que prioriza la creación de nuevos mercados y productos por encima de la simple reducción de costos operativos. El estudio también revela que las organizaciones líderes no son necesariamente gigantes tecnológicos: algunas son medianas empresas de manufactura o servicios financieros que apostaron por una arquitectura de datos robusta antes de 2024 y ahora cosechan ventajas compuestas. Las que llegaron tarde —con proyectos piloto sin hoja de ruta clara— reportan beneficios marginales que no justifican la inversión. Para las empresas en Costa Rica que compiten en servicios de software, consultoría o manufactura de precisión, el estudio es una advertencia directa: la ventana de entrada a la IA productiva se está cerrando, y el rezago tecnológico tiende a ser acumulativo.
El AI Safety Institute del Reino Unido (AISI) publicó su análisis técnico de Claude Mythos Preview, el modelo de Anthropic restringido por sus capacidades de hackeo. Los hallazgos clave: Mythos puede reproducir vulnerabilidades conocidas y construir exploits funcionales al primer intento en el 83,1% de los casos; en el 16,9% restante, generalmente logra el exploit en un segundo o tercer intento. El AISI también evaluó si Mythos podía descubrir vulnerabilidades completamente nuevas —no las ya documentadas en bases de datos como CVE— y confirmó que sí, aunque con una tasa de éxito más baja que en reproducción de vulnerabilidades conocidas. La organización recomienda que los laboratorios de IA adopten evaluaciones de seguridad ofensiva como estándar obligatorio antes de cualquier lanzamiento público de modelos frontera. El Council on Foreign Relations publicó esta semana un análisis que cuestiona si restringir Mythos es suficiente: modelos con capacidades similares están disponibles en el mercado chino sin las restricciones que Anthropic aplica, lo que podría traducirse en que los actores más sofisticados ya tienen acceso equivalente sin las salvaguardas del Proyecto Glasswing.
Según el índice de Artificial Analysis correspondiente a abril de 2026, GPT-5.4 de OpenAI y Gemini 3.1 Pro de Google DeepMind empatan en la primera posición con 57 puntos cada uno. El modelo de Meta, Muse Spark, queda algunos puntos por detrás, mientras que Claude Mythos Preview ni siquiera aparece en el ranking público: Anthropic lo retiró del acceso general. El empate ilustra cómo la competencia en el segmento de modelos frontera ha llegado a un punto en que las diferencias de rendimiento son estadísticamente marginales en la mayoría de tareas. Lo que diferencia a los modelos en la práctica son factores como el precio por token, la latencia, la longitud del contexto y las políticas de uso —no la inteligencia bruta. La ausencia de Mythos del ranking es en sí misma una noticia: es el primer modelo frontera que queda fuera de la evaluación pública por razones de seguridad en lugar de razones comerciales. El debate en la comunidad de investigación es si ese precedente creará una norma o si es un caso aislado.
Según el análisis de Kersai y MIT Technology Review, abril de 2026 concentra tres de los cinco mayores rounds de capital de riesgo en IA de todos los tiempos, el lanzamiento de modelos frontera que superan el desempeño humano experto en 44 profesiones, y la fusión SpaceX-xAI valorada en $1,25 billones —la mayor fusión corporativa registrada. El ritmo es tan elevado que varios analistas advierten sobre el riesgo de una burbuja: la concentración de capital en pocos actores (OpenAI, Anthropic, Google DeepMind, xAI/SpaceX) sin un modelo de negocio sostenible para la mayoría de las aplicaciones downstream es un patrón que históricamente precede correcciones. La diferencia con burbujas anteriores, argumentan los optimistas, es que los modelos actuales ya generan valor económico medible en procesos reales. Para Costa Rica, el ecosistema local de startups de IA es pequeño pero creciente. CAMTIC reporta al menos 15 empresas locales que desarrollan productos basados en IA generativa; todas dependen de APIs de los grandes laboratorios, lo que las convierte en consumidoras netas de la infraestructura que se está consolidando este mes.