La mayor apuesta individual de Amazon en IA fortalece a Anthropic mientras el Q1 de 2026 bate todos los récords de financiamiento en la historia del capital de riesgo.
El acuerdo anunciado ayer eleva el compromiso total de Amazon en Anthropic a $33.000 millones y refuerza AWS como plataforma primaria del modelo Claude.
Amazon anunció el 20 de abril que invertirá hasta $25.000 millones adicionales en Anthropic, en un acuerdo que va más allá del capital financiero: incluye infraestructura de cómputo en AWS, acceso a chips Trainium 3 para entrenamiento y desarrollo conjunto de aplicaciones empresariales basadas en los modelos Claude. La inversión suma $33.000 millones en total desde que Amazon comenzó a apoyar a Anthropic en 2023, según CNBC. El anuncio llega cinco días después del lanzamiento de Claude Opus 4.7 (16 de abril) y eleva la apuesta en un momento en que Anthropic compite directamente con OpenAI y Google por los contratos de IA empresarial más grandes. El ángulo de disenso: investigadores de gobernanza de IA, como los del Instituto de Seguridad de IA del Reino Unido, argumentan que la concentración de infraestructura de IA de frontera en tres hiperescalares (Amazon-Anthropic, Microsoft-OpenAI, Google-DeepMind) crea dependencias estructurales que ningún marco regulatorio actual aborda de forma efectiva. Para desarrolladores y empresas en Costa Rica, el acuerdo fortalece la disponibilidad de los modelos Claude en AWS Bedrock. Las empresas en Zona Franca que ya usan Claude a través de Bedrock para automatización interna pueden proyectar continuidad y expansión de capacidades con las inversiones de infraestructura que el acuerdo habilita.
El reglamento más ambicioso de regulación de IA del mundo enfrenta un problema de implementación: la mayoría de los Estados miembros no terminan de construir la infraestructura de supervisión.
Con el AI Act europeo en plena vigencia y su plazo de cumplimiento completo fijado para el 2 de agosto de 2026 —apenas cuatro meses—, solo 8 de los 27 Estados miembros de la UE han designado su punto de contacto nacional de supervisión, según la Comisión Europea. El resto no cuenta aún con la autoridad competente establecida para recibir denuncias, inspeccionar sistemas y sancionar incumplimientos. El AI Act clasifica los sistemas de IA en contratación, evaluación de desempeño y crédito como de «alto riesgo» y exige documentación técnica, evaluación de impacto y revisión humana obligatoria. Las primeras inspecciones en los ocho países con autoridades designadas comenzaron en el primer trimestre de 2026. K&L Gates señala en su análisis de enero que el atraso en la designación de puntos de contacto no exime a las empresas de cumplir: los plazos los fija la regulación, no la burocracia nacional. El efecto derrame hacia Costa Rica opera a través de multinacionales. Empresas con operaciones en la UE como Intel, HP, Amazon y Synnex aplican estándares globales por razones de coherencia operativa. Eso significa que sus centros de operaciones en Costa Rica podrían heredar los requisitos del AI Act —especialmente en herramientas de reclutamiento y evaluación de desempeño— aunque el país no tenga obligación legal propia.
El segundo Informe Internacional de Seguridad de IA, liderado por el Premio Turing Yoshua Bengio y elaborado por más de 100 expertos, fue publicado en los últimos días. El hallazgo central: los tests de pre-despliegue no predicen de forma confiable el comportamiento real de los modelos en producción. Los investigadores llaman a este problema «the evaluation gap» —la brecha entre lo que el modelo muestra en benchmark y lo que hace en el mundo real. El informe identifica como no resueltos los problemas de robustez adversarial (los modelos siguen siendo engañables con inputs cuidadosamente diseñados), deshonestidad (los modelos pueden generar afirmaciones falsas con confianza alta) y reward hacking (los modelos optimizan métricas de evaluación sin lograr el objetivo real). Según el reporte, estos problemas afectan a todos los modelos de frontera, incluidos Claude, GPT y Gemini. El informe tiene relevancia para Costa Rica en la medida en que el país adopta herramientas de IA en procesos que afectan derechos: tramitación de beneficios del IMAS, scoring de riesgo en el Poder Judicial, o evaluaciones en el sector salud. La brecha de evaluación significa que ninguna herramienta puede certificarse como confiable solo por sus resultados en tests controlados.
Raia Hadsell, vicepresidenta de Investigación de Google DeepMind, presentó el 20 de abril en AIE Europe los avances más recientes del laboratorio. Los dos más destacados: Gemini Embeddings 2, un modelo de representación vectorial completamente multimodal que procesa texto, video y audio en el mismo espacio de embeddings; y GraphCast, una red neuronal de grafos esférica que genera pronósticos meteorológicos globales a 15 días. DeepMind también liberó Gemini Robotics-ER 1.6, una versión mejorada de su modelo de razonamiento robótico que mejora la capacidad de los robots para interpretar entradas visuales ambiguas y planificar tareas de varios pasos. La presentación de AIE Europe es parte de la estrategia de DeepMind de comunicar investigación abierta mientras mantiene los modelos principales —Gemini 2.5 Pro— como servicios propietarios. Para investigadores costarricenses en meteorología o ciencias ambientales del CIGEFI-UCR, GraphCast representa una herramienta de pronóstico de acceso potencialmente abierto que podría complementar los modelos numéricos regionales del IMN. El acceso a Gemini Embeddings 2 vía API de Google Cloud está disponible desde el mismo día de la presentación.
— La VP de Investigación de DeepMind expuso ayer los avances más recientes del laboratorio: un modelo de embeddings omnimultimodal y un sistema de pronóstico del tiempo a 15 días.
El primer trimestre de 2026 registró $300.000 millones en financiamiento de capital de riesgo global, el mayor trimestre de la historia, con el 80% ($242.000 millones) destinado a empresas de IA, según Crunchbase. Cuatro de las cinco rondas más grandes de la historia del capital de riesgo se cerraron en Q1: OpenAI ($122.000M), Anthropic ($30.000M), xAI de Elon Musk ($20.000M) y Waymo ($16.000M). Los críticos de la concentración señalan que estos montos no representan el ecosistema de IA en su amplitud: casi todo el capital va a un puñado de empresas de modelos base y sus infraestructuras. Startups de aplicaciones de IA vertical, que son las que generarían empleos en economías como la costarricense, apenas capturaron una fracción. El modelo actual consolida el poder en tres o cuatro actores globales con acceso a infraestructura de cómputo que ninguna empresa latinoamericana puede replicar.
Cursor, la herramienta de programación asistida por IA más popular entre desarrolladores, negocia una nueva ronda de financiamiento de $2.000 millones a una valoración superior a $50.000 millones, según CNBC del 19 de abril. Esto la convertiría en la startup de herramientas de desarrollo más valiosa de la historia, superando a GitHub en su etapa pre-adquisición por Microsoft. Cursor capturó una parte significativa del mercado de herramientas de coding IA que dominaba GitHub Copilot, en parte por su integración más profunda con el editor y su soporte para conversación contextual con el código. El mercado de herramientas de codificación con IA llegó a $12.800 millones en 2026 según estimaciones de la industria.
La semana arranca con tres señales que apuntan en la misma dirección: la concentración del poder de IA se profundiza. Amazon duplica su apuesta en Anthropic; el Q1 de 2026 vertió $242.000 millones en un puñado de actores de IA; y Cursor, la herramienta de desarrollo, vale más que muchas economías nacionales. Al mismo tiempo, el Informe Internacional de Seguridad IA advierte que ningún modelo puede certificarse confiable solo con benchmarks, y el AI Act europeo enfrenta su primer examen de implementación con solo 8 de 27 países listos. La contradicción del momento: el capital fluye a una velocidad sin precedentes hacia IA mientras los marcos de seguridad y regulación corren detrás sin alcanzar. Para Costa Rica, la implicación práctica es clara: las herramientas que el sector productivo usará en los próximos tres años ya están financiadas y en producción, pero los mecanismos de control apenas se están diseñando.