- Tämä keskus on US-EAST-1 ja DynamoDB:n DNS-ligan ongelma, con efecto cascada sobre servicios críticos.
- AWS mitigó el núcleo del fallo y comunicó la recuperación progressiva, con atrasos en CloudTrail/Lambda y errores al lanzar nuevas EC2.
- Millones de reportes y cientos de compañías afectadas, desde bancos y administraciones hasta juegos, medios y e-commerce.
- Para comprobar el estado: Panel Público de AWS Health, página oficial de estado y rastreadores comunitarios como apoyo.
Cuando un servicio de Amazon Web Services deja de responseer, medio internet lo nota al instante y la pregunta salta sola: ¿está AWS caído o es cosa de mi app? En las últimas horas se ha vivido una interruption de gran alcance que ha afectado a redes sociales, bancos, juegos online, comercios electrónicos y administraciones públicas, poniendo en evidencia lo dependientes que somos de la nube de Amazon.
A continuación encontrarás una guía clara para comprobar el estado de AWS en tiempo real, un repaso detallado de lo que ha pasado, qué servicios se han visto afectados, por qué un problem de DNS en DynamoDB puede derivar en un efecto dominó, y qué dicen empresas, expertos y autoridades. Todo explicado en español de España, sin rodeos y con konteksto para entender el alcance real.
Cómo comprobar si AWS está caído ahora mismo
La forma más directa y fiable es consultar los paneles oficiales. El paneeli Público de AWS Health y la página de estado de AWS muestran incidentes activos, mitigaciones y servicios Impactados por región. Desde septiembre de 2023 hay un cambio importante en la navegación: si haces clic en cualquier evento público, la URL del navegador se completa con un enlace directo ase evento, y al abrirlo accederás a la vista de lista de eventos con la ventana emergente del incidente seleccionada para ir al grano.
Además del panel oficial, puedes cruzar señales con herramientas de terceros como los rastreadores de caídas. Plataformas como Downdetector agregan avisos de usuarios ja tiempo real, útiles para detectar picos de fallos en servicios concretos. Eso sí, recuerda que son reportes comunitarios y pueden incluir falsos positivos; toma estos datos como komplemento, no como veredicto definitivo.
Si gestionas sistemas, conviene que monitorices las regiones que más usas. Alue US-EAST-1 (Norte de Virginia) on una de las more cíticas porque aloja servicios troncales y muchísimas cargas de trabajo. Una incidencia allí puede sentirse en todo el mundo por su peso en la arquitectura global.
Por último, revisa el alcance del problem en tus propias dependencias: tämä sovellus riippuu DynamoDB:stä, Lambdasta, CloudWatchista, Route 53:sta tai CloudFrontista, cualquier anomalía en estos Componentes puede explicar latencias y errores. Y si necesitas información histórica del incidente, la vista de lista de AWS Health te facilitará seguir la línea temporal de comunicaciones y mitigaciones.
Qué ha ocurrido en la última caída de AWS
En la mañana del lunes, miles de usuarios en múltiples países Comenzaron a reportar fallos al usar servicios de internet. Downdetector registró more de 4 millones de avisos en todo el mundo y más de 500 Compañías afectadas, con problems intermitentes que se extendieron durante horas. En Estados Unidos, el foco estuvo en Virginia del Norte, epicentro de la región US-EAST-1.
Las comunicaciones de AWS fueron escalando a lo largo de la mañana con hitos muy concretos. Primero se Investigaron tasas elevadas de errores y latencias en múltiples servicios, más tarde se identificó una posible causa en las API de DynamoDB para US-EAST-1, después llegaron las primeras mitigaciones y señales de recuperación, y por último la confirmación de que el problem de DNS se había mitigado por completo.
- 08:11 (Yhdysvaltojen kello): AWS indica que tutki tasas de error elevadas y latencias en varios servicios.
- 10:01: se identifica una posible causa raíz en las API de DynamoDB en US-EAST-1.
- 10:22: se aplican mitigaciones iniciales y aparecen señales tempranas de recuperación; algunos fallos pueden persistir.
- 10:27: se observan señales significativas de recuperación; la mayoría de solicitudes debería funcionar mientras se process el atraso.
- 12:35: el problem subyacente de DNS se declara completamente mitigado; la mayoría de servicios vuelve a operar con normalidad.
A pesar de la mitigación del núcleo del incidente, AWS avisó de errores persistentes al lanzar nuevas instancias EC2 y de procesos atrasados en servicios como CloudTrail y Lambda, normales tras una interrupción de este tipo cuando hay que digerir una montaña de eventos acumulados.
Services que se han visto afectados
El Impacto ha sido poikittainen. Entre los servicios y plataformas con problems se han contado redes sociales, juegos, banca, e-commerce y herramientas de trabajo. Esta es una muestra representativa de lo que han reportado usuarios y empresas:
- Verkot ja viestit: Snapchat, Signal ja tambien dicultades puntuales ja Reddit.
- Työ ja yhteistyö: Slack y Zoom con incidencias intermitentes.
- Ecosistema AmazonAmazon.com, Alexa y dispositivos Ring con fallos de respuesta.
- Videopelit ja pelit: Roblox, Fortnite, Clash Royale, Clash of Clans, Wordle, Pokémon Go, Rocket League ja Peloton con cortes tai retrasos.
- Koulutus ja luovuusDuolingo ja Kangas keskeytyksillä.
- Banca y sector público (Reino Unido): Halifax, Lloyds Bank, Bank of Scotland, HMRC ja secciones de Gov.uk, operaattorien ja palvelujen toimittaja Sky, BT, EE, Vodafone ja Virgin Media.
- Maksut ja rahoitus: Mercado Pago, Venmo con incidencias reportadas por usuarios, Coinbase y la app de inversiones Robinhood con afectación.
- Kansainväliset mediat: webs de Wall Street Journal y New York Times pääsyongelmien kanssa.
- Perplejidad ja avustajat: la Plataforma de IA Hämmennyksen korjaus caída por problems de AWS.
En España también se notaron efectos. BBVA ja ING rekisteriin merkittyjä tapauksia, y Movistar ja oranssi Experimentaron Problems en determinados momentos. Además, Ticketmaster comunicó errores temporales en la compra de entradas, con Live Nation señalando que estaban monitorizando para restablecer la venta lo antes posible.
Conviene aclarar que, aunque hubo ruido sobre problems de pagos con tarjeta, Redsys indicó que su caída fue puntual y ajena a la incidencia de AWS, limitada a un fallo parcial de su infraestructura de comunicaciones. Es decir, no todo lo que falló ese día estaba relacionado con la nube de Amazon.
Syyt: DNS ja DynamoDB:n paperi
El eje del incidente estuvo en el Sistema de Nombres de Dominio. Internetin DNS on "guía telefónica".: traduce nombres readibles (como un dominio) en direcciones IP que los navegadores y servicios pueden usar. Si el DNS falla, es como perder el mapa: los clientes no encuentran a dónde ir, por muy sano que esté el servicio detrás.
Tapahtuman aikana Las API de DynamoDB ja US-EAST-1 suurin virhetaso y se identificó un problem de DNS como causa subyacente. La combinación de un servicio tan utilizado, con una región crítica, provocó un efecto cascada que acabó afectando a decenas de servicios. En una de las perspectivas disponibles se llegó a apuntar que AWS:ssä on 113 komponenttia, jotka ovat riippuvaisia DynamoDB:stä se vieron salpicados.
Una vez applicada la mitigación de DNS, la plataforma empezó a recuperar operaciones. Eso no impide que queden colas por prosessorilla (ruuhkat), que se arrastren latencias y que algunas solicitudes sigan fallando temporalmente mientras se normaliza la carga. Es lo esperable tras un corte a gran escala.
Además, AWS comunicó que, pese a la recuperación general, las peticiones para lanzar nuevas instancias EC2 seguían arrojando tasas de error mayores a las habituales. Con el paso de las horas, estos flecos operativos fueron reduciéndose a medida que los equipos despejaban el atasco.
Una infraestructura que sostiene un tercio de internet
Para enter el alcance de un evento así hay que dimensionar AWS. Millones de sitios y aplicaciones dependen diariamente de su infraestructura (computación, almacenamiento, bases de datos, redes, IA…). Analisis de BuiltWith sitúan a lisää 76 miljoonaa AWS-verkkoa, y otras cifras apuntan a 76,8 millones en recuentos más recientes, con alrededor de 200 000 sivustoa Espanjassa.
El músculo de negocio de Amazon también habla por sin soolo: AWS generó 107.600 millones de dolares en ingresos en el último año, consolidándose como líder del lider delante de Microsoft Azure ja Google Cloud. Esa hegemonía implica que un tropiezo puntual, aunque esté acotado geográficamente, se note en medio mundo.
Periodistas tecnológicos han señalado que la relativa frecuencia de estos eventos revela la fragilidad del ecosistema. Cuando una pieza central falla, las repercusiones son amplias porque "tenemos más huevos en menos cestas". Y como apuntó un professor de la Universidad de Notre Dame, la recuperación puede provocar "fallos en cascada" durante la tarde a medida que se restablecen subsistemas, un comportamiento parecido al de un gran apagón eléctrico.
Este episodio también ha traído recuerdos recientes de otros fallos masivos, como el de 2024 con un proveedor de seguridad empresarial que, tras una aktualización, acabó colgando equipos Windows en Hospitales ja aeropuertos. Diferentes causas, mismo patrón: vínculos críticos que, al fallar, interrumpen funciones clave en cadena.
Respuestas de empresas y administraciones
La cascada de comunicados fue extensa. Mercado Libre ja Mercado Pago reconocieron inestabilidad provocada por un problem generalizado en AWS y aseguraron que trabajaban para restablecer el servicio. En el Reino Unido, HMRC indiko que sus usearies tenían didicultades para acceder a servicios online por la incidencia global y recomendó paciencia hasta su resolución.
Britannian pankilta, Lloyds Bank valittaa ahdistuksesta y señaló que sus servicios volvían gradualmente a estar en línea. Halifax Mostró mensajes de error explicando que no podían prosessor solicitudes por problems técnicos. Conforme avanzó el día, las entidades fueron confirmando el regreso a la normalidad.
En el terreno de los medios y el entretenimiento, Live Nation avisó de interruptiones que afectaban Ticketmaster, impidiendo temporalmente la compra de entradas, mientras que publicaciones como The Wall Street Journal ja The New York Times sufrieron ongelma de acceso.
El ecosistema Amazon no quedó al margen: Asiakkaiden raportit ovat täydelliset fi Amazon.com con mensajes del tipo "algo salió mal", y altibajos en dispositivos Alexa. Aunque la mitigación de DNS llegó al mediodía, la recuperación plena tardó algo más por el volumen de solicitudes pendientes.
Asiantuntijat, vastuut ja resiliencia
¿De quién es la culpa cuando falla la nube? La respuesta es matizada. Parte recae en el proveedor cuando el origen es interno, pero los expertos recuerdan que los clientes deben diseñar sus sistemas para tolerar fallos: utilizar redundancias, desplegar en varias zonas y regiones, y tener planes de continuidad y copias de seguridad para servicios críticos.
Äänet kuin professori Ken Birman (Universidad de Cornell) subrayan que muchas compañías no incorporan suficientes salvaguardas en sus aplicaciones. También se destaca el papel de la diversidad technológica: la resiliencia mejora cuando no se depende en exclusiva de un único proveedor, aunque a la escala que maneja AWS las alternativas reales se redducn a un puñado (Azure y Google Cloud, pääasiallinen).
Desde el ángulo jurídico y de negocio, la búsqueda de responsabilidades puede acabar en los tribunales. Tras otra gran interrupción en el pasado, una gran aerolínea estadounidense reclamó más de 500 millones de dólares por pérdidas derivadas. La complejidad de estas infraestructuras hace que aislar la causa raíz y cuantificar daños sea una tarea difícil y prolongada.
Analistas y académicos consultados sattuu: la interdependencia es enorme y los "pequeños" errores humanos o de configuración pueden tener un impacto sistémico. Desarrollar resiliencia, garantizar diversidad y practicar planes de contingencia no es opcional para mantener la confianza y la continuidad de negocio.
España: cronología, Impacto local y aclaraciones
Tällä hetkellä niemimaalla la detección del fallo se situó alrededor de las 9:00. AWS informó de aumentos de latencias y errores en servicios de la costa este de Estados Unidos que Impactaban a clientes globales, apoyándose en "múltiples alternativas en paralelo" para acelerar la recuperación.
Noudata tuntien pysähdyksiä, el volumen de incidencias notificadas fue bajando casi a la mitad y, en torno a cuatro horas después de los primeros avisos, la compañía dio por mitigado el problem de DNS. Aun así, muchas plataformas siguieron recuperándose de manera escalonada por la carga acumulada.
Mientras tanto, en el debate Público se atribuyeron a AWS algunas caídas que no tenían relación. Fue el caso de los pagos con tarjeta en la red Redsys, que aclaró que su incidente fue un problem puntual y parcial de su propia infraestructura de comunicaciones, sin vínculo con la avería de Amazon.
El balance final deja una lección clara: aunque un evento estén acotado geográficamente, su impacto puede ser global si afecta a servicios troncales ya una región tan relevante como US-EAST-1. Para el usuario final, se traduce en apps que no abren, pagos que no pasan y webs que no cargan.
Qué es AWS y por qué un fallo se nota tanto
Amazon Web Services es la división de nube de Amazon, un vasto entramado de centros de datos y servicios administrados que las empresas alquilan en vez de construir por su cuenta. En su catalogo conviven S3, EC2, SQS, RDS, DynamoDB, IAM, CloudFormation, AWS CDK, Route 53, CloudFront, Lambda, VPC, CloudWatch ja Glacier, monien muiden joukossa.
Este modelo sallie a compañías grandes y pequeñas lanzar productos globales con menos inversión inicial, delegando en AWS la compra de hardware, la conectividad, la replicación entre regiones y la operación 24/7. La contrapartida es la exposición a jaetut tapahtumat: cuando algo crítico falla en el proveedor, lo sufren miles de clientes a la vez.
Es tan común trabajar con estas herramientas que abundan sitios dedicados a ilmoitukset, artículos ja utilidades sobre AWS, cubriendo desde buenas prácticas de seguridad hasta despliegues con CDK o la configuración avanzada de Route 53. Algunas de estas comunidades distinguen a sus miembros (jäsenet), reforzando el intercambio de conocimiento entre profesionales.
Preguntas rápidas para detectar el alcance cuando "todo falla"
Si notas que varias apps distintas dan errores equales a la vez, piensa en una incidencia de plataforma. Comprueba AWS Health on virallinen y compara con un rastreador comunitario para ver si hay picos de reportes. Si usas Services en US-EAST-1, pon el foco ahí.
Cuando el paneelin virallinen vahvistaa mitigación, recuerda que la recuperación no es instantánea: los backlogs tardan en vaciarse, los DNS necesitan propagarse y las nuevas instancias pueden devolver errores un rato hasta que todo se estabilice.
Si eres responsable técnico, pon en tu plan de continuidad una lista clara de dependencias y conmutaciones. Kopioi datat y servicios críticos en varias zonas o regiones y dokumentaarisista "runbookeista" ahorra sustos cuando el reloj corre en tu contra.
Tampoco descartes ongelmat locales tuyos. Un fallo de red del ISP, una mala configuración de DNS o un despliegue reciente en tu propia aplicación pueden tener sintomas parecidos a una caída global. La confirmation cruzada evita Decisiones precipitadas.
Por último, si necesitas compartir un Incidente concreto con tu equipo, aprovecha la función de enlace profundo: syyskuuta 2023, al seleccionar un evento público de AWS Health, la URL del navegador ya incorpora el enlace directo y al abrirlo verás la lista con la ventana emergente de ese evento. Más fácil para poner a todos en la misma página.
Lo que dicen los números y las voces del sektori
En el pico de la interrupción, Downdetector superó los 6,5 millones de denuncias novel global y señaló a más de 1.000 empresas afectadas en distintas franjas horarias. Aunque no es una fuente oficial, da una idea del ruido que provoca un evento de este calibre.
Expertos consultados insisten en que, aunque el problem de base se solucione, jatkuva "errores significativos" de recuperación en algunos servicios mientras el sistema digiere el atasco. La analogía del apagón es acertada: la luz puede volver, pero el restablecimiento integral lleva tiempo.
También se han planteado interrogantes sobre la responsabilidad compartida. Algunos señalan que muchas empresas confían demasiado en un único proveedor synti desplegar protecciones suficientes. Otras replican que, a la escala de AWS, la diversificación total es complicada. Entre ambas posiciones, la clave es elevar la madurez operativa y la arquitectura de resiliencia.
Oikeudellisella tasolla no es descabellado que aparezcan reclamaciones por pérdidas cuando una gran parte de la actividad se ve frenada. Pero atribuir la causa precisa y su impacto económico raramente es simple, porque los sistemas están altamente integrados y la cadena de efectos no siempre es lineal.
Como comunidad técnica y de negocio, la conclusión operativa es inequívoca: hay que diseñar para el fallo. La pregunta no es si volverá a ocurrir algo, sino cuándo y con qué impacto. Valmistaudu marca la diferencia entre un susto y una kriisisarjaan.
El episodio deja claro que comprobar si AWS está caído exige mirar fuentes oficiales y cruzar señales, entender que un fallo de DNS en una región crítica como US-EAST-1 puede sacudir medio internet, y aceptar que la recuperación conlleva colas, límites temporales y ajustes progressivos. La nube de Amazon sostiene buena parte de la red global, y aunque la arquitectura de internet resiste y se recupera, su interdependencia implica que los pequeños desajustes pueden tener efectos enormes. Conviene tenerlo presente y, sobre todo, prepararse en serio para el próximo sobresalto.