Como verificar se AWS está caído: estado, causas e alcance real

Última atualização: 10/21/2025
  • O centrou-se em US-EAST-1 e um problema de DNS vinculado ao DynamoDB, com efeito cascata sobre serviços críticos.
  • A AWS mitigou o núcleo da falha e comunicou a recuperação progressiva, com atrasos no CloudTrail/Lambda e erros no lançamento do novo EC2.
  • Milhões de relatórios e centenas de empresas afetadas, desde bancos e administrações até jogos, meios de comunicação e comércio eletrônico.
  • Para verificar o estado: painel público do AWS Health, página oficial de estado e rastreadores comunitários como apoio.

Comprovar estado da AWS e queda de serviços

Quando um serviço da Amazon Web Services deixa de responder, a Internet média é instantânea e a pergunta é feita apenas: O AWS caiu ou é o fim do meu aplicativo? Nas últimas horas houve uma interrupção de grande alcance que afetou redes sociais, bancos, jogos online, comércio eletrônico e administração pública, evidenciando as dependências que somos da nuvem da Amazon.

A seguir você encontrará um guia claro para verificar o estado da AWS em tempo real, uma revisão detalhada do que você passou, quais serviços foram vistos afetados, por que um problema de DNS no DynamoDB pode resultar em um efeito dominado, e o que dizem empresas, especialistas e autoridades. Tudo explicado em espanhol de Espanha, sem rodeios e contexto para entender o alcance real.

Como comprovar se AWS está caído agora mesmo

A forma mais direta e confiável é consultar os painéis oficiais. O painel público do AWS Health e a página de estado da AWS exibe incidentes ativos, mitigações e serviços impactados por região. Desde setembro de 2023 houve uma mudança importante na navegação: se você clicar em qualquer evento público, a URL do navegador é completada com um link direto para esse evento, e ao abri-lo você acessará a lista de eventos com a janela emergente do incidente selecionada para ir ao grano.

Além do painel oficial, você pode cruzar sinais com ferramentas de terços como rastreadores de quedas. Plataformas como Downdetector agregam avisos de usuários em tempo real, úteis para detectar picos de falhas em serviços específicos. Isso sim, lembre-se de que são relatórios comunitários e podem incluir falsos positivos; toma estes dados como complemento, não como veredicto definitivo.

Se você gerencia sistemas, lembre-se de monitorar as regiões mais usadas. A região US-EAST-1 (Norte da Virgínia) é uma das mais críticas porque aloja serviços troncales e muchísimas cargas de trabalho. Uma incidência aqui pode ser sentida em todo o mundo por seu peso na arquitetura global.

Por último, revise o alcance do problema em suas próprias dependências: se seu aplicativo depende de DynamoDB, Lambda, CloudWatch, Route 53 ou CloudFront, qualquer anomalia nestes componentes pode explicar latências e erros. E se você precisar de informações históricas sobre o incidente, a lista do AWS Health facilitará o seguimento da linha temporal de comunicações e mitigações.

O que aconteceu na última queda da AWS

Na manhã do mês, quilômetros de usuários em vários países começaram a reportar falhas no uso de serviços de Internet. Downdetector registrou mais de 4 milhões de avisos em todo o mundo e mais de 500 empresas afetadas, com problemas intermitentes que se prolongam por horas. Nos Estados Unidos, o foco estava em Virginia del Norte, epicentro da região US-EAST-1.

As comunicações da AWS foram aumentando ao longo da manhã com sucessos muito concretos. Primeiro, investigue taxas elevadas de erros e latências em vários serviçosMais tarde, uma possível causa foi identificada na API do DynamoDB para US-EAST-1, após as primeiras atenuações e sinais de recuperação terem sido atenuados e, por último, a confirmação de que o problema de DNS foi atenuado por completo.

  • 08:11 (hora do Reino Unido): AWS indica que você investiga tarefas de erro elevadas e latências em vários serviços.
  • 10:01: identifica uma possível causa na API do DynamoDB no US-EAST-1.
  • 10:22: são aplicadas mitigações iniciais e aparecem sinais de tempo de recuperação; alguns fallos podem persistir.
  • 10:27: se observam sinais significativos de recuperação; a prefeitura de solicitações deveria funcionar enquanto processava o atraso.
  • 12:35: o problema subjacente do DNS é declarado completamente mitigado; a prefeitura de serviços volta a operar com normalidade.

Apesar da mitigação do núcleo do incidente, AWS avisou erros persistentes ao lançar novas instâncias EC2 e de processos atrasados ​​em serviços como CloudTrail e Lambda, normalmente ocorre uma interrupção deste tipo quando há uma montanha de eventos acumulados.

Serviços que foram vistos afetados

O impacto foi transversal. Entre os serviços e plataformas com problemas contados com redes sociais, jogos, bancos, comércio eletrônico e ferramentas de trabalho. Esta é uma mostra representativa do que foi relatado por usuários e empresas:

  • Redes e mensagens: Snapchat, Signal e também dificuldades pontuais no Reddit.
  • Trabalho e colaboração: Slack e Zoom com incidentes intermitentes.
  • Ecossistema Amazon: Amazon.com, Alexa e dispositivos Ring com falhas de resposta.
  • Videogames e lazer: Roblox, Fortnite, Clash Royale, Clash of Clans, Wordle, Pokémon Go, Rocket League e Peloton com cortes ou retrocessos.
  • Educação e criatividade: Duolingo e canva com interrupções.
  • Banco e setor público (Reino Unido): Halifax, Lloyds Bank, Bank of Scotland, HMRC e seções de Gov.uk, além de operadoras e serviços como Sky, BT, EE, Vodafone e Virgin Media.
  • Pagos e finanças: Mercado Pago, Venmo com incidências reportadas por usuários, Coinbase e o aplicativo de inversão Robinhood com impacto.
  • Mídia internacional: teias de O Wall Street Journal y The New York Times com problemas de acesso.
  • Perplejidad y assistentes: a plataforma de IA Perplexity foi reconhecida devido a problemas da AWS.

Na Espanha também se notaram efeitos. BBVA e ING registrar incidências, e Movistar e Orange experimentei problemas em determinados momentos. Además, Ticketmaster Comunicou erros temporais na compra de entradas, com Live Nation sinalizando que estava monitorando para restabelecer a venda o mais cedo possível.

Conviene esclarecer que, embora hubo ruido sobre problemas de pagamentos com tarjeta, Redsys indicou que sua queda foi pontual e adiada para a incidência de AWS, limitado a uma falha parcial de sua infraestrutura de comunicações. É dito que nada do que aconteceu foi relacionado à nuvem da Amazon.

Causas técnicas: DNS e papel do DynamoDB

O erro do incidente ocorreu no Sistema de Nomes de Domínio. O DNS é o “guia telefônico” da Internet: traduza nomes legíveis (como um domínio) nas direções IP que os navegadores e serviços podem usar. Se o DNS falhar, é como perder o mapa: os clientes não se encontram em seu lugar, por muito que seja o serviço por trás.

Durante o incidente, a API do DynamoDB em US-EAST-1 mostra taxas de erro elevadas e foi identificado um problema de DNS como causa subjacente. A combinação de um serviço tão utilizado, com uma região crítica, provocou um efeito em cascata que acabou afetando décadas de serviços. Em uma das perspectivas disponíveis, foi possível apontar que Até 113 componentes da AWS que dependem do DynamoDB se vieron salpicados.

Depois de aplicar a mitigação de DNS, a plataforma começou a recuperar operações. Isso não impede que você pare de processar (backlogs), que se arrastem latências e que algumas solicitações sigam caindo temporariamente enquanto normaliza a carga. É o esperado depois de um corte em grande escala.

Além disso, a AWS comunicou que, pesando a recuperação geral, as petições para lançar novas instâncias EC2 seguem arrojando tarefas de erros maiores aos habituais. Com o passar das horas, esses reflexos operacionais foram reduzidos na medida em que os equipamentos despejaram o ataque.

Uma infraestrutura que sustenta um terço de internet

Para entender o alcance de um evento que está dimensionado na AWS. Milhões de sites e aplicações dependem diariamente de sua infraestrutura (computação, armazenamento, bases de dados, redes, IA…). Análise de BuiltWith sitúan a mais de 76 milhões de webs sobre AWS, e outras cifras atingiram 76,8 milhões de relatos mais recentes, com alrededor de 200.000 sites na Espanha.

O músculo de negociação da Amazon também fala por si só: AWS gerou 107.600 milhões de dólares em receitas no último ano, consolidando-se como líder do mercado à frente de Microsoft Azure e Google Cloud. Essa hegemonia implica que um tropiezo pontual, embora esteja acotado geograficamente, se note no meio mundo.

Periodistas tecnológicos sinalizaram que a frequência relativa desses eventos revela a fragilidade do ecossistema. Quando uma peça central falha, as repercussões são ampliadas porque “temos mais calor em menos cestas”. E como fui professor da Universidade de Notre Dame, a recuperação pode provocar “quedas em cascata” durante a tarde, à medida que os subsistemas foram reestabelecidos, um comportamento semelhante ao de um grande anúncio elétrico.

Este episódio também traz lembranças recentes de outras falhas massivas, como o de 2024 com um provedor de segurança empresarial que, após uma atualização, cabô colando janelas em hospitais e aeroportos. Causas diferentes, mesmo padrão: vínculos críticos que, ao falhar, interrompem funções chaves em cadeia.

Respostas de empresas e administrações

A cascata de comunicados foi extensa. Mercado Livre e Mercado Pago reconheça a inestabilidade provocada por um problema generalizado na AWS e garanta que ele trabalhe para restabelecer o serviço. No Reino Unido, O HMRC indicou que seus usuários tinham dificuldades para acessar serviços on-line pela incidência global e recomendo paciência até sua resolução.

Desde la banca británica, Lloyds Bank lamentou as molestias e sinalizou que seus serviços voltavam gradualmente a estar on-line. Halifax mostrei mensagens de erro explicando que não poderia processar solicitações de problemas técnicos. Conforme avançou o dia, as entidades foram confirmando o retorno à normalidade.

No terreno dos meios e do entretenimento, Live Nation foi avisada sobre interrupções que afetaram a Ticketmaster, impedindo temporariamente a compra de entradas, enquanto publicações como The Wall Street Journal e The New York Times enfrentavam problemas de acesso.

O ecossistema amazônico não caiu na margem: clientes reportam falhas ao completar compras na Amazon.com com mensagens do tipo “algo salió mal”, e altos em dispositivos Alexa. Embora a mitigação do DNS tenha ocorrido em média, a recuperação completa atrasou um pouco mais em relação ao volume de solicitações pendentes.

Especialistas, responsabilidades e resiliência

Quem é a culpa quando a nuvem cai? A resposta é matizada. Parte recada no fornecedor quando a origem é interna, mas os especialistas lembram que os clientes devem projetar seus sistemas para tolerar falhas: usar redundâncias, desocupar em diversas zonas e regiões, e ter planos de continuidade e cópias de segurança para serviços críticos.

Voces como la del profesor Ken Birman (Universidade de Cornell) Subrayan que muitas empresas não incorporam salvaguardas suficientes em suas aplicações. Também se destaca o papel da diversidade tecnológica: a resiliência melhora quando não depende exclusivamente de um único fornecedor, embora a escala que faz com que a AWS tenha as alternativas reais reduzidas a um castigo (Azure e Google Cloud, principalmente).

Desde o ángulo jurídico e de negociação, a busca de responsabilidades pode acabar nos tribunais. Além de outra grande interrupção no passado, uma gran aerolínea estadounidense reclamou mais de 500 milhões de dólares por perdas derivadas. A complexidade dessas infraestruturas faz com que a causa seja a causa raiz e quantifique os danos como uma tarefa difícil e prolongada.

Analistas e acadêmicos consultados coincidem: a interdependência é enorme e “pequenos” erros humanos ou de configuração podem causar um impacto sistêmico. Desenvolver resiliência, garantir diversidade e praticar planos de contingência não é opcional para manter a confiança e a continuidade do negócio.

Espanha: cronologia, impacto local e esclarecimentos

Em horário peninsular, a detecção de falha ocorreu perto das 9:00. A AWS informou sobre aumentos de latências e erros em serviços da costa este dos Estados Unidos que afetaram clientes globais, recorrendo a “múltiplas alternativas em paralelo” para acelerar a recuperação.

Conforme pasaron las horas, o volume de incidências notificadas foi bajando quase até a metade e, cerca de quatro horas depois dos primeiros avisos, a empresa mitigou o problema de DNS. Mesmo assim, muitas plataformas seguirão se recuperando de forma escalonada pela carga acumulada.

Enquanto isso, o debate público é atribuído à AWS algumas quedas que não tinham relação. Foi o caso de los pagos con tarjeta en la red Redsys, que esclareceu que seu incidente foi um problema pontual e parcial de sua própria infraestrutura de comunicações, sem vínculo com a economia da Amazon.

O saldo final deixou uma lição clara: Mesmo que um evento seja acotado geograficamente, seu impacto pode ser global isso afetará os serviços troncais em uma região tão relevante quanto US-EAST-1. Para o usuário final, ele é traduzido em aplicativos que não abrem, pagamentos que não passam e sites que não carregam.

O que é AWS e por que uma falha se nota tanto

Amazon Web Services é a divisão de nuvem da Amazon, um vasto conjunto de centros de dados e serviços administrados que as empresas alquilan em vez de construir por sua conta. No seu catálogo convive S3, EC2, SQS, RDS, DynamoDB, IAM, CloudFormation, AWS CDK, Route 53, CloudFront, Lambda, VPC, CloudWatch e Glacier, Entre muitos outros.

Este modelo permite empresas grandes e pequenas Lanzar produtos globais com menos inversão inicial, delegando na AWS a compra de hardware, a conectividade, a replicação entre regiões e a operação 24 horas por dia, 7 dias por semana. A contrapartida é a exposição a incidências compartilhadas: quando algo crítico falha no fornecedor, ele sofre quilômetros de clientes por vez.

É tão comum trabalhar com essas ferramentas que abundam sites dedicados a notícias, artigos e utilidades sobre AWS, aprendendo desde boas práticas de segurança até o CDK ou a configuração avançada da Route 53. Algumas dessas comunidades se distinguem do seu membros, reforçando o intercâmbio de conhecimento entre profissionais.

Perguntas rápidas para detectar o alcance quando “todo falha”

Se notar que há variações de aplicativos e erros semelhantes ao mesmo tempo, pense em um incidente de plataforma. Verifique o AWS Health e o estado oficial e compare com um rastreador comunitário para ver se há picos de relatórios. Se você usar serviços em US-EAST-1, coloque o foco aqui.

Quando o painel oficial confirma a mitigação, lembre-se que a recuperação não é instantânea: os backlogs demoram a ser vaciados, o DNS precisa ser propagado e as novas instâncias podem retornar erros até que tudo seja estabelecido.

Se você for um técnico responsável, consulte em seu plano de continuidade uma lista clara de dependências e combinações. Replicar dados e serviços críticos em diversas zonas ou regiões e documentar “runbooks” ahorra sustos quando o relógio corre em seu contra.

Tampoco descartes problemas locales tuyos. Uma falha na rede do ISP, uma configuração incorreta de DNS ou uma falha recente em seu próprio aplicativo você pode ter sintomas semelhantes a uma queda global. A confirmação cruzada evita conclusões precipitadas.

Por último, se você precisar compartilhar um incidente concreto com seu equipamento, aprove a função de enlace profundo: desde setembro de 2023, selecione um evento público do AWS Health, a URL do navegador incorpora o link direto e ao abri-lo você verá a lista com a janela emergente desse evento. É mais fácil colocar todos na mesma página.

O que diz os números e as vozes do setor

No pico da interrupção, Downdetector superou os 6,5 milhões de denúncias em nível global e sinalizou mais de 1.000 empresas afetadas em faixas horárias distintas. Embora não seja uma fonte oficial, de uma ideia de ruído que provoca um evento deste calibre.

Especialistas consultados insistem que, mesmo que o problema de base seja resolvido, persistem “erros significativos” de recuperação em alguns serviços enquanto o sistema digita o ataque. A analogia do anúncio é acertada: a luz pode voltar, mas o restabelecimento integral levará tempo.

Também foram feitas perguntas sobre a responsabilidade compartilhada. Alguns sinalizaram que muitas empresas confiaram demais em um único fornecedor sem desplegar proteções suficientes. Outras réplicas que, na escala da AWS, a diversificação total são complicadas. Entre ambas as posições, a chave eleva a maturidade operacional e a arquitetura de resiliência.

En el frente jurídico, não é descabelado que aparezcan reclamaciones por pérdidas quando uma grande parte da atividade é interrompida. Mas a causa precisa e o impacto econômico raramente são simples, porque os sistemas são altamente integrados e a cadeia de efeitos sempre não é linear.

Como comunidade técnica e de negociação, a conclusão operacional é inequívoca: hay que deseñar para o fallo. A pergunta não acontecerá se algo acontecer, tanto com o impacto quanto com o mesmo. Preparar-se marca a diferença entre um susto e uma crise séria.

O episódio deixa claro que comprova se AWS está caído exige mirar fontes oficiais e cruzar sinais, entenda que um Uma falha de DNS em uma região crítica como US-EAST-1 pode sacudir a mídia da Internet, e aceitar que a recuperação continue colada, com limites temporais e ajustes progressivos. A nuvem da Amazônia é uma boa parte da rede global, e embora a arquitetura da internet resista e se recupere, sua interdependência implica que pequenos desastres podem ter efeitos enormes. Conviene tenerlo presente e, sobretudo, prepare-se em série para o próximo sobresalto.

Artigos relacionados: