Às 19:49 da noite de 2 de março de 2026, hora de Pequim, o assistente de IA da Anthropic, Claude, sofreu subitamente uma falha de serviço em grande escala em todo o mundo. claude.ai lado web, a consola de programação, a ferramenta de programação de IA Claude Code e as aplicações móveis acenderam luzes vermelhas quase ao mesmo tempo, milhares de utilizadores recorreram ao Downdetector para reportar falhas, e o número de relatos de falhas foi de milhares durante os períodos de maior movimento. Os utilizadores veem os códigos de erro HTTP 500 e 529 ao tentar iniciar sessão, ou um pequeno aviso: “O Claude voltará em breve.”
Para milhões de programadores, criadores de conteúdos e utilizadores empresariais em todo o mundo que integraram profundamente o Claude nos seus fluxos de trabalho diários, esta falha parece mais uma “falha massiva de energia”.
Nas redes sociais, algumas pessoas riam-se de si próprias, “Só sei escrever prompts, o que devo fazer”; Alguns programadores disseram que o trabalho foi subitamente interrompido a meio da escrita, e só podiam ser forçados a mudar para ChatGPT ou Gemini em caso de emergência; Algumas pessoas até ridicularizaram-no no grupo: as empresas “nativas de IA” podiam muito bem dedicar-se à team building hoje em dia.
01 Tempo de inatividade “Whack-a-mole”
A razão específica para o “tempo morto” não foi explicada oficialmente em detalhe pela Anthropic, mas uma série de coisas aconteceram na última semana.
A 28 de fevereiro, a Anthropic perdeu o contrato com o Pentágono por se recusar a utilizar a Claude para vigilância doméstica em grande escala e sistemas de armas totalmente autónomos. O Presidente Trump imediatamente criticou Anthropic nas redes sociais como um “lunático de esquerda” e ordenou que todas as agências federais deixassem de usar Claude. A OpenAI assumiu rapidamente o controlo, anunciando um acordo de cooperação com o Pentágono.
Este incidente provocou uma reversão dramática entre a base global de utilizadores. Uma campanha de boicote chamada “QuitGPT” espalhou-se rapidamente no Reddit, Instagram e X.com. Uma publicação no Reddit a pedir o cancelamento do ChatGPT recebeu 30.000 gostos, e a conta do Instagram “quitGPT” atraiu mais de 78.000 seguidores num curto espaço de tempo.
Segundo o Tom’s Guide, cerca de 700.000 utilizadores começaram a mudar do ChatGPT para outras plataformas. A Anthropic tornou-se a maior beneficiária desta migração digital.
De acordo com dados oficiais divulgados pela Anthropic, o número de utilizadores gratuitos do Claude aumentou mais de 60% desde janeiro de 2026, o número de novas inscrições diárias triplicou em relação a novembro de 2025, e o número de subscritores pagos duplicou ao longo do ano. Antes do Super Bowl LX, Claude estava classificado em 42.º lugar na App Store dos EUA; A 28 de fevereiro, atingiu o topo das tabelas de aplicações gratuitas, empurrando o ChatGPT para o segundo lugar.
Esta vaga de “riqueza a gastar dinheiro” é demasiado violenta. De acordo com os dados da Sensor Tower, o Claude esteve numa rápida ascensão durante todo o mês de fevereiro, mas o afluxo de utilizadores nos últimos dias ultrapassou largamente a capacidade esperada da infraestrutura da Anthropic.
Meios de comunicação estrangeiros citaram a Anthropic a afirmar no relatório que a empresa tem lidado com uma “procura sem precedentes” na última semana.
A julgar pela linha temporal da página oficial de estado de Anthropic, a evolução do glitch assume uma personagem de “whack-a-mole”.
Às 11:49 UTC (19:49 hora de Pequim), a equipa começou a investigar o problema, determinando inicialmente que a falha estava focada nos caminhos de login e logout do claude.ai.
Às 12:21 UTC (20:21 hora de Pequim), a Anthropic afirmou que a API central estava a funcionar normalmente e que o problema se limitava ao lado web.
Às 13:37 UTC (21:37 hora de Pequim), a situação piorou e alguns métodos da API começaram a reportar erros.
Depois disso, o modelo Claude Opus 4.6 sofreu uma anomalia às 17:09 UTC, seguido pelo Claude Haiku 4,5 às 17:56 UTC. O ciclo de reparação, recaída e reparação durou horas.
Só por volta das 15:47 UTC (23:47 hora de Pequim) é que o serviço principal foi gradualmente retomado. Subsequentemente, o Opus 4.6 sofreu vários erros elevados de curta duração (incluindo um que durou até cerca das 21:16 UTC, 3 de março às 5:16 hora de Pequim).
Poucas horas depois, às 3:15 UTC de 3 de março (11:15 EDT), uma nova ronda de falhas reapareceu, estendendo o impacto ao Claude Code e ao Cowork, e o problema ainda estava a ser investigado no momento da publicação.
Quanto à causa do tempo de inatividade, há também relatos mediáticos de que o centro de dados da AWS no Médio Oriente é suspeito de ter sido atacado por um “objeto desconhecido” e de causar um incêndio e falhas de energia, e o pool de potência computacional da AWS foi afetado, e o modelo Claude, que depende fortemente destes nós de potência computacional, perdeu o seu suporte.
Porque é que um conflito geopolítico no Médio Oriente poderia causar uma grande interrupção das empresas de IA nos Estados Unidos?
**Atualmente, os principais elos dos serviços de IA estão altamente globalizados e existem alguns “pontos de estrangulamento”:**Se conflitos geopolíticos causarem danos aos cabos submarinos de fibra ótica no Mar Vermelho, Bab el-Bab el-Bab el-Bab el-Bab el-Suez, ou perturbações e congestionamento de centros de dados cloud e instalações elétricas, redes backbone transfronteiriças e estações de aterragem de cabos submarinos em redor do Golfo Pérsico/Península Arábica, podem causar picos de latência de rede inter-regionais, anomalias de convergência de rotas, falhas de acesso a planos de autenticação/faturação/controlo, e bloqueios de replicação e failover entre regiões.
Uma vez que estes “elementos subjacentes” sejam perturbados, o serviço cloud originalmente distribuído também amplificará a falha para um tempo de inatividade sistemático para utilizadores globais de forma em cadeia.
O que é ainda mais notável é que, no dia em que o Claude caiu, a página oficial de estado do xAI mostrou que o Grok (Web/iOS/Android) também teve um evento de “temporariamente indisponível” durante cerca de 40 minutos por volta das 23 UTC do mesmo dia. No entanto, atualmente não existe evidência pública sobre se existe uma relação comum a montante ou causal entre os dois.
Se esta ligação for verdadeira, significa que esta falha não é apenas um problema do sistema de autenticação front-end, mas também envolve a vulnerabilidade física da infraestrutura cloud subjacente.
O modelo grande, com poder computacional altíssimo no ciberespaço, é particularmente vulnerável perante “ataques físicos” reais.
02 A reação em cadeia do ecossistema a jusante
A razão principal pela qual a falha do Claude atraiu tanta atenção é que a IA passou de chatbot a nó-chave em toda a cadeia de produtividade nativa da IA.
A primeira a ser atingida é a comunidade de programadores. O Claude Code tornou-se uma das ferramentas de programação de IA mais utilizadas por programadores em todo o mundo. De acordo com relatórios anteriores, a receita anualizada dos produtos da Claude Code é estimada em cerca de 200 milhões de dólares. Boris Cherny, fundador do Claude Code da Anthropic, revelou uma vez num podcast que não edita manualmente uma linha de código desde novembro de 2025.
Quando o Claude Code estava completamente indisponível, os meios de comunicação estrangeiros noticiaram que a comunidade reagiu em geral: os programadores foram forçados a regressar aos hábitos anteriores ao advento da IA generativa e a escrever código por si próprios.
Os programadores profissionais são obrigados a mudar para o GitHub Copilot ou as capacidades de programação do ChatGPT a meio do fluxo de trabalho, mas esta mudança por si só significa perda de eficiência e um contexto falhado. Para as empresas que integram profundamente a API Claude nos seus próprios produtos, o impacto é mais direto.
Embora a Anthropic afirme que a API permanece operacional na maior parte do tempo, a API também falhou às 13:37 UTC, que é precisamente o momento crítico em que as empresas sem uma solução multimodelo de tolerância a falhas perdem todas as suas capacidades de IA.
O campo da criação de conteúdo também foi afetado. A equipa que dependia do Claude para copywriting, geração de relatórios e análise de dados foi forçada a pausar. Os robôs de atendimento ao cliente ficam coletivamente silenciosos, e as ordens de trabalho começam a acumular-se.
De acordo com a análise da Deployflow, para uma equipa de engenharia de 25 pessoas, mesmo a £90 por hora, uma interrupção de serviço de 4 horas significaria mais de £9.000 em perda de produtividade, sem contar com atrasos na cadeia a jusante.
O impacto mais abrangente reside no nível de confiança. A análise da Ainvest aponta que as interrupções repetidas de serviços estão a corroer a confiança dos utilizadores na fiabilidade da plataforma, especialmente para programadores e empresas que se baseiam no Claude, onde o tempo de funcionamento contínuo é um requisito fundamental.
Mas o que fez Claude para tornar as empresas tão dependentes disso?
O que faz Claude passar de um “modelo fácil de usar” para um “núcleo da cadeia ecológica” é a infraestrutura de Agentes que a Anthropic continua a construir.
De acordo com dados oficiais da Anthropic divulgados em julho de 2025, o Claude Code atraiu 115.000 programadores em quatro meses após o lançamento, processou 195 milhões de linhas de código por semana e descarregou 3 milhões de vezes por semana.
O Claude Cowork, que foi lançado em janeiro de 2026, é ainda mais radical: um agente de ambiente de trabalho que pode clicar com o rato, gerir ficheiros e executar tarefas em software, com 11 plug-ins da indústria que abrangem jurídico, vendas, finanças e outras áreas, assumindo diretamente o trabalho de conhecimento como um “colaborador digital”.
No fundo da lista, o protocolo MCP da Anthropic está a tornar-se o padrão de facto para a IA ligar ferramentas externas, e até concorrentes OpenAI e Google anunciaram o seu apoio, formando um ecossistema de mais de 500 conectores comerciais de aplicações à sua volta.
Claude não é apenas uma API de modelos, mas também inclui um “sistema operativo de IA” composto por modelos (cérebros inteligentes) + Code/Cowork (execução) + MCP (ligação).
O Claude penetrou demasiado profundamente no ecossistema de programadores e empresas, levando muitas empresas AI-Native a formarem uma dependência sistemática ao nível da infraestrutura, e a fiabilidade desta infraestrutura está longe de corresponder às expectativas que tem.
03 Vulnerabilidade da infraestrutura de IA
Esta falha do Claude não é um caso isolado. A empresa de investigação Forrester fez um julgamento no relatório “2026 Predictions: Cloud Computing”: as atualizações de centros de dados de IA irão desencadear pelo menos duas grandes interrupções de serviços cloud de vários dias em 2026. A lógica é que hiperescaladores como AWS, Azure e Google Cloud estão a mudar o seu foco de investimento dos ambientes tradicionais x86 e ARM para centros de dados de IA centrados em GPU, onde infraestruturas envelhecidas se tornam frágiles devido à complexidade crescente.
A Forrester também prevê que pelo menos 15% das empresas migrarão para implementações privadas de IA em clouds privadas até 2026, para combater o aumento dos custos, o bloqueio de dados e os riscos operacionais.
Foram dados sinais de alerta precoce para 2025. A AWS sofreu uma falha em larga escala com mais de 17 milhões de relatórios de downdetector com mais de 15 horas, afetando uma série de serviços como a Netflix e o Snapchat. Em novembro de 2025, a interrupção do serviço da Cloudflare levou à queda um grande número de sites, incluindo Claude, Shopify e X. Em dezembro de 2025, a ferramenta de programação de IA desenvolvida por conta própria, Kiro, da Amazon, decidiu de forma autónoma eliminar e reconstruir todo o ambiente ao reparar automaticamente um sistema voltado para o cliente, desencadeando uma falha de 13 horas no AWS Cost Explorer. A reação em cadeia causada por um único ponto de falha está a tornar-se o risco sistémico mais perigoso na era da IA.
As implicações para toda a indústria são multidimensionais. Em primeiro lugar, a redundância multimodelo já não é uma opção, passando a ser obrigatória. Nesta interrupção, as empresas que implementaram soluções de tolerância a falhas multi-LLM antecipadamente, como a mudança automática para modelos como Gemini ou GPT quando o Claude não estava disponível, foram significativamente menos afetadas. As futuras arquiteturas de infraestrutura de IA devem incorporar a “redundância de modelos” no design central, tal como as implementações multi-cloud atuais.
Em segundo lugar, a capacidade de observação é crucial. A análise da Deployflow apontou que o rastreio de latência dos tokens e os picos de taxa de erro são sinais iniciais de falhas de serviço, permitindo que as equipas mudem antes de perderem o acesso à IA a nível da empresa.
Em terceiro lugar, a segurança da infraestrutura física é grosseiramente subestimada. Se a cadeia causal de ataques a centros de dados no Médio Oriente for estabelecida, as ameaças à infraestrutura de IA vêm não só ao nível do software, mas também de riscos geopolíticos, ataques físicos e até desastres naturais.
Forrester também apontou uma tendência a observar: “as neoclouds, como CoreWeave, Lambda e Nebius, fornecedores especializados de serviços cloud focados em GPUs de alto desempenho, deverão gerar 20 mil milhões de dólares em receitas até 2026, corroendo o domínio dos fornecedores de serviços cloud em hiperescala no campo da IA generativa.”
Estes fornecedores de serviços constroem arquiteturas GPU-first do zero, em vez de adaptarem centros de dados antigos, o que pode fornecer novas soluções para a resiliência da infraestrutura de IA.
Para empresas e plataformas que estão a construir infraestruturas de IA, este incidente deixou uma lição clara: não coloque todos os ovos no mesmo cesto e não assuma que um único fornecedor pode fornecer 100% de tempo de atividade.
Antes de a IA se tornar um verdadeiro “carvão hidroelétrico”, a sua infraestrutura deve primeiro alcançar a fiabilidade do “carvão hidroelétrico”. Caso contrário, cada tempo de inatividade será um teste de stress para todo o ecossistema.
À data desta edição, o serviço Claude ainda apresenta falhas intermitentes, e a Anthropic continua a investigar.
Fonte deste artigo: Tencent Technology
Aviso de risco e aviso legal
O mercado é arriscado e o investimento precisa de ser cauteloso. Este artigo não constitui aconselhamento pessoal de investimento e não tem em conta os objetivos de investimento específicos, a situação financeira ou as necessidades dos utilizadores individuais. Os utilizadores devem considerar se quaisquer opiniões, opiniões ou conclusões contidas neste artigo são consistentes com as suas circunstâncias específicas. Invista em conformidade, por sua conta e risco.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Claude caiu, por que motivo o AI global está a “fundir-se”?
Às 19:49 da noite de 2 de março de 2026, hora de Pequim, o assistente de IA da Anthropic, Claude, sofreu subitamente uma falha de serviço em grande escala em todo o mundo. claude.ai lado web, a consola de programação, a ferramenta de programação de IA Claude Code e as aplicações móveis acenderam luzes vermelhas quase ao mesmo tempo, milhares de utilizadores recorreram ao Downdetector para reportar falhas, e o número de relatos de falhas foi de milhares durante os períodos de maior movimento. Os utilizadores veem os códigos de erro HTTP 500 e 529 ao tentar iniciar sessão, ou um pequeno aviso: “O Claude voltará em breve.”
Para milhões de programadores, criadores de conteúdos e utilizadores empresariais em todo o mundo que integraram profundamente o Claude nos seus fluxos de trabalho diários, esta falha parece mais uma “falha massiva de energia”.
Nas redes sociais, algumas pessoas riam-se de si próprias, “Só sei escrever prompts, o que devo fazer”; Alguns programadores disseram que o trabalho foi subitamente interrompido a meio da escrita, e só podiam ser forçados a mudar para ChatGPT ou Gemini em caso de emergência; Algumas pessoas até ridicularizaram-no no grupo: as empresas “nativas de IA” podiam muito bem dedicar-se à team building hoje em dia.
01 Tempo de inatividade “Whack-a-mole”
A razão específica para o “tempo morto” não foi explicada oficialmente em detalhe pela Anthropic, mas uma série de coisas aconteceram na última semana.
A 28 de fevereiro, a Anthropic perdeu o contrato com o Pentágono por se recusar a utilizar a Claude para vigilância doméstica em grande escala e sistemas de armas totalmente autónomos. O Presidente Trump imediatamente criticou Anthropic nas redes sociais como um “lunático de esquerda” e ordenou que todas as agências federais deixassem de usar Claude. A OpenAI assumiu rapidamente o controlo, anunciando um acordo de cooperação com o Pentágono.
Este incidente provocou uma reversão dramática entre a base global de utilizadores. Uma campanha de boicote chamada “QuitGPT” espalhou-se rapidamente no Reddit, Instagram e X.com. Uma publicação no Reddit a pedir o cancelamento do ChatGPT recebeu 30.000 gostos, e a conta do Instagram “quitGPT” atraiu mais de 78.000 seguidores num curto espaço de tempo.
Segundo o Tom’s Guide, cerca de 700.000 utilizadores começaram a mudar do ChatGPT para outras plataformas. A Anthropic tornou-se a maior beneficiária desta migração digital.
De acordo com dados oficiais divulgados pela Anthropic, o número de utilizadores gratuitos do Claude aumentou mais de 60% desde janeiro de 2026, o número de novas inscrições diárias triplicou em relação a novembro de 2025, e o número de subscritores pagos duplicou ao longo do ano. Antes do Super Bowl LX, Claude estava classificado em 42.º lugar na App Store dos EUA; A 28 de fevereiro, atingiu o topo das tabelas de aplicações gratuitas, empurrando o ChatGPT para o segundo lugar.
Esta vaga de “riqueza a gastar dinheiro” é demasiado violenta. De acordo com os dados da Sensor Tower, o Claude esteve numa rápida ascensão durante todo o mês de fevereiro, mas o afluxo de utilizadores nos últimos dias ultrapassou largamente a capacidade esperada da infraestrutura da Anthropic.
Meios de comunicação estrangeiros citaram a Anthropic a afirmar no relatório que a empresa tem lidado com uma “procura sem precedentes” na última semana.
A julgar pela linha temporal da página oficial de estado de Anthropic, a evolução do glitch assume uma personagem de “whack-a-mole”.
Às 11:49 UTC (19:49 hora de Pequim), a equipa começou a investigar o problema, determinando inicialmente que a falha estava focada nos caminhos de login e logout do claude.ai.
Às 12:21 UTC (20:21 hora de Pequim), a Anthropic afirmou que a API central estava a funcionar normalmente e que o problema se limitava ao lado web.
Às 13:37 UTC (21:37 hora de Pequim), a situação piorou e alguns métodos da API começaram a reportar erros.
Depois disso, o modelo Claude Opus 4.6 sofreu uma anomalia às 17:09 UTC, seguido pelo Claude Haiku 4,5 às 17:56 UTC. O ciclo de reparação, recaída e reparação durou horas.
Só por volta das 15:47 UTC (23:47 hora de Pequim) é que o serviço principal foi gradualmente retomado. Subsequentemente, o Opus 4.6 sofreu vários erros elevados de curta duração (incluindo um que durou até cerca das 21:16 UTC, 3 de março às 5:16 hora de Pequim).
Poucas horas depois, às 3:15 UTC de 3 de março (11:15 EDT), uma nova ronda de falhas reapareceu, estendendo o impacto ao Claude Code e ao Cowork, e o problema ainda estava a ser investigado no momento da publicação.
Quanto à causa do tempo de inatividade, há também relatos mediáticos de que o centro de dados da AWS no Médio Oriente é suspeito de ter sido atacado por um “objeto desconhecido” e de causar um incêndio e falhas de energia, e o pool de potência computacional da AWS foi afetado, e o modelo Claude, que depende fortemente destes nós de potência computacional, perdeu o seu suporte.
Porque é que um conflito geopolítico no Médio Oriente poderia causar uma grande interrupção das empresas de IA nos Estados Unidos?
**Atualmente, os principais elos dos serviços de IA estão altamente globalizados e existem alguns “pontos de estrangulamento”:**Se conflitos geopolíticos causarem danos aos cabos submarinos de fibra ótica no Mar Vermelho, Bab el-Bab el-Bab el-Bab el-Bab el-Suez, ou perturbações e congestionamento de centros de dados cloud e instalações elétricas, redes backbone transfronteiriças e estações de aterragem de cabos submarinos em redor do Golfo Pérsico/Península Arábica, podem causar picos de latência de rede inter-regionais, anomalias de convergência de rotas, falhas de acesso a planos de autenticação/faturação/controlo, e bloqueios de replicação e failover entre regiões.
Uma vez que estes “elementos subjacentes” sejam perturbados, o serviço cloud originalmente distribuído também amplificará a falha para um tempo de inatividade sistemático para utilizadores globais de forma em cadeia.
O que é ainda mais notável é que, no dia em que o Claude caiu, a página oficial de estado do xAI mostrou que o Grok (Web/iOS/Android) também teve um evento de “temporariamente indisponível” durante cerca de 40 minutos por volta das 23 UTC do mesmo dia. No entanto, atualmente não existe evidência pública sobre se existe uma relação comum a montante ou causal entre os dois.
Se esta ligação for verdadeira, significa que esta falha não é apenas um problema do sistema de autenticação front-end, mas também envolve a vulnerabilidade física da infraestrutura cloud subjacente.
O modelo grande, com poder computacional altíssimo no ciberespaço, é particularmente vulnerável perante “ataques físicos” reais.
02 A reação em cadeia do ecossistema a jusante
A razão principal pela qual a falha do Claude atraiu tanta atenção é que a IA passou de chatbot a nó-chave em toda a cadeia de produtividade nativa da IA.
A primeira a ser atingida é a comunidade de programadores. O Claude Code tornou-se uma das ferramentas de programação de IA mais utilizadas por programadores em todo o mundo. De acordo com relatórios anteriores, a receita anualizada dos produtos da Claude Code é estimada em cerca de 200 milhões de dólares. Boris Cherny, fundador do Claude Code da Anthropic, revelou uma vez num podcast que não edita manualmente uma linha de código desde novembro de 2025.
Quando o Claude Code estava completamente indisponível, os meios de comunicação estrangeiros noticiaram que a comunidade reagiu em geral: os programadores foram forçados a regressar aos hábitos anteriores ao advento da IA generativa e a escrever código por si próprios.
Os programadores profissionais são obrigados a mudar para o GitHub Copilot ou as capacidades de programação do ChatGPT a meio do fluxo de trabalho, mas esta mudança por si só significa perda de eficiência e um contexto falhado. Para as empresas que integram profundamente a API Claude nos seus próprios produtos, o impacto é mais direto.
Embora a Anthropic afirme que a API permanece operacional na maior parte do tempo, a API também falhou às 13:37 UTC, que é precisamente o momento crítico em que as empresas sem uma solução multimodelo de tolerância a falhas perdem todas as suas capacidades de IA.
O campo da criação de conteúdo também foi afetado. A equipa que dependia do Claude para copywriting, geração de relatórios e análise de dados foi forçada a pausar. Os robôs de atendimento ao cliente ficam coletivamente silenciosos, e as ordens de trabalho começam a acumular-se.
De acordo com a análise da Deployflow, para uma equipa de engenharia de 25 pessoas, mesmo a £90 por hora, uma interrupção de serviço de 4 horas significaria mais de £9.000 em perda de produtividade, sem contar com atrasos na cadeia a jusante.
O impacto mais abrangente reside no nível de confiança. A análise da Ainvest aponta que as interrupções repetidas de serviços estão a corroer a confiança dos utilizadores na fiabilidade da plataforma, especialmente para programadores e empresas que se baseiam no Claude, onde o tempo de funcionamento contínuo é um requisito fundamental.
Mas o que fez Claude para tornar as empresas tão dependentes disso?
O que faz Claude passar de um “modelo fácil de usar” para um “núcleo da cadeia ecológica” é a infraestrutura de Agentes que a Anthropic continua a construir.
De acordo com dados oficiais da Anthropic divulgados em julho de 2025, o Claude Code atraiu 115.000 programadores em quatro meses após o lançamento, processou 195 milhões de linhas de código por semana e descarregou 3 milhões de vezes por semana.
O Claude Cowork, que foi lançado em janeiro de 2026, é ainda mais radical: um agente de ambiente de trabalho que pode clicar com o rato, gerir ficheiros e executar tarefas em software, com 11 plug-ins da indústria que abrangem jurídico, vendas, finanças e outras áreas, assumindo diretamente o trabalho de conhecimento como um “colaborador digital”.
No fundo da lista, o protocolo MCP da Anthropic está a tornar-se o padrão de facto para a IA ligar ferramentas externas, e até concorrentes OpenAI e Google anunciaram o seu apoio, formando um ecossistema de mais de 500 conectores comerciais de aplicações à sua volta.
Claude não é apenas uma API de modelos, mas também inclui um “sistema operativo de IA” composto por modelos (cérebros inteligentes) + Code/Cowork (execução) + MCP (ligação).
O Claude penetrou demasiado profundamente no ecossistema de programadores e empresas, levando muitas empresas AI-Native a formarem uma dependência sistemática ao nível da infraestrutura, e a fiabilidade desta infraestrutura está longe de corresponder às expectativas que tem.
03 Vulnerabilidade da infraestrutura de IA
Esta falha do Claude não é um caso isolado. A empresa de investigação Forrester fez um julgamento no relatório “2026 Predictions: Cloud Computing”: as atualizações de centros de dados de IA irão desencadear pelo menos duas grandes interrupções de serviços cloud de vários dias em 2026. A lógica é que hiperescaladores como AWS, Azure e Google Cloud estão a mudar o seu foco de investimento dos ambientes tradicionais x86 e ARM para centros de dados de IA centrados em GPU, onde infraestruturas envelhecidas se tornam frágiles devido à complexidade crescente.
A Forrester também prevê que pelo menos 15% das empresas migrarão para implementações privadas de IA em clouds privadas até 2026, para combater o aumento dos custos, o bloqueio de dados e os riscos operacionais.
Foram dados sinais de alerta precoce para 2025. A AWS sofreu uma falha em larga escala com mais de 17 milhões de relatórios de downdetector com mais de 15 horas, afetando uma série de serviços como a Netflix e o Snapchat. Em novembro de 2025, a interrupção do serviço da Cloudflare levou à queda um grande número de sites, incluindo Claude, Shopify e X. Em dezembro de 2025, a ferramenta de programação de IA desenvolvida por conta própria, Kiro, da Amazon, decidiu de forma autónoma eliminar e reconstruir todo o ambiente ao reparar automaticamente um sistema voltado para o cliente, desencadeando uma falha de 13 horas no AWS Cost Explorer. A reação em cadeia causada por um único ponto de falha está a tornar-se o risco sistémico mais perigoso na era da IA.
As implicações para toda a indústria são multidimensionais. Em primeiro lugar, a redundância multimodelo já não é uma opção, passando a ser obrigatória. Nesta interrupção, as empresas que implementaram soluções de tolerância a falhas multi-LLM antecipadamente, como a mudança automática para modelos como Gemini ou GPT quando o Claude não estava disponível, foram significativamente menos afetadas. As futuras arquiteturas de infraestrutura de IA devem incorporar a “redundância de modelos” no design central, tal como as implementações multi-cloud atuais.
Em segundo lugar, a capacidade de observação é crucial. A análise da Deployflow apontou que o rastreio de latência dos tokens e os picos de taxa de erro são sinais iniciais de falhas de serviço, permitindo que as equipas mudem antes de perderem o acesso à IA a nível da empresa.
Em terceiro lugar, a segurança da infraestrutura física é grosseiramente subestimada. Se a cadeia causal de ataques a centros de dados no Médio Oriente for estabelecida, as ameaças à infraestrutura de IA vêm não só ao nível do software, mas também de riscos geopolíticos, ataques físicos e até desastres naturais.
Forrester também apontou uma tendência a observar: “as neoclouds, como CoreWeave, Lambda e Nebius, fornecedores especializados de serviços cloud focados em GPUs de alto desempenho, deverão gerar 20 mil milhões de dólares em receitas até 2026, corroendo o domínio dos fornecedores de serviços cloud em hiperescala no campo da IA generativa.”
Estes fornecedores de serviços constroem arquiteturas GPU-first do zero, em vez de adaptarem centros de dados antigos, o que pode fornecer novas soluções para a resiliência da infraestrutura de IA.
Para empresas e plataformas que estão a construir infraestruturas de IA, este incidente deixou uma lição clara: não coloque todos os ovos no mesmo cesto e não assuma que um único fornecedor pode fornecer 100% de tempo de atividade.
Antes de a IA se tornar um verdadeiro “carvão hidroelétrico”, a sua infraestrutura deve primeiro alcançar a fiabilidade do “carvão hidroelétrico”. Caso contrário, cada tempo de inatividade será um teste de stress para todo o ecossistema.
À data desta edição, o serviço Claude ainda apresenta falhas intermitentes, e a Anthropic continua a investigar.
Fonte deste artigo: Tencent Technology
Aviso de risco e aviso legal