Sora saiu de cena após

robot
Geração de resumo em curso

Há alguns dias, a OpenAI anunciou, sem aviso prévio, que vai encerrar o seu modelo de geração de vídeos com IA, o Sora.

De ser lançado há dois anos com a ambição de “mudar a indústria do cinema” e, agora, acabar por se retirar de forma pouco triunfante, a duração do ciclo de vida do Sora — tão curto — e a reviravolta — tão abrupta — deixam-nos com uma sensação de luto.

Na Califórnia, o encerramento de projectos emblemáticos tem frequentemente um significado de “termómetro” do rumo a seguir — tal como a Apple, após uma maratona de dez anos, ter decidido abandonar de vez o plano de fabricar carros; e a Meta ter reduzido de forma considerável a sua estrutura de um laboratório de experiências em metaverso que antes era visto quase como vital. A queda desses projectos costuma acompanhar mudanças na estratégia da empresa, e até do sector.

Através das escolhas e do planeamento da OpenAI, é possível perceber a mudança que está a acontecer na indústria norte-americana de IA.

O Sr. Tan entrevistou várias figuras do sector da IA, incluindo investigadores que há muito circulam entre os círculos de IA da China e dos EUA, e profissionais que estão na linha da frente. Pelos detalhes que partilharam, é possível encontrar algumas pistas.

“Recursos” é uma palavra que os profissionais do sector referem repetidamente, e também o ponto de partida para compreender todas estas mudanças.

Profissionais que estiveram em contacto com equipas de investigação e desenvolvimento de empresas norte-americanas de topo em IA, como a OpenAI e a Meta, disseram ao Sr. Tan que, actualmente, existe um consenso generalizado na indústria: a concorrência em IA, no fim de contas, é uma concorrência de recursos. Se talentos, capital e capacidade de computação forem suficientes, as empresas de IA normalmente apostam em múltiplas direcções tecnológicas em simultâneo.

E o encerramento do Sora pela OpenAI é o resultado de os recursos se terem tornado escassos.

Vamos começar pelo problema mais básico: capacidade de computação.

Nos últimos dois anos, os EUA têm vindo a dizer que vão construir mais centros de dados e continuar a expandir a capacidade de computação, mas a realidade é que a oferta nunca consegue acompanhar o crescimento da procura. De acordo com estimativas do Goldman Sachs, a falta de equilíbrio entre oferta e procura de capacidade de centros de dados nos EUA está a tornar-se uma tendência normalizada; e, nos próximos anos, prevê-se que continue a manter-se a cerca de 10 gigawatts.

O mais determinante é que, com muitos projectos recém-criados, o bloqueio acaba por acontecer na fase de electricidade e infra-estruturas; no fim, talvez também seja difícil concretizarem-se.

No caso da OpenAI, o problema torna-se ainda mais evidente.

A OpenAI tem uma característica: não constrói os seus próprios centros de dados; a sua capacidade de computação central depende de parcerias com fornecedores como a Microsoft.

Em 2025, o presidente da OpenAI referiu que a atribuição interna de GPUs passou a ser um processo “muito doloroso”, chegando até a ser necessário um pequeno grupo especialmente dedicado a vigiar quando cada projecto deve terminar, para voltar a redistribuir a capacidade de computação libertada para novos projectos.

Foi precisamente nessa altura que começou a ganhar forma a segunda pressão: a indústria de IA está a entrar num novo ciclo de capital.

Em comparação com o passado — “investir primeiro e validar depois” — os investidores passaram a exigir com força retornos comerciais mensuráveis.

||Um inquérito de uma consultora norte-americana mostra que 53% dos investidores esperam obter retorno no prazo de seis meses.

||Mais de 70% dos CIOs afirmaram explicitamente que, se não for possível demonstrar o valor comercial da IA até meados de 2026, os orçamentos relacionados serão cortados.

Quando as exigências do capital sobem e a capacidade de computação se torna cara e escassa, as empresas acabam por ter de fazer escolhas internamente. Para as empresas de IA dos EUA neste momento, esta mudança é particularmente drástica.

Estima-se que o custo de a geração do Sora produzir um vídeo de 10 segundos seja de 1,3 dólares. Assumindo que os utilizadores geram 11,3 milhões de vídeos por dia, o custo diário de capacidade de computação rondaria 15 milhões de dólares; contudo, as receitas reais ficam muito abaixo disso.

O Sora é apenas um reflexo dessa “lógica de escolha”:

||No mês passado, também foi ajustada, entre outras, a função nativa de pagamentos rápidos do ChatGPT.

||Ao mesmo tempo, a OpenAI anunciou ter chegado a um acordo com o Departamento de Defesa dos EUA, para que os modelos da OpenAI fossem implantados numa rede secreta do sector militar.

Estes projectos que foram cortados têm características comuns: posicionamento voltado ao consumidor, consumo de capacidade de computação extremamente elevado, estagnação do crescimento de utilizadores e retorno pouco claro no curto prazo.

Por detrás disso, está uma ronda de ajustamentos estruturais pela qual a indústria norte-americana de IA está a passar:

||Em março de 2026, a Meta anunciou que planeia encerrar em 15 de junho o apoio ao Horizon Worlds nos headsets de VR. A maior parte do orçamento foi alocada a direcções como infra-estruturas de IA, dispositivos vestíveis e aplicações móveis.

||A Amazon anunciou o encerramento das experiências de lojas físicas Amazon Fresh e Amazon Go, e também a paragem do sistema de pagamentos por leitura de impressões da Amazon One.

||A Scale AI, líder na área de anotação de dados de IA, em julho de 2025 reorganizou equipas, aumentando recursos para vendas a empresas e ao governo, e passando o foco do negócio de anotação de dados para as oportunidades que trazem mais lucro.

A indústria norte-americana de IA está a formar um consenso: é preciso garantir prioritariamente projectos com margens brutas elevadas e reduzir o investimento contínuo em inovação orientada ao consumidor.

Então, que tipo de projectos são “margem bruta elevada”?

Não há muito tempo, a OpenAI chegou a um acordo com o Departamento de Defesa dos EUA, para implementar modelos avançados numa rede secreta militar.

A particularidade desta escolha está em ultrapassar duas linhas de limite.

||A primeira é a linha de limite da própria OpenAI. A OpenAI tem vindo a enfatizar repetidamente que não forneceria apoio técnico para vigilância interna em grande escala ou para sistemas de armas autónomos; no entanto, agora mudou a sua posição.

||A segunda é a linha de limite da indústria. A outra empresa norte-americana de topo, a Anthropic, está a ser rotulada como “risco de cadeia de abastecimento” pelo Pentágono precisamente por manter essa linha de limite; e a OpenAI está a assumir o papel nessa mesma altura.

Isto revela um rumo perigoso para o desenvolvimento seguinte da IA nos EUA: áreas que antes não se ousava tocar agora estão a ser tocadas; linhas de limite que antes eram defendidas agora estão a ser ultrapassadas.

O Sr. Chen Qi, que participou em 14 rondas de conversas sobre IA entre a China e os EUA, disse ao Sr. Tan que, no meio estratégico e empresarial, a corrente dominante está a incentivar fortemente a realização de uma “corrida armamentista” de IA, procurando uma vantagem absoluta face a outros países.

Em particular, no ano passado, o actual governo dos EUA virou completamente a visão do governo anterior sobre “IA segura, fiável e digna de confiança”, passando para “ganhar a corrida de IA”, com o objectivo de derrotar outros países colocado no centro absoluto.

Isto abriu caminho para uma ligação profunda entre capital e forças armadas.

Sob a pressão de “ganhar a competição”, os limites previamente definidos estão a ser redesenhados; e o Departamento de Defesa tornou-se um parceiro extremamente atractivo.

Em perspectiva vertical, em três grandes direcções — para consumidores (To C), para empresas (To B) e para o sector público (To G) — o sector público está a tornar-se o último “mar aberto” para a IA.

Em termos de ritmo de implementação, os profissionais do sector público dos EUA utilizam IA muito menos do que a maioria das pessoas nos EUA. Isto significa um enorme espaço por explorar.

E isto também significa que o sector público ainda não entrou na fase de “avaliação por retorno”. Aqui, os orçamentos vêm de dotações, e não de requisitos de rentabilidade; o ciclo é mais longo, o financiamento é mais estável e a tolerância ao risco é mais elevada.

Em perspectiva horizontal, entre as entidades do sector público, o Departamento de Defesa é aquele com maior vontade de colaboração.

De acordo com uma estatística baseada nos dados de contratos do governo federal norte-americano, o Departamento de Defesa tem mais de 70% de todos os contratos federais de IA. Só entre setembro de 2022 e agosto de 2023, o valor dos contratos de IA do Departamento de Defesa cresceu 1500%.

O Sr. Liu Wei, que trocou impressões com delegações que incluíam think tanks dos EUA e o sector militar, disse ao Sr. Tan que, com base na sua observação, a escolha das empresas em colaborar com o sector militar se deve, por um lado, à pressão real de gestão e, por outro, também ao desejo de concretizar avanços tecnológicos através dessa “área experimental” que é o sector militar.

Este tipo de colaboração é uma peça-chave para os EUA construírem a sua hegemonia em IA — ao aprofundar a ligação entre investigação e desenvolvimento tecnológicos e capacidades militares, abrindo caminho para o capital com fundos públicos e, depois, retribuindo com vantagens tecnológicas para sustentar a hegemonia militar.

Mas o custo está a tornar-se visível.

Originalmente, o governo norte-americano implantava IA lentamente, e isso tinha uma lógica interna.

Ao contrário do sector privado, o sector público não tem as mesmas condições: algumas falhas actuais da IA — como “alucinações” e falta de precisão — podem ser apenas problemas de experiência nos cenários privados; no sector público, porém, podem evoluir para problemas sociais:

||Sector estatístico: a utilização de IA para apoiar o tratamento de dados pode aumentar significativamente a eficiência; mas, se surgirem “alucinações” que causem erros numéricos, isso pode afectar directamente a economia e a vida das pessoas;

||Sectores como agricultura e energia: a IA pode apoiar investigação científica e alocação de recursos; contudo, as “alucinações” podem levar a previsões de modelos erradas;

||Sector da defesa: antes, alguns projectos de IA enfrentaram o problema de sistemas de reconhecimento de alvos apresentarem uma precisão de apenas cerca de 30% em condições meteorológicas adversas; e, nas decisões que envolvem vidas humanas, se derem errado, as consequências não são reversíveis.

Agora, esta cautela está a ser abandonada.

O Departamento de Defesa está ainda a adoptar uma rota agressiva de “usar e corrigir”: colocar a IA rapidamente em cenários de combate em contexto real, iterando e optimizando com base no feedback prático. Esta abordagem, por si só, é trocar o risco de vidas humanas pela velocidade de iteração tecnológica.

O Sr. Liu Wei disse ao Sr. Tan que, sobretudo entre os oficiais militares intermédios e mais baixos com quem teve contacto, são eles que estão verdadeiramente na linha da frente a lutar; e têm uma atitude bastante positiva relativamente à aplicação militarizada de IA, acreditando, de forma generalizada, que isso ajuda a melhorar capacidades de combate e de planeamento estratégico.

A partir daqui, é possível ver o que está por trás da escolha da OpenAI, reflectindo o rumo perigoso de construção da hegemonia em IA dos EUA:

O capital procura retorno; o governo dos EUA procura vantagem militar; e ambos se cedem e emprestam força mutuamente no domínio da IA, ultrapassando em conjunto as linhas de limite de ética e segurança.

Os EUA já decidiram alocar a IA prioritariamente ao domínio militar. E a próxima vez, para onde serão empurrados os limites?

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar