A Computação Confidencial É Como a IA Recupera a Confiança Que Já Perdeu — E Por Que Precisa Tornar-se o Novo Padrão

Resumidamente

À medida que a adoção de IA supera a confiança pública, Ahmad Shadid, da ORGN, defende que a computação confidencial e a execução verificável oferecem a prova criptográfica que as políticas de privacidade sozinhas não podem fornecer.

Why AI's Trust Problem Will Not Be Solved By Better Privacy Policies — And What Cryptographic Proof Can Do Instead

Os sistemas de IA estão a avançar rapidamente para fluxos de trabalho sensíveis — escrevendo código, lidando com dados de clientes e apoiando decisões em setores regulamentados como finanças e saúde. Essa rápida integração criou um problema estrutural que a indústria ainda não conseguiu resolver adequadamente.

O desafio é a confiança. Um estudo realizado pela Universidade de Melbourne em colaboração com a KPMG, que surveyou mais de 48.000 pessoas em 47 países, revelou que, embora 66% dos entrevistados usem IA regularmente, menos da metade — apenas 46% — afirma estar disposta a confiar nos sistemas de IA. O uso e a confiança estão a seguir direções opostas, e a diferença entre eles está a aumentar.

A dimensão da privacidade dos dados nesta lacuna de confiança é particularmente aguda. Segundo o Índice de IA de Stanford 2025, a confiança global de que as empresas de IA protegem dados pessoais caiu de 50% em 2023 para 47% em 2024, enquanto menos pessoas acreditam agora que os sistemas de IA são imparciais e livres de discriminação, em comparação com o ano anterior. Essa diminuição ocorre precisamente à medida que a IA se torna mais integrada na vida diária e nos ambientes profissionais, tornando os riscos de confiança mal colocada consideravelmente maiores.

Ahmad Shadid, CEO da ORGN, o primeiro ambiente de desenvolvimento confidencial do mundo, argumenta que a próxima fase da IA não será construída com base na confiança — será construída com base na prova. A computação confidencial e a execução verificável tornam possível demonstrar exatamente como os dados são processados, em vez de simplesmente prometer que são seguros.

Numa conversa com a MPost, ele explicou como essas tecnologias abordam as lacunas de privacidade e confiança que as medidas de segurança convencionais deixam abertas nos fluxos de trabalho de IA, e o que seria necessário para que se tornem uma norma.

Como as empresas de IA Protegem Dados Hoje — E Por Que Não É Suficiente

A maioria das empresas de IA atualmente depende de uma combinação de criptografia, controles de acesso e políticas de governança para proteger dados sensíveis. A criptografia é aplicada a dados em repouso e em trânsito usando algoritmos estabelecidos, enquanto controles de acesso baseados em funções, registos e deteção de anomalias regulam quem pode interagir com os sistemas e sob que condições. Essas medidas representam o padrão da indústria e, para muitos casos de uso, são suficientes.

O problema surge num momento específico e muitas vezes negligenciado: quando os dados são descriptografados na memória para treino ou inferência do modelo. Nesse momento, abre-se uma janela de exposição. A computação confidencial aborda isso diretamente ao criptografar os dados enquanto estão a ser processados ativamente, dentro do hardware, de modo que nem mesmo o operador da infraestrutura possa ver o que acontece dentro da máquina.

Shadid identifica uma vulnerabilidade estrutural que as abordagens de segurança padrão não fecham completamente. Quando os dados são descriptografados num servidor que o cliente não controla diretamente — por exemplo, numa nuvem pública ou numa plataforma de IA de terceiros — o cliente não tem meios técnicos de verificar o que realmente acontece com eles. Na prática, eles dependem da palavra do fornecedor.

Essa preocupação não se limita aos utilizadores finais. Em ambientes regulamentados, os CISOs, auditores de conformidade e reguladores enfrentam o mesmo problema. Normalmente, eles confiam em certificados ISO 27001, relatórios SOC 2 e documentos de políticas — instrumentos que, como Shadid afirma, provam intenção mais do que o que realmente acontece com os dados em uso. A computação confidencial com atestação muda essa equação ao fornecer provas criptográficas resistentes a adulterações de que uma versão específica do modelo foi executada dentro de um ambiente de execução confiável aprovado, com uma pilha de software aprovada. A garantia passa de uma intenção documentada para um fato técnico verificável.

O impulso regulatório por trás dessa mudança já é visível. Segundo o Estudo de Computação Confidencial da IDC de julho de 2025, a introdução do Regulamento de Resiliência Operacional Digital da UE levou 77% das organizações a considerarem mais provável a adoção de computação confidencial, com 75% já a adotando de alguma forma. Os principais benefícios relatados foram a melhoria na integridade dos dados, garantias de confidencialidade comprovadas e maior conformidade regulatória.

O Que Significa Execução Verificável na Prática

Para um público não técnico, Shadid descreve a execução verificável como receber um recibo criptográfico após um sistema de IA processar dados. Esse recibo demonstra, de forma matematicamente verificável, que a IA foi executada em hardware certificado genuíno, que executou a versão esperada do software e nada mais além disso, e que o ambiente foi devidamente protegido antes de qualquer dado sensível ser desbloqueado. A integridade do processo deixa de depender da confiança nas garantias do fornecedor — passa a depender da verificação da evidência.

A nível técnico, isso é alcançado através de três mecanismos interligados. Ambientes de execução confiáveis, ou TEEs, permitem que o processador crie um enclave selado — memória e execução isoladas ao nível do silício — de modo que nem o sistema operativo, nem o hipervisor, nem o operador da nuvem possam ler o que acontece dentro. A atestação remota permite que uma parte externa verifique se um TEE genuíno está a executar uma pilha de software aprovada antes de liberar chaves de descriptografia ou entradas sensíveis. Por fim, resultados verificáveis permitem que alguns sistemas assinem seus resultados com um certificado ligado à atestação, de modo que qualquer pessoa que receba o resultado possa confirmá-lo como proveniente da aplicação esperada dentro de um ambiente protegido e que não foi alterado em trânsito.

Shadid defende que as vantagens da computação confidencial se estendem por toda a cadeia de valor da IA. Os desenvolvedores de IA ganham a capacidade de treinar e executar modelos em conjuntos de dados sensíveis ou regulamentados em ambientes de nuvem partilhados, sem expor dados brutos ao operador da plataforma. Para as empresas, a tecnologia reduz a exposição legal e reputacional ao fornecer provas demonstráveis de que os dados pessoais permanecem protegidos durante o processamento de IA — apoiando requisitos de privacidade do tipo GDPR e regulamentações específicas do setor. Além disso, abre a porta à colaboração de dados entre organizações, pois cada parte pode verificar se seus dados são processados apenas dentro de ambientes attestados e em conformidade com políticas, eliminando uma das principais barreiras a projetos conjuntos de IA.

Para os utilizadores finais, o benefício é uma garantia mais forte e tangível de que os seus dados pessoais não podem ser acessados por operadores, insiders ou outros inquilinos da nuvem enquanto os sistemas de IA estão a funcionar. Também torna viáveis serviços de maior valor — como orientações de saúde personalizadas ou aconselhamento financeiro detalhado — que anteriormente eram considerados demasiado sensíveis para serem entregues via infraestrutura de nuvem.

Shadid usa a sua própria experiência como engenheiro de software para ilustrar um dos riscos menos discutidos. Os desenvolvedores frequentemente colam código proprietário, ficheiros de configuração, chaves API e tokens em ferramentas de codificação de IA, muitas vezes com visibilidade limitada sobre como esses dados são armazenados ou utilizados. O ritmo acelerado da indústria torna difícil evitar essas ferramentas. Foi precisamente essa tensão — a necessidade de avançar rapidamente enquanto se mantém a exposição de propriedade intelectual sob controlo — que o levou a criar a ORGN, um ambiente de desenvolvimento confidencial construído com princípios de computação confidencial.

Por Que a Adoção Generalizada Ainda Não Chegou

Apesar de 75% das empresas adotarem alguma forma de computação confidencial, o estudo da IDC revelou que apenas 18% das organizações a incorporaram em ambientes de produção. Shadid identifica três principais obstáculos: a complexidade na validação da atestação, uma perceção persistente de que a tecnologia é de nicho, e a escassez de engenheiros com as competências necessárias.

A validação da atestação, explica, é consideravelmente mais complexa na prática do que parece no papel. A evidência de atestação chega como estruturas binárias ou objetos JSON contendo medições, certificados e colaterais que devem ser analisados, verificados contra raízes do fornecedor e validados quanto à atualidade e revogação. Depois, os desenvolvedores precisam determinar o que é confiável — quais versões de firmware, hashes de imagens e medições de aplicações são aceitáveis — e integrar essa lógica no seu próprio sistema de controlo ou gestão de chaves. Grandes fornecedores de nuvem, incluindo AWS, Azure e Oracle, já oferecem computação confidencial a custos comparáveis à infraestrutura padrão, pelo que o obstáculo não é o acesso ou o preço. É a profundidade de engenharia necessária para operacionalizar corretamente a atestação.

A visão de Shadid é que a adoção mais ampla dependerá de três forças convergentes. Primeiro, a validação da atestação precisa tornar-se significativamente mais acessível, seja através de padronização ou de ferramentas open-source que abstraiam a complexidade para as equipas de desenvolvimento. Segundo, a pressão regulatória continuará a impulsionar a adoção, como já acontece com o DORA — se outros setores seguirem uma trajetória semelhante, o argumento de negócio para a computação confidencial tornará mais difícil de ignorar. Terceiro, e talvez mais fundamental, a consciência pública sobre o que acontece com os dados dentro dos sistemas de IA precisa crescer. A maioria das pessoas, afirma Shadid, não tem uma ideia clara do que ocorre quando submetem um prompt a uma ferramenta de IA de consumo. Uma maior consciência dessa exposição — entre desenvolvedores e utilizadores comuns — geraria uma pressão social que aceleraria a adoção muito mais do que argumentos técnicos sozinhos.

Olhar para o futuro, ele sugere que, se a computação confidencial e a execução verificável se tornarem infraestrutura padrão, a forma como os serviços de IA são projetados, comercializados e governados mudará de forma significativa. Os clientes receberiam provas criptográficas de como os seus dados foram tratados, em vez de garantias de políticas, permitindo às empresas demonstrar conformidade perante reguladores e conselhos de administração de forma concreta, e não apenas documental. A analogia que Shadid faz é com a encriptação de armazenamento e rede, que passou de uma medida de segurança opcional a uma base universal em relativamente pouco tempo. A direção para a execução confidencial é a mesma — e, uma vez implementada, cada inferência, cada ajuste fino e cada transferência de dados carregará uma atestação criptográfica, tornando a integridade do pipeline um fato verificável, e não uma questão de confiança institucional.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar