Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A Computação Confidencial É Como a IA Recupera a Confiança Que Já Perdeu — E Por Que Precisa Tornar-se o Novo Padrão
Resumidamente
À medida que a adoção de IA supera a confiança pública, Ahmad Shadid, da ORGN, defende que a computação confidencial e a execução verificável oferecem a prova criptográfica que as políticas de privacidade sozinhas não podem fornecer.
Os sistemas de IA estão a avançar rapidamente para fluxos de trabalho sensíveis — escrevendo código, lidando com dados de clientes e apoiando decisões em setores regulamentados como finanças e saúde. Essa rápida integração criou um problema estrutural que a indústria ainda não conseguiu resolver adequadamente.
O desafio é a confiança. Um estudo realizado pela Universidade de Melbourne em colaboração com a KPMG, que surveyou mais de 48.000 pessoas em 47 países, revelou que, embora 66% dos entrevistados usem IA regularmente, menos da metade — apenas 46% — afirma estar disposta a confiar nos sistemas de IA. O uso e a confiança estão a seguir direções opostas, e a diferença entre eles está a aumentar.
A dimensão da privacidade dos dados nesta lacuna de confiança é particularmente aguda. Segundo o Índice de IA de Stanford 2025, a confiança global de que as empresas de IA protegem dados pessoais caiu de 50% em 2023 para 47% em 2024, enquanto menos pessoas acreditam agora que os sistemas de IA são imparciais e livres de discriminação, em comparação com o ano anterior. Essa diminuição ocorre precisamente à medida que a IA se torna mais integrada na vida diária e nos ambientes profissionais, tornando os riscos de confiança mal colocada consideravelmente maiores.
Ahmad Shadid, CEO da ORGN, o primeiro ambiente de desenvolvimento confidencial do mundo, argumenta que a próxima fase da IA não será construída com base na confiança — será construída com base na prova. A computação confidencial e a execução verificável tornam possível demonstrar exatamente como os dados são processados, em vez de simplesmente prometer que são seguros.
Numa conversa com a MPost, ele explicou como essas tecnologias abordam as lacunas de privacidade e confiança que as medidas de segurança convencionais deixam abertas nos fluxos de trabalho de IA, e o que seria necessário para que se tornem uma norma.
Como as empresas de IA Protegem Dados Hoje — E Por Que Não É Suficiente
A maioria das empresas de IA atualmente depende de uma combinação de criptografia, controles de acesso e políticas de governança para proteger dados sensíveis. A criptografia é aplicada a dados em repouso e em trânsito usando algoritmos estabelecidos, enquanto controles de acesso baseados em funções, registos e deteção de anomalias regulam quem pode interagir com os sistemas e sob que condições. Essas medidas representam o padrão da indústria e, para muitos casos de uso, são suficientes.
O problema surge num momento específico e muitas vezes negligenciado: quando os dados são descriptografados na memória para treino ou inferência do modelo. Nesse momento, abre-se uma janela de exposição. A computação confidencial aborda isso diretamente ao criptografar os dados enquanto estão a ser processados ativamente, dentro do hardware, de modo que nem mesmo o operador da infraestrutura possa ver o que acontece dentro da máquina.
Shadid identifica uma vulnerabilidade estrutural que as abordagens de segurança padrão não fecham completamente. Quando os dados são descriptografados num servidor que o cliente não controla diretamente — por exemplo, numa nuvem pública ou numa plataforma de IA de terceiros — o cliente não tem meios técnicos de verificar o que realmente acontece com eles. Na prática, eles dependem da palavra do fornecedor.
Essa preocupação não se limita aos utilizadores finais. Em ambientes regulamentados, os CISOs, auditores de conformidade e reguladores enfrentam o mesmo problema. Normalmente, eles confiam em certificados ISO 27001, relatórios SOC 2 e documentos de políticas — instrumentos que, como Shadid afirma, provam intenção mais do que o que realmente acontece com os dados em uso. A computação confidencial com atestação muda essa equação ao fornecer provas criptográficas resistentes a adulterações de que uma versão específica do modelo foi executada dentro de um ambiente de execução confiável aprovado, com uma pilha de software aprovada. A garantia passa de uma intenção documentada para um fato técnico verificável.
O impulso regulatório por trás dessa mudança já é visível. Segundo o Estudo de Computação Confidencial da IDC de julho de 2025, a introdução do Regulamento de Resiliência Operacional Digital da UE levou 77% das organizações a considerarem mais provável a adoção de computação confidencial, com 75% já a adotando de alguma forma. Os principais benefícios relatados foram a melhoria na integridade dos dados, garantias de confidencialidade comprovadas e maior conformidade regulatória.
O Que Significa Execução Verificável na Prática
Para um público não técnico, Shadid descreve a execução verificável como receber um recibo criptográfico após um sistema de IA processar dados. Esse recibo demonstra, de forma matematicamente verificável, que a IA foi executada em hardware certificado genuíno, que executou a versão esperada do software e nada mais além disso, e que o ambiente foi devidamente protegido antes de qualquer dado sensível ser desbloqueado. A integridade do processo deixa de depender da confiança nas garantias do fornecedor — passa a depender da verificação da evidência.
A nível técnico, isso é alcançado através de três mecanismos interligados. Ambientes de execução confiáveis, ou TEEs, permitem que o processador crie um enclave selado — memória e execução isoladas ao nível do silício — de modo que nem o sistema operativo, nem o hipervisor, nem o operador da nuvem possam ler o que acontece dentro. A atestação remota permite que uma parte externa verifique se um TEE genuíno está a executar uma pilha de software aprovada antes de liberar chaves de descriptografia ou entradas sensíveis. Por fim, resultados verificáveis permitem que alguns sistemas assinem seus resultados com um certificado ligado à atestação, de modo que qualquer pessoa que receba o resultado possa confirmá-lo como proveniente da aplicação esperada dentro de um ambiente protegido e que não foi alterado em trânsito.
Shadid defende que as vantagens da computação confidencial se estendem por toda a cadeia de valor da IA. Os desenvolvedores de IA ganham a capacidade de treinar e executar modelos em conjuntos de dados sensíveis ou regulamentados em ambientes de nuvem partilhados, sem expor dados brutos ao operador da plataforma. Para as empresas, a tecnologia reduz a exposição legal e reputacional ao fornecer provas demonstráveis de que os dados pessoais permanecem protegidos durante o processamento de IA — apoiando requisitos de privacidade do tipo GDPR e regulamentações específicas do setor. Além disso, abre a porta à colaboração de dados entre organizações, pois cada parte pode verificar se seus dados são processados apenas dentro de ambientes attestados e em conformidade com políticas, eliminando uma das principais barreiras a projetos conjuntos de IA.
Para os utilizadores finais, o benefício é uma garantia mais forte e tangível de que os seus dados pessoais não podem ser acessados por operadores, insiders ou outros inquilinos da nuvem enquanto os sistemas de IA estão a funcionar. Também torna viáveis serviços de maior valor — como orientações de saúde personalizadas ou aconselhamento financeiro detalhado — que anteriormente eram considerados demasiado sensíveis para serem entregues via infraestrutura de nuvem.
Shadid usa a sua própria experiência como engenheiro de software para ilustrar um dos riscos menos discutidos. Os desenvolvedores frequentemente colam código proprietário, ficheiros de configuração, chaves API e tokens em ferramentas de codificação de IA, muitas vezes com visibilidade limitada sobre como esses dados são armazenados ou utilizados. O ritmo acelerado da indústria torna difícil evitar essas ferramentas. Foi precisamente essa tensão — a necessidade de avançar rapidamente enquanto se mantém a exposição de propriedade intelectual sob controlo — que o levou a criar a ORGN, um ambiente de desenvolvimento confidencial construído com princípios de computação confidencial.
Por Que a Adoção Generalizada Ainda Não Chegou
Apesar de 75% das empresas adotarem alguma forma de computação confidencial, o estudo da IDC revelou que apenas 18% das organizações a incorporaram em ambientes de produção. Shadid identifica três principais obstáculos: a complexidade na validação da atestação, uma perceção persistente de que a tecnologia é de nicho, e a escassez de engenheiros com as competências necessárias.
A validação da atestação, explica, é consideravelmente mais complexa na prática do que parece no papel. A evidência de atestação chega como estruturas binárias ou objetos JSON contendo medições, certificados e colaterais que devem ser analisados, verificados contra raízes do fornecedor e validados quanto à atualidade e revogação. Depois, os desenvolvedores precisam determinar o que é confiável — quais versões de firmware, hashes de imagens e medições de aplicações são aceitáveis — e integrar essa lógica no seu próprio sistema de controlo ou gestão de chaves. Grandes fornecedores de nuvem, incluindo AWS, Azure e Oracle, já oferecem computação confidencial a custos comparáveis à infraestrutura padrão, pelo que o obstáculo não é o acesso ou o preço. É a profundidade de engenharia necessária para operacionalizar corretamente a atestação.
A visão de Shadid é que a adoção mais ampla dependerá de três forças convergentes. Primeiro, a validação da atestação precisa tornar-se significativamente mais acessível, seja através de padronização ou de ferramentas open-source que abstraiam a complexidade para as equipas de desenvolvimento. Segundo, a pressão regulatória continuará a impulsionar a adoção, como já acontece com o DORA — se outros setores seguirem uma trajetória semelhante, o argumento de negócio para a computação confidencial tornará mais difícil de ignorar. Terceiro, e talvez mais fundamental, a consciência pública sobre o que acontece com os dados dentro dos sistemas de IA precisa crescer. A maioria das pessoas, afirma Shadid, não tem uma ideia clara do que ocorre quando submetem um prompt a uma ferramenta de IA de consumo. Uma maior consciência dessa exposição — entre desenvolvedores e utilizadores comuns — geraria uma pressão social que aceleraria a adoção muito mais do que argumentos técnicos sozinhos.
Olhar para o futuro, ele sugere que, se a computação confidencial e a execução verificável se tornarem infraestrutura padrão, a forma como os serviços de IA são projetados, comercializados e governados mudará de forma significativa. Os clientes receberiam provas criptográficas de como os seus dados foram tratados, em vez de garantias de políticas, permitindo às empresas demonstrar conformidade perante reguladores e conselhos de administração de forma concreta, e não apenas documental. A analogia que Shadid faz é com a encriptação de armazenamento e rede, que passou de uma medida de segurança opcional a uma base universal em relativamente pouco tempo. A direção para a execução confidencial é a mesma — e, uma vez implementada, cada inferência, cada ajuste fino e cada transferência de dados carregará uma atestação criptográfica, tornando a integridade do pipeline um fato verificável, e não uma questão de confiança institucional.