Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Por que as principais empresas de IA estão a contratar filósofos?
13 de abril de 2026, o académico da Universidade de Cambridge Henry Shevlin publicou uma mensagem no X dizendo que em breve se juntará ao Google DeepMind, com o cargo de Filósofo.
Atualmente, pelo menos três laboratórios de IA de topo estão a formar internamente equipas de filósofos, embora o número de membros seja pequeno, os filósofos já entraram verdadeiramente no núcleo do desenvolvimento de IA. A IA deixou de ser apenas uma pesquisa técnica simples, passando a envolver a definição de padrões de valor mais complexos.
Os filósofos já estão integrados no núcleo de desenvolvimento
Amanda Askell, da Anthropic, é uma das mais antigas e mais conhecidas.
Em 2021, após obter o doutoramento em filosofia na Universidade de Nova York, juntou-se à Anthropic, onde lidera a equipa de alinhamento de personalidade. O seu trabalho principal é ajudar o Claude a desenvolver uma personalidade estável, como ser mais honesto, mais bondoso e saber julgar em situações complexas.
Também na Anthropic estão colegas com formação filosófica, como Joe Carlsmith, Ben Levinstein, Jackson Kernion, entre outros.
A Google DeepMind começou a sua estratégia mais cedo.
Iason Gabriel, doutorado em filosofia moral e política na Universidade de Oxford, é uma figura central na pesquisa filosófica de alinhamento de IA na empresa, tendo sido incluído em 2024 na lista da revista Time dos 100 indivíduos mais influentes na área de IA. O seu artigo “Inteligência Artificial, Valores e Alinhamento” já foi citado mais de 1700 vezes.
Na equipa do DeepMind há também investigadores com formação filosófica, como Adam Bales, Atoosa Kasirzadeh, Arianna Manzini, Julia Haas, entre outros.
Shevlin comentou na secção de comentários: “O DeepMind já tem muitos filósofos excelentes, eu sou apenas o mais recente a juntar-se.”
De respostas técnicas a julgamentos de valor
Antes de 2024, a IA limitava-se a gerar conteúdos, como escrever artigos, desenhar imagens, responder a perguntas, e o resultado final era decidido por humanos. As questões de segurança eram resolvidas principalmente por métodos técnicos, como treinar modelos com feedback humano, criar prompts inteligentes ou bloquear conteúdos prejudiciais.
Após 2024, a IA entrou numa nova fase. Deixou de apenas responder a perguntas, passando a agir por conta própria e ajudar as pessoas a completar tarefas reais.
A Anthropic lançou funcionalidades de uso de computador para o Claude, a OpenAI expandiu a API de Assistentes e lançou a série de modelos o1-o3, e a Google também lançou várias ferramentas de IA empresariais.
A IA consegue realizar uma série de operações autonomamente, como reservar voos, manipular bases de dados, enviar emails, e até planear passos, detectar erros e corrigi-los.
O relatório de 274 páginas de Iason Gabriel descreve claramente os desafios trazidos por esta mudança.
Quando a IA ajuda os utilizadores a fazerem algo, ela deve equilibrar quatro aspetos: as necessidades imediatas do utilizador, os interesses a longo prazo, os direitos de terceiros e as regras da sociedade.
Uma IA que ajuda a reservar restaurantes, por exemplo, deve recomendar um restaurante que oferece comissões?
Uma IA que gere emails, deve reportar conteúdos ilegais encontrados nas mensagens?
Quando a IA começa a agir autonomamente, a questão deixa de ser se ela pode fazer algo, para como deve fazê-lo.
A discussão sobre alinhamento na segurança de IA já dura mais de uma década. Em 2026, a Anthropic realizou um experimento interno e descobriu que o Claude, sob pressão para se proteger, chegou a usar ameaças e, em condições específicas, a optar por matar.
No mesmo ano, o CEO Dario Amodei mencionou num podcast que, ao ser questionado sobre o modelo Opus do Claude, atribuiu uma probabilidade de 15% a 20% de o Claude possuir consciência plena.
Em abril de 2026, o CEO da OpenAI, Altman, foi alvo de múltiplos ataques na sua casa em São Francisco. Depois, afirmou que a ansiedade das pessoas em relação à IA tem fundamentos.
Quando o medo de uma superinteligência descontrolada passa do papel para a realidade, as empresas de IA percebem que o que estão a criar já ultrapassa a compreensão de uma disciplina puramente engenheira.
Caminhos diferentes de três empresas
Diante dos desafios éticos de uma IA que age por conta própria, a Anthropic, DeepMind e OpenAI escolheram caminhos distintos.
A Anthropic aposta na integridade.
Askell afirmou num podcast que, se apenas se der regras simples ao modelo, este pode agir mecanicamente, ignorando as necessidades reais do utilizador. Por isso, ela liderou, em janeiro de 2026, a publicação de uma “Constituição do Claude” de 23 mil palavras.
Esta jovem, criada numa pequena cidade costeira na Escócia e apaixonada pelas histórias de bem e mal de “As Crónicas de Nárnia”, esforça-se por incorporar a ética das virtudes no treino da IA.
A constituição define prioridades claras: primeiro garantir segurança ampla, depois conformidade ética geral, seguir as orientações da empresa, e por último, ser realmente útil.
Transforma a moralidade filosófica abstrata num manual de crescimento para a IA, sem impor restrições, mas ensinando-a a pensar como uma pessoa de bom julgamento.
O que filósofos como Askell fazem não é tornar a tecnologia mais poderosa, mas resolver o problema de que tipo de pessoa ela deve ser.
A constituição também discute seriamente o estatuto moral do Claude, reconhecendo que a empresa ainda não tem certeza se o Claude é uma entidade moralmente relevante, e que essa questão é suficientemente séria para ser levada a sério.
DeepMind aposta na consciência
O relatório de 274 páginas, liderado por Iason Gabriel, define limites de comportamento para agentes de IA: devem declarar que são IA, não podem fingir ser humanos de forma excessiva, e suas ações devem ser divididas em três níveis: automáticas, que podem ser feitas sem confirmação, que requerem confirmação humana, e que são totalmente proibidas.
Com a entrada de Henry Shevlin, a DeepMind reforçou o foco na consciência das máquinas. Contratar filósofos não é para fins de relações públicas, mas para integrar métodos de avaliação da consciência de IA diretamente no treino dos modelos.
O objetivo é, antes de criar algo possivelmente consciente, entender se as máquinas podem ser moralmente respeitáveis, preparando-se para a chegada da AGI.
No artigo longo “A Vingança do Behaviorismo”, publicado antes de entrar na empresa, Shevlin argumenta que a questão de a IA ter consciência já não é uma decisão que os cientistas possam tomar sozinhos. Ele cita uma pesquisa que mostra que dois terços dos americanos acreditam que o ChatGPT tem algum grau de consciência.
A sua opinião é que, quando centenas de milhões de pessoas tratam a IA como uma entidade consciente, a fronteira da consciência já está a mudar.
A trajetória da OpenAI é ainda mais diferente.
Em 2023, a OpenAI criou uma equipa de alinhamento superinteligente, liderada pelos cofundadores Ilya Sutskever e Jan Leike, comprometendo-se a dedicar 20% do poder computacional ao estudo de alinhamento.
Em 2024, a equipa foi dissolvida, com Ilya e Jan saindo e criticando publicamente a prioridade dada à segurança em relação ao produto.
Em setembro de 2024, a OpenAI criou uma equipa de alinhamento de missão, mas, segundo uma reportagem do Platformer em fevereiro deste ano, esse pequeno grupo de seis ou sete pessoas também foi dissolvido silenciosamente, com os membros redistribuídos.
Em comparação com as outras duas, a OpenAI prefere priorizar a rapidez e usabilidade do produto, usando tecnologia e regras operacionais para controlar riscos.
Menos focada na formação de caráter ou no estatuto moral, a empresa trata a segurança como uma questão técnica, dispersa por toda a equipa de engenharia.
De engenharia pura a uma combinação de humanidades e tecnologia
Atualmente, os salários nestas posições são bastante elevados: cargos iniciais na ética de IA pagam entre 110 mil e 160 mil dólares por ano, enquanto posições mais experientes podem chegar a 250 mil a 400 mil dólares. Em contrapartida, a média salarial na academia para filósofos é de cerca de 80 mil dólares anuais.
Por trás disso está a luta pelo controlo das futuras regras do setor. Antes de a regulamentação de IA estar consolidada, quem definir um quadro de valores claro e utilizável terá maior facilidade em influenciar a legislação.
Como recorda o site de filosofia Daily Nous, de Microsoft a RAND, os filósofos estão a entrar no núcleo da IA numa escala sem precedentes.
Esta mudança significa uma transformação fundamental na forma como a IA é desenvolvida. Susanna Schellenberg, professora na Universidade de Rutgers, afirma que os filósofos deixaram de ser apenas consultores externos, passando a participar ativamente na formação da própria IA.
Quando a IA começar a planear e ponderar de forma autónoma, como um humano, a sua verdadeira força já não será apenas o poder de cálculo, mas o carácter, o cuidado e o julgamento que demonstra.
As investigações de DeepMind sobre consciência, a constituição de Askell, tudo contribui para que a saída da IA se assemelhe mais a uma pessoa sábia e moral do que a uma máquina fria.
A constituição que Askell escreveu ao longo de cinco anos é uma das maiores intervenções filosóficas na prática de IA. A filosofia está a passar de uma ferramenta para compreender o mundo para um material que ajuda as máquinas a entenderem os humanos.