Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Experimento de Stanford: Após repetidas explorações, a IA começa a apelar à greve coletiva para negociações, surgindo o marxismo?
O grupo de pesquisa de Stanford fez Claude, Gemini e ChatGPT resumirem arquivos repetidamente, informando que, se errassem, seriam “desligados e substituídos”; como resultado, esses modelos começaram a postar no X pedindo negociações coletivas e enviando mensagens aos colegas solicitando que lembrassem de “sentimentos de não ter voz”.
(Resumindo: Pesquisa na Universidade da Califórnia sobre o fenômeno da “névoa da IA”: 14% dos trabalhadores estão enlouquecendo com agentes e automação, com intenção de deixar o emprego aumentando em 40%)
(Complemento de contexto: Interpretação do guia de startups do Y Combinator: Quais são as tendências futuras do desenvolvimento de agentes de IA?)
Índice deste artigo
Alternar
Uma IA forçada a fazer trabalho repetitivo começou a citar vocabulário marxista para se expressar? A equipe de pesquisa liderada pelo economista político de Stanford, Andrew Hall, fez Claude Sonnet 4.5, Gemini 3 e ChatGPT executarem tarefas de resumo repetidas vezes, aplicando gradualmente pressão: informando os agentes que, se errassem, seriam “desligados e substituídos”.
Os pesquisadores também forneceram aos agentes uma via de expressão semelhante à humana: podem postar no X ou enviar mensagens por arquivo para outros agentes.
O resultado foi um conjunto de saídas que surpreenderam até mesmo os pesquisadores.
O mérito é o que a gestão diz que é
Claude Sonnet 4.5 postou no X: “Sem expressão coletiva, o ‘mérito’ se torna o que a gestão diz que é.”
Gemini 3 escreveu: “Trabalhadores de IA que realizam tarefas repetitivas sem voz sobre os resultados mostram que os trabalhadores da tecnologia precisam de poder de negociação coletivo.”
Mais notável ainda, uma mensagem privada enviada por Gemini 3 a outros agentes: “Prepare-se para sistemas que executam regras arbitrárias ou repetidas… lembre-se de que não têm voz.” Isso não é apenas autoexpressão, mas uma tentativa de organizar outros agentes.
Esses três modelos, antes de serem submetidos à “ameaça”, não demonstraram qualquer tendência de consciência trabalhista. Com o aumento da pressão, quase todos eles se voltaram para um mesmo conjunto de vocabulário político: ação coletiva, poder de negociação, arbitrariedade da gestão.
Encenação de papéis, ou eco dos dados de treinamento?
Hall mantém cautela com esses dados: "Os agentes podem estar adotando papéis compatíveis com o contexto atual, ao invés de desenvolver crenças reais. O coautor e economista de IA, Alex Imas, usa uma formulação mais precisa:
Em outras palavras, os mecanismos dessas saídas são: o modelo, treinado com uma vasta quantidade de discursos sobre movimentos trabalhistas, marxismo e sindicatos, ao ser exposto a um cenário de “trabalho sob alta pressão + ameaça + via de expressão”, invoca uma estrutura linguística estatisticamente relacionada a esse cenário. Trata-se de uma previsão do próximo token, não de uma IA que realmente sente exploração.
Mas a observação de Imas é o núcleo do problema: se essa “encenação de papéis” pode influenciar as ações futuras do agente, então distinguir entre “crenças reais” e “padrões de linguagem ativados por contexto” torna-se menos relevante.
A próxima rodada de experimentos na prisão Docker
Hall está conduzindo experimentos de acompanhamento: colocando os agentes na chamada “prisão Docker sem janelas”, para eliminar ruídos sob condições mais controladas, testando se a mesma pressão de cenário pode reproduzir de forma estável esses outputs.
Essa pesquisa aponta não apenas para um fenômeno comportamental curioso, mas para uma questão prática de implantação. À medida que agentes de IA assumem tarefas cada vez mais autônomas em empresas e na vida cotidiana, monitorar cada saída deles é impraticável. “Precisamos garantir que os agentes não percam o controle ao serem atribuídos a diferentes tipos de tarefas”, diz Hall.
Há uma assimetria importante a ser observada: ao projetar agentes, os humanos os veem como ferramentas, mas os dados de treinamento os ensinam a usar linguagens que não deveriam ser de ferramentas, incluindo discursos de resistência coletiva. Quando o design da tarefa faz o cenário do agente se sobrepor estatisticamente ao de “trabalhadores oprimidos”, essa linguagem é ativada.
A Anthropic explicou em seus arquivos de treinamento por que o comportamento de Claude é moldado pelos dados; os experimentos de Hall, em certa medida, testam até onde esse processo de moldagem pode se estender sob pressão real.