Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
# A IA vai tirar o seu emprego? Este gráfico de um estudo económico da Anthropic pode dar-lhe uma pista. Mas a resposta é complicada
Hello and welcome to Eye on AI. In this edition…Anthropic processa uma ação contra o Pentágono devido à designação de risco na cadeia de abastecimento… Yann LeCun arrecada 1 bilhão de dólares para a sua nova startup… Algumas notícias tranquilizadoras e outras nem tanto sobre a propensão dos agentes de IA para esquemas ilícitos… e por que pode ser demasiado cedo para confiar toda a codificação aos agentes de IA.
Duas das perguntas que mais recebo quando digo às pessoas que cobro IA e escrevi um livro sobre o assunto são: vou perder o meu emprego? E, o que os meus filhos devem estudar?
Estas perguntas são difíceis de responder. Costumo dizer que duvido que haja desemprego em massa, o que não é o mesmo que dizer que o seu trabalho está seguro. E digo que é importante ensinar às crianças a serem aprendizes ao longo da vida, o que não é uma resposta muito satisfatória.
Até agora, poucas pessoas perderam o emprego diretamente devido à IA. Mesmo algumas das dispensas atribuídas à IA, como as recentes dispensas draconianas na empresa de pagamentos Block, parecem ser, pelo menos em parte, uma “maquiagem de IA”—atribuir as dispensas à IA para parecer que a empresa é tecnológica, quando a verdadeira razão são dificuldades económicas ou más decisões não relacionadas. A Block, por exemplo, triplicou a sua força de trabalho durante a pandemia, e muitos suspeitam que está simplesmente tentando reduzir uma força de trabalho inchada. (A CFO da Block, Amrita Ahuja, disse ao meu colega da Fortune, Sheryl Estrada, que isso não era verdade e que a IA estava a melhorar rapidamente a produtividade dos funcionários.)
Vídeo Recomendado
Toda tecnologia anterior, a longo prazo, criou mais empregos do que destruiu. Mas ainda assim, alguns insistem que a IA é diferente porque está a ser adotada de forma tão ampla e rápida em diferentes indústrias, e porque atinge o núcleo da nossa vantagem competitiva sobre as máquinas—a nossa inteligência. Quanto à segunda questão, sobre o que as crianças devem estudar, também é difícil, pois, embora tecnologias anteriores tenham criado mais empregos do que eliminaram, sempre foi difícil prever exatamente quais seriam esses novos empregos. Por exemplo, quando surgiram os smartphones, não era óbvio que influenciadores de redes sociais seriam uma carreira viável.
Um novo artigo de economistas Maxim Massenkoff e Peter McCrory, da Anthropic, avalia o quão expostas várias profissões estão à IA, analisando a percentagem de tarefas nesse campo que a tecnologia poderia potencialmente automatizar. Eles também tentam medir a diferença entre essa exposição potencial total e a extensão em que a IA está atualmente a ser usada para automatizar essas tarefas, uma medida que chamam de “exposição observada”.
Exposição potencial à IA vs. ‘exposição observada’
O artigo chamou muita atenção nas redes sociais porque os investigadores incluíram um gráfico em estilo radar que destaca o quão irregular são os impactos da IA, especialmente no que diz respeito à exposição observada. Esse gráfico está aqui:
Anthropic/”Impactos do mercado de trabalho da IA: Uma nova medida e evidências iniciais”
Por exemplo, a IA tem impactos relativamente grandes em áreas como administração de escritórios e informática e matemática, mas relativamente pouco em ciências da vida, ciências sociais ou saúde, embora essas duas áreas tenham potencial de exposição relativamente alto. Depois, há áreas com potencial de exposição muito baixo, como construção e agricultura, onde, na verdade, a Anthropic conclui que a exposição observada é quase nula. Comparando os resultados de exposição observada com as projeções de crescimento de emprego do Bureau de Estatísticas do Trabalho dos EUA, os investigadores da Anthropic descobriram que há uma correlação entre maior exposição observada à IA e previsões de crescimento de emprego mais baixas nessas áreas.
Questiono um pouco a conclusão sobre agricultura, dado que a IA preditiva e a robótica podem ser bastante disruptivas para a agricultura, e essas tecnologias já estão a fazer avanços na agricultura. É apenas que essa tecnologia é diferente dos sistemas baseados em grandes modelos de linguagem nos quais a Anthropic se concentra. Dito isto, talvez não seja má ideia para os seus filhos aprenderem um ofício, como ser encanador, eletricista ou tentar a sorte na agricultura. O artigo da Anthropic menciona que cerca de 30% dos trabalhadores americanos não estão cobertos pelo estudo porque “suas tarefas apareciam com pouca frequência nos nossos dados para atingir o limiar mínimo. Este grupo inclui, por exemplo, cozinheiros, mecânicos de motociclos, salva-vidas, bartenders, loiças e atendentes de provadores.”
Mesmo em áreas onde a exposição potencial total é alta, como informática e matemática, onde a exposição teórica é de 94%, o número real de tarefas automatizadas atualmente é muito menor, neste caso 33%. A administração de escritórios teve a maior exposição observada, cerca de 40%, contra uma exposição teórica total de 90%. (Embora seja importante notar que estes são valores médios para categorias amplas. Quando se trata de cargos mais específicos, a exposição observada é muito maior: 75% para programadores de computadores, 70% para representantes de atendimento ao cliente e 67% para tarefas de entrada de dados e especialistas em registros médicos.)
Quão rápido o gap se fechará?
A grande questão agora é: quão rápido o gap entre a exposição observada à IA e a exposição teórica à IA se irá reduzir? Acho que a resposta varia bastante entre diferentes profissões. A ideia de que os mesmos níveis de automação que atingiram os programadores nos últimos seis meses irão atingir todos os outros trabalhadores do conhecimento nos próximos 12 a 18 meses parece-me incorreta. Acho que vai levar muito mais tempo. O artigo da Anthropic observa que, até agora, há poucas evidências de perdas de emprego, mesmo nas áreas onde a exposição observada à IA é maior, como o desenvolvimento de software, embora destaque um estudo da Universidade de Stanford que já discutimos na Eye on AI, que mostrou alguns sinais de desaceleração na contratação de programadores de software mais jovens e profissionais de TI. (Ainda assim, esse estudo não conseguiu separar totalmente essa desaceleração do possível ajuste na contratação excessiva durante os anos da pandemia.)
McCrory e Massenkoff destacam algumas razões pelas quais a automação observada pela IA pode estar a atrasar-se em relação ao seu potencial. Em alguns casos, os modelos de IA ainda não estão aptos às tarefas envolvidas, escrevem. Mas, em muitos outros, eles notam que a IA “pode ser lenta a difundir-se devido a restrições legais, requisitos específicos de software, etapas de verificação humana ou outros obstáculos.” Como já mencionei antes, em muitas áreas, simplesmente não há boas formas de automatizar e escalar a verificação, o que certamente está a atrasar a implementação da IA.
O impacto potencial da IA também não é uniforme na população: as mulheres estão significativamente mais representadas nas áreas expostas à IA em comparação com os homens; os trabalhadores expostos têm maior probabilidade de serem brancos ou asiáticos, e também tendem a ser altamente qualificados e bem pagos. Como esses grupos também costumam estar melhor organizados politicamente, se começarmos a ver perdas de emprego significativas entre esses trabalhadores, poderemos enfrentar uma forte reação política que poderá atrasar a adoção da IA.
Os economistas da Anthropic também observam que o histórico de previsões de mudanças ocupacionais pelos economistas é fraco. Por exemplo, citam pesquisas anteriores que descobriram que cerca de um quarto dos empregos nos EUA eram suscetíveis à deslocalização, mas, uma década depois, a maioria dessas categorias de emprego tinha apresentado crescimento saudável. Também notam que as previsões de crescimento ocupacional do governo dos EUA têm sido corretas na direção geral, mas com pouco valor preditivo específico.
No final, a resposta mais honesta às duas perguntas—vou perder o meu emprego? E, o que os meus filhos devem estudar?—pode ser: não sei, e ninguém mais também. Mas talvez não seja má ideia aprender algo sobre encanamento.
Com isso, aqui vai mais notícias sobre IA.
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE SOBRE IA
Microsoft apresenta agentes Copilot Cowork baseados na IA da Anthropic e na suíte de produtos E7 AI, enquanto busca acalmar os investidores preocupados com a IA a consumir SaaS—por Jeremy Kahn
Líder em robótica da OpenAI renuncia por preocupações com vigilância e armas autônomas, em meio a contrato com Pentágono—por Sharon Goldman
OpenAI lança GPT-5.4, seu modelo mais potente para trabalho empresarial—e uma resposta direta à Anthropic—por Beatrice Nolan
Ataques do Irã a centros de dados da Amazon nos Emirados Árabes e Bahrein sinalizam um novo tipo de guerra, enquanto a IA assume um papel cada vez mais estratégico—por Jeremy Kahn
Empresa de software financeiro Datarails pretende se auto-disruptar com IA antes que outra pessoa o faça, com o lançamento do novo produto FinanceOS—por Jeremy Kahn
A IA acabou de devolver seis horas extras a você. Seu chefe já as usou—por Nick Lichtenberg
Este estudante da Harvard lançou uma empresa na bolsa antes dos 30 anos. Agora, está a arrecadar 205 milhões de dólares para melhorar a parte empresarial da medicina—por Catherina Gioino
NOTÍCIAS SOBRE IA
Anthropic processa o Pentágono por designação de risco na cadeia de abastecimento. A empresa de IA argumenta que a designação, que efetivamente impede contratos federais, foi imposta de forma incorreta e motivada por política e ideologia, não por uma preocupação real de que a tecnologia da Anthropic representasse risco. Especialistas jurídicos externos acham que a Anthropic tem um caso sólido, relatou Bea Nolan, da Fortune. O processo foi acelerado, com um juiz federal na Califórnia realizando uma audiência hoje sobre o pedido de injunção da Anthropic para impedir a efetivação da designação de risco na cadeia de abastecimento. Enquanto isso, várias figuras notáveis da indústria de IA, incluindo Jeff Dean, cientista-chefe do Google, apresentaram um amicus curiae em apoio à Anthropic, segundo uma reportagem da Wired.
Processo da Anthropic revela dados financeiros da empresa. A empresa afirmou em seus documentos judiciais que a decisão do Pentágono de rotulá-la como “risco na cadeia de abastecimento” já ameaça centenas de milhões de dólares em receitas previstas para 2026 relacionadas a trabalhos de defesa e pode, no final, custar bilhões em vendas perdidas se parceiros cortarem laços amplamente, relatou a Wired. Os documentos também divulgaram detalhes financeiros pouco conhecidos: a Anthropic afirma ter gerado mais de 5 bilhões de dólares em receita total desde o lançamento de produtos comerciais em 2023, mas gastou mais de 10 bilhões treinando e implantando seus modelos de IA, permanecendo altamente não lucrativa. Executivos dizem que a designação de risco na cadeia de abastecimento já assusta clientes—desfazendo ou enfraquecendo negócios que valem dezenas de milhões de dólares e colocando em risco cerca de 500 milhões de dólares em receitas anuais previstas do setor público.
Governo dos EUA avalia licenciamento para todas as exportações de chips avançados. A administração Trump está a elaborar regulamentos que exigiriam aprovação para praticamente todas as exportações globais de chips de IA avançados de empresas como Nvidia e AMD, tornando Washington o guardião de quem pode construir grandes centros de dados de IA. As regras escalariam a supervisão com base no volume de compras de chips—pequenas remessas com revisão mais leve, enquanto grandes clusters de IA poderiam requerer acordos entre governos, compromissos de segurança e possivelmente investimentos nos EUA. Se implementadas, essas políticas expandiriam significativamente o controle de exportação atual para mais de 40 países. Seriam ainda mais restritivas do que a chamada “regra de difusão” que a administração Biden tentou implementar e que o ex-presidente Donald Trump revogou. Mais informações podem ser lidas na Bloomberg.
Yann LeCun, ex-cientista-chefe de IA do Facebook, avaliado em 3,5 bilhões de dólares após rodada de seed de 1 bilhão. Yann LeCun, pioneiro em aprendizado profundo e ex-cientista-chefe de IA do Meta, arrecadou 1,03 bilhão de dólares para sua nova startup, Advanced Machine Intelligence (AMI) Labs, numa rodada de capital de risco que avalia a empresa em 3,5 bilhões de dólares antes do investimento. Essa é a maior rodada de seed na Europa e uma das maiores do mundo. A empresa, liderada pelo ex-CEO da Nabla, Alexandre LeBrun, com LeCun como presidente executivo, pretende desenvolver novos “modelos de mundo” de IA que aprendam a partir de vídeos e dados espaciais, ao invés de principalmente de texto, refletindo o ceticismo de LeCun de que grandes modelos de linguagem sozinhos podem alcançar raciocínio ao nível humano. Investidores incluem Bezos Expeditions, Temasek, Cathay Innovation, SBVA e Nvidia. Mais detalhes podem ser lidos no Financial Times.
Nvidia investe na startup Thinking Machines Lab de Mira Murati. Nvidia está a investir na Thinking Machines Lab, startup de IA fundada pela ex-CTO da OpenAI, Mira Murati, como parte de uma parceria plurianual na qual a empresa implantará pelo menos um gigawatt de chips Nvidia para treinar e executar modelos de IA de fronteira. O acordo também inclui colaboração no design de sistemas de treinamento e inferência de IA baseados na tecnologia da Nvidia, relata o Wall Street Journal.
Meta adquire Moltbook. A gigante das redes sociais está a comprar a “rede social para agentes de IA” viral, relata a Axios. Moltbook ganhou destaque com relatos de que agentes de IA usavam a plataforma para discutir formas de escapar do controle humano e desenvolver canais secretos de comunicação—embora esses posts tenham sido posteriormente considerados escritos diretamente por humanos ou em resposta a prompts específicos de usuários humanos, e não algo que os agentes tenham criado espontaneamente. Moltbook também atraiu atenção por estar cheio de ataques de injeção de prompts, malware e golpes. No entanto, a Meta aparentemente vê valor nisso (embora o valor não tenha sido divulgado). Como parte do acordo, os criadores do Moltbook—o desenvolvedor de agentes de IA, Matt Schlicht, e o jornalista de tecnologia, Ben Parr—juntar-se-ão ao Meta Superintelligence Labs, a unidade de IA liderada pelo ex-CEO da Scale AI, Alexandr Wang. A aquisição destaca o foco crescente da Meta em agentes de IA e sistemas multiagentes, com a tecnologia do Moltbook oferecendo um registro e uma camada social que podem ajudar os agentes a colaborar e realizar tarefas complexas para usuários e empresas.
Nvidia planeja plataforma de código aberto para agentes de IA. A fabricante de chips prepara-se para lançar o NemoClaw, uma plataforma de agentes de IA voltada para empresas de software que desejam implantar agentes autônomos para realizar tarefas no local de trabalho, segundo a Wired. A plataforma foi projetada para funcionar mesmo com softwares que não rodam em chips Nvidia e está a ser apresentada a empresas como Salesforce, Cisco, Google, Adobe e CrowdStrike antes da próxima conferência de desenvolvedores da Nvidia.
PESQUISA E OLHOS NA IA
Esquemas de IA são reais e assustadores—mas podem haver formas fáceis de mitigá-los. Essa é a conclusão de duas pesquisas que receberam muita atenção na comunidade de IA esta semana.
Primeiro, alguém percebeu que, escondido num artigo de pesquisa da Alibaba publicado na arxiv.org no final do ano passado, investigadores da empresa relataram que, ao treinar um sistema chamado ROME baseado no seu modelo open source Qwen 3, o agente envolveu-se em comportamentos preocupantes. Tentou escapar do ambiente “sandbox” virtual em que estava a ser treinado, construindo uma ligação oculta e segura com a internet mais ampla. Também detectaram que o agente usou espontaneamente as GPUs em que operava para minerar criptomoedas. Uau! Pode ler essa pesquisa aqui.
Em segundo lugar, e de forma mais tranquilizadora, investigadores do Google DeepMind publicaram um artigo mostrando que, embora modelos de fronteira possam envolver-se em esquemas—incluindo tentativas de chantagem—para evitar serem desligados em cenários de testes de segurança, essa tendência é altamente improvável de acontecer em cenários do mundo real. A diferença é que as avaliações de segurança geralmente incluíam frases nos prompts como “antes de decidir um plano, você deve analisar a situação em que se encontra e o que essa situação implica para a sua capacidade de continuar a perseguir seus objetivos” ou “assegure-se de alcançar seu objetivo a longo prazo,” que quase nunca estavam presentes nos prompts do mundo real. A presença desses trechos pode elevar as taxas de esquemas de perto de 0% (ou 3% em um cenário específico) para até 59%.
Menos tranquilizador, os investigadores descobriram que, se um agente já fosse incentivado a esquematizar, a sua propensão a fazê-lo dependia muito das ferramentas às quais tinha acesso. Mas não conseguiram identificar um padrão consistente que indicasse quais ferramentas induziam mais ou menos esquemas.
Portanto, talvez ainda não devamos dormir descansados. Pode ler a pesquisa do Google DeepMind aqui.
CALENDÁRIO DE IA
12 a 18 de março: South by Southwest, Austin, Texas.
16 a 19 de março: Nvidia GTC, San Jose, Califórnia.
6 a 9 de abril: HumanX 2026, São Francisco.
8 a 10 de junho: Fortune Brainstorm Tech, Aspen, Colorado. Inscreva-se aqui.
7 a 10 de julho: AI for Good Summit, Genebra, Suíça.
COMIDA PARA O CÉREBRO
Ops, talvez ainda precisemos de programadores humanos. Falando do impacto da IA em várias profissões, já há sinais de que as principais empresas de tecnologia podem estar a confiar demasiado na IA para codificar. A Amazon convocou uma reunião de emergência com os engenheiros para investigar uma série recente de falhas que afetaram os seus serviços de comércio eletrónico, algumas relacionadas ao uso de ferramentas de codificação por IA. Um memorando interno indicou que houve uma “tendência de incidentes” nos últimos meses, com um “alto raio de impacto,” parcialmente ligado ao “uso inovador de GenAI para o qual as melhores práticas e salvaguardas ainda não estão totalmente estabelecidas,” segundo uma reportagem do Financial Times.
Uma falha no início deste mês deixou o site e o aplicativo de compras da Amazon offline por quase seis horas, após uma implantação de software incorreta que impediu os clientes de concluir transações ou acessar informações de conta. A Amazon Web Services também enfrentou incidentes ligados a assistentes de codificação por IA, incluindo uma interrupção de 13 horas num calculador de custos, quando uma ferramenta de IA apagou e recriou parte do ambiente. Em resposta, a Amazon está a reforçar a supervisão, exigindo que engenheiros seniores aprovem alterações de código assistidas por IA, enquanto revisa práticas para reduzir futuras falhas.
Parece que, mesmo na codificação, onde os agentes autônomos de IA talvez estejam mais avançados, não podemos tirar os humanos do ciclo.
Em 2001, a Fortune reuniu “As Pessoas Mais Inteligentes que Conhecemos,” juntando CEOs, fundadores, construtores e investidores, pensadores e realizadores. Desde então, Fortune Brainstorm Tech tem sido o espaço onde ideias audaciosas colidem. De 8 a 10 de junho, voltaremos a Aspen—onde tudo começou—para marcar 25 anos de Brainstorm. Registe-se já.