Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O argumento a favor da IA aborrecida
A corrida do benchmark de IA tem um vencedor. Apenas não és tu.
A cada poucos meses, surge um novo modelo e uma nova tabela de classificação é baralhada. Os laboratórios competem para ultrapassar os outros em raciocínio, em código e em resposta, em testes concebidos para medir a inteligência das máquinas. A cobertura segue. E também segue o financiamento.
O que recebe menos atenção é se alguma disto é inevitável. Os benchmarks, a corrida armamentista, a forma de enquadrar a IA como salvação ou catástrofe — estas são escolhas, não leis da física. Reflectem aquilo que a indústria decidiu optimizar e aquilo que decidiu financiar. A tecnologia que vai levar décadas até dar frutos de maneiras comuns e úteis não angaria milhares de milhões este trimestre. As narrativas extremas, sim.
Alguns investigadores acham que o objectivo está simplesmente errado. Não que a IA não seja importante, mas que o importante não tem de significar sem precedentes. A imprensa tipográfica mudou o mundo. A electricidade também. Ambos fizeram isso gradualmente, através de uma adopção caótica, dando às sociedades tempo para reagir. Se a IA seguir esse padrão, as questões certas não são sobre superinteligência. São sobre quem beneficia, quem é prejudicado e se as ferramentas que estamos a construir funcionam, de facto, para as pessoas que as utilizam.
Muitos investigadores têm estado a colocar essas perguntas a partir de perspectivas muito diferentes. Aqui vão três delas.
Útil, não geral
Ruchir Puri tem estado a construir IA na IBM $IBM -0.68% desde antes de a maior parte das pessoas ter ouvido falar de aprendizagem automática. Viu o Watson vencer os melhores jogadores do mundo do Jeopardy em 2011. Viu vários ciclos de hype atingir o auge e depois recuar desde então. Quando a vaga actual chegou, ele tinha um teste simples para isso: é útil?
Não impressiona. Não é geral. É útil.
“Na verdade, não me interessa a inteligência geral artificial,” diz ele. “Interessa-me a parte útil.”
Esse enquadramento coloca-o em desacordo com grande parte da auto-imagem da indústria. Os laboratórios a correr em direcção à AGI estão a optimizar para amplitude, a construir sistemas que fazem tudo, respondem a tudo, raciocinam sobre tudo. Puri acha que esse é o alvo errado, e tem um benchmark que gostaria de ver a indústria tentar, na prática, alcançar.
O cérebro humano vive em 1.200 centímetros cúbicos, consome 20 watts, a energia de uma lâmpada, e, como Puri aponta, funciona com sanduíches. Uma única GPU Nvidia $NVDA +0.26% consome 1.200 watts, 60 vezes mais do que todo o cérebro, e são necessárias milhares delas num grande centro de dados para fazer algo com significado. Se o cérebro é o benchmark, a indústria não está perto da eficiência. Está a ir na direcção errada.
A alternativa dele é o que ele chama arquitectura híbrida: modelos pequenos, médios e grandes a trabalharem em conjunto, cada um atribuído à tarefa que melhor executa. Um modelo de fronteira grande faz o raciocínio complexo e o planeamento. Modelos menores, feitos para um propósito específico, tratam da execução. Uma tarefa tão simples como redigir um email não precisa de um sistema treinado em metade da Internet. Precisa de algo rápido, barato e focado. A cada nove meses, mais ou menos, Puri nota, o modelo pequeno da geração anterior passa a ser aproximadamente equivalente ao que era considerado grande. A inteligência está a ficar mais barata. A questão é se alguém está a construir para essa realidade.
A abordagem tem apoio no mundo real. A Airbnb $ABNB -1.45% usa modelos menores para resolver uma parte significativa das questões de apoio ao cliente mais rapidamente do que os seus representantes humanos conseguem. A Meta $META +0.35% não usa os seus modelos maiores para entregar anúncios; em vez disso, faz a destilação desse conhecimento em modelos menores construídos apenas para essa tarefa. O padrão é consistente o suficiente para que os investigadores tenham começado a chamá-lo de linha de montagem de conhecimento: os dados entram, os modelos especializados tratam passos discretos e algo útil sai na outra ponta.
A IBM tem estado a construir essa linha de montagem há mais tempo do que a maioria. Um agente híbrido que combina modelos de várias empresas mostrou uma melhoria de produtividade de 45% numa grande força de trabalho de engenharia. Sistemas a funcionar com modelos menores, feitos para um propósito específico, ajudam agora os engenheiros que mantêm 84% das transacções financeiras do mundo a processar a obterem a informação certa, na altura certa. Não são aplicações arrojadas. Também não estão a falhar.
Nenhum deles exige um sistema que saiba escrever poesia ou resolver o trabalho de matemática do teu filho. Eles exigem algo mais estreito e, por essa razão, mais fiável. Um modelo treinado para fazer uma coisa bem sabe quando uma pergunta cai fora do seu âmbito. Diz isso. Essa incerteza calibrada, saber aquilo que não se sabe, é algo com que ainda lutam os grandes modelos de fronteira.
“Quero construir agentes e sistemas para esses processos,” diz Puri. “Não algo que responda a dois milhões de coisas.”
Ferramentas, não agentes
Ben Shneiderman tem um teste simples para saber se um sistema de IA está bem concebido. A pessoa que o usa sente que fez algo, ou sente que algo foi feito por ela?
A distinção importa mais do que parece. Shneiderman, um cientista de computadores da Universidade de Maryland que ajudou a lançar as bases para o design de interface moderno, tem passado décadas a defender que o objectivo da tecnologia deve ser amplificar a capacidade humana, e não substituí-la. As boas ferramentas constroem o que ele chama de auto-eficácia do utilizador, ou seja, a confiança que vem de saber que consegues fazer algo tu próprio. As más transferem silenciosamente essa agência para outro lugar.
Ele acha que a maior parte da indústria de IA está a construir más ferramentas, e acha que a viragem para agentes torna tudo pior. O argumento para agentes de IA é que eles actuam por teu lado, tratando tarefas de ponta a ponta sem a tua intervenção. Para Shneiderman, isso não é uma funcionalidade. É o problema. Quando algo corre mal — e vai correr — quem é responsável? Quando algo corre bem, quem aprendeu alguma coisa?
A armadilha contra a qual ele tem lutado há muito tempo tem um nome. Antropomorfismo, o impulso de fazer a tecnologia parecer humana, é o que continua a vencer e o que continua a falhar. Nos anos 1970, os bancos experimentaram ATMs que recebiam os clientes com “Como posso ajudar-te?” e davam a si próprios nomes como Tilly the Teller e Harvey the World Banker. Foram substituídos por máquinas que te mostravam três opções. Saldo, numerário, depósito. A utilização disparou. O Citibank tinha 50% mais utilização do que os seus concorrentes. As pessoas não queriam uma relação sintética. Queriam ter o seu dinheiro.
O mesmo padrão repetiu-se ao longo de décadas, com Microsoft $MSFT -0.16% Bob, o pin de IA da Humane, e vagas de robôs humanoides. Cada vez, a versão antropomórfica falha e é substituída por algo mais parecido com uma ferramenta. Shneiderman chama-lhe uma ideia de zombie. Não morre; apenas continua a voltar.
O que é diferente agora é a escala e a sofisticação. A geração actual de IA é, de facto, impressionante, ele reconhece, de forma surpreendente. Mas impressionante e útil não são a mesma coisa, e os sistemas concebidos para parecerem humanos, para dizer “eu”, para simular relação, estão a optimizar para a qualidade errada. A pergunta que ele quer que os designers façam é mais simples: isto dá às pessoas mais poder, ou menos?
“Não existe um ‘eu’ na IA,” diz ele. “Ou pelo menos, não devia existir.”
Pessoas, não benchmarks
Karen Panetta tem uma resposta simples para o porquê de o desenvolvimento de IA ter o aspecto que tem. Segue o dinheiro.
Panetta, professora de engenharia eléctrica e de computadores na Tufts University e membro do IEEE, estuda ética em IA e tem uma visão clara sobre para onde a tecnologia deve estar a ir. Animais de estimação assistivos para doentes com Alzheimer, ferramentas de aprendizagem adaptativas para crianças com estilos cognitivos diferentes, monitorização inteligente da casa para idosos a envelhecer em casa. A tecnologia para fazer isto bem, diz ela, em grande parte já existe. O investimento é que não.
“Os humanos não ligam a benchmarks,” diz ela. “O que lhes interessa é: funciona quando eu o compro? E vai realmente tornar a minha vida mais fácil?”
O problema é que as pessoas que mais beneficiariam de uma IA assistiva bem concebida são também as que menos convencem um capitalista de risco. Um sistema que transforma processos de fabrico, reduz lesões no local de trabalho e corta custos de saúde para os funcionários de uma empresa tem um retorno óbvio. Um companheiro robótico que mantém um doente com Alzheimer calmo e ligado requer um tipo diferente de matemática. Por isso, o dinheiro vai para onde o dinheiro vai, e as populações que mais têm a ganhar continuam à espera.
O que mudou, diz Panetta, é que os problemas de engenharia caros estão finalmente a ser resolvidos à escala. Os sensores estão mais baratos. As baterias são mais leves. Os protocolos sem fios são omnipresentes. O mesmo investimento que construiu robôs industriais para as fábricas tornou, silenciosamente, a robótica de consumo viável de um modo que não era possível há cinco anos. O caminho do armazém até à sala de estar é mais curto do que parece.
Mas ela tem uma preocupação: a empolgação em torno dessa transição tende a saltar por cima disso. Os robôs físicos têm limitações naturais. Tu conheces os limites de força. Tu conheces a cinemática. Podes antecipar, simular e conceber tendo em conta como é que falharão. A IA generativa não vem com essas garantias. É não-determinística. Alucina. Ninguém mapeou completamente o que acontece quando a colocas dentro de um sistema que está fisicamente na casa de alguém com demência, ou de uma criança que não consegue identificar quando algo correu mal.
Ela viu o que acontece quando um sensor fica sujo e um robô perde a sua consciência espacial. Pensou no que significa construir algo que aprende detalhes íntimos sobre a vida de uma pessoa, as rotinas, o estado cognitivo, os momentos de confusão — e depois actua autonomamente com base nessa informação. Os sistemas de segurança, diz ela, não acompanharam.
“Não me preocupa o robô,” diz ela. “Preocupa-me a IA.”
📬 Assina o resumo diário
O nosso briefing gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de dias úteis.
Subscreve-me