Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O argumento a favor da IA aborrecida
A corrida de referência da IA tem um vencedor. Simplesmente não és tu.
De poucos em poucos meses, surge um novo modelo e uma nova tabela classificativa volta a baralhar tudo. Os laboratórios competem para pensar mais, programar melhor e dar respostas mais acertadas do que os outros, em testes concebidos para medir a inteligência das máquinas. A cobertura acompanha isto. O financiamento também.
O que recebe menos atenção é se alguma disto é inevitável. As referências, a corrida armamentista, o enquadramento da IA como salvação ou catástrofe — são escolhas, não leis da física. Reflectem aquilo que a indústria decidiu optimizar e aquilo que decidiu financiar. A tecnologia que vai demorar décadas a dar frutos em formas comuns e úteis não gera milhares de milhões de euros este trimestre. Narrativas extremas, sim.
Alguns investigadores acham que o objectivo está simplesmente errado. Não porque a IA não seja importante, mas porque “importante” não tem de significar “sem precedentes”. A imprensa mudou o mundo. A electricidade também. Ambos o fizeram de forma gradual, através de uma adopção confusa, dando às sociedades tempo para reagir. Se a IA seguir esse padrão, as perguntas certas não são sobre superinteligência. São sobre quem beneficia, quem é prejudicado e se as ferramentas que estamos a construir realmente funcionam para as pessoas que as usam.
Muitos investigadores têm vindo a colocar essas questões a partir de perspectivas muito diferentes. Aqui vão três delas.
Útil, não geral
Ruchir Puri tem estado a construir IA na IBM $IBM desde antes da maioria das pessoas ter ouvido falar de machine learning. Viu o Watson vencer os melhores jogadores do mundo do Jeopardy em 2011. Já assistiu a vários ciclos de hype a subir e a recuar desde então. Quando a vaga actual chegou, ele tinha um teste simples para isso: é útil?
Não impressiona. Não é geral. É útil.
“Eu não me importo muito com a inteligência geral artificial”, diz. “Importa-me a parte útil.”
Esse enquadramento coloca-o em desacordo com grande parte da autoimagem da indústria. Os laboratórios a correr em direcção à AGI estão a optimizar pela amplitude, construindo sistemas capazes de fazer qualquer coisa, responder a qualquer coisa, raciocinar sobre qualquer coisa. Puri acha que esse alvo está errado, e tem uma referência que gostaria de ver a indústria a tentar atingir de verdade.
O cérebro humano vive em 1.200 centímetros cúbicos, consome 20 watts, a energia de uma lâmpada, e, como o Puri sublinha, funciona com sandes. Uma única GPU Nvidia $NVDA consome 1.200 watts, 60 vezes mais do que todo o cérebro, e precisas de milhares delas num grande centro de dados para fazer qualquer coisa com significado. Se o cérebro for a referência, a indústria não está perto de ser eficiente. Está a ir na direcção errada.
A alternativa dele é o que chama de arquitectura híbrida: modelos pequenos, médios e grandes a trabalharem em conjunto, com cada um atribuído à tarefa que melhor desempenha. Um modelo de fronteira grande faz o raciocínio e o planeamento complexos. Modelos menores, construídos para um propósito específico, tratam da execução. Uma tarefa tão simples como redigir um email não precisa de um sistema treinado em metade da internet. Precisa de algo rápido, barato e focado. A cada nove meses ou mais, o Puri nota, o modelo pequeno da geração anterior fica aproximadamente equivalente ao que antes era considerado “grande”. A inteligência está a ficar mais barata. A questão é se alguém está a construir tendo em conta essa realidade.
A abordagem tem suporte no mundo real. A Airbnb $ABNB usa modelos menores para resolver uma parte significativa das questões de apoio ao cliente mais rapidamente do que os seus representantes humanos. A Meta $META não usa os seus maiores modelos para entregar anúncios; em vez disso, “destila” esse conhecimento em modelos menores construídos apenas para essa tarefa. O padrão é consistente o suficiente para que investigadores tenham começado a chamá-lo uma linha de montagem de conhecimento: o dado entra, modelos especializados tratam de passos discretos, e algo útil sai do outro lado.
A IBM tem vindo a construir essa linha de montagem há mais tempo do que a maioria. Um agente híbrido que combina modelos de várias empresas mostrou uma melhoria de 45% na produtividade ao longo de uma grande força de trabalho de engenharia. Sistemas a correr em modelos menores e feitos para um propósito específico agora ajudam os engenheiros que asseguram que 84% das transacções financeiras do mundo obtêm a informação certa, no momento certo. Estas não são aplicações “espectaculares”. Também não estão a falhar.
Nenhuma delas exige um sistema capaz de escrever poesia ou resolver os deveres de matemática do teu filho. Exigem algo mais limitado e, por isso mesmo, mais fiável. Um modelo treinado para fazer uma coisa bem sabe quando uma pergunta cai fora do seu âmbito. Diz isso. Essa incerteza calibrada — saber o que não sabes — é algo com que ainda lutam os grandes modelos de fronteira.
“Quero construir agentes e sistemas para esses processos”, diz o Puri. “Não algo que responda a dois milhões de coisas.”
Ferramentas, não agentes
Ben Shneiderman tem um teste simples para saber se um sistema de IA está bem concebido. A pessoa que o usa sente que fez alguma coisa, ou sente que foi algo feito para ela?
A diferença importa mais do que parece. Shneiderman, um cientista de computação na Universidade de Maryland que ajudou a lançar as bases para o design de interfaces moderno, tem passado décadas a defender que o objectivo da tecnologia deve ser amplificar a capacidade humana, não substituí-la. Boas ferramentas criam o que ele chama autoeficácia do utilizador, ou seja, a confiança que vem de saber que consegues fazer algo sozinho. As más transferem silenciosamente essa capacidade para outro lugar.
Ele acha que a maior parte da indústria de IA está a construir más ferramentas, e acha que a viragem para agentes torna isso ainda pior. A proposta dos agentes de IA é que actuem por ti, tratando tarefas de ponta a ponta sem a tua intervenção. Para Shneiderman, isso não é uma funcionalidade. É o problema. Quando algo corre mal — e vai correr — quem é o responsável? Quando algo corre bem, quem aprendeu alguma coisa?
A armadilha contra a qual ele tem lutado há muito tempo tem um nome. Antropomorfismo, o impulso de fazer com que a tecnologia pareça humana, é aquilo que continua a vencer e aquilo que continua a falhar. Nos anos 1970, os bancos testaram ATMs que cumprimentavam os clientes com “Como posso ajudar?” e davam a si próprios nomes como Tilly the Teller e Harvey the World Banker. Foram substituídas por máquinas que te mostravam três opções: Saldo, dinheiro e depósito. A utilização disparou. O Citibank tinha 50% mais uso do que os seus concorrentes. As pessoas não queriam uma relação sintética. Queriam era levantar o dinheiro.
O mesmo padrão repetiu-se ao longo de décadas, através do Microsoft $MSFT Bob, do pin de IA da Humane, e de vagas de robôs humanoides. Cada vez, a versão antropomórfica falha e é substituída por algo mais “à maneira de ferramenta”. Shneiderman chama-lhe uma ideia de zombie. Não morre, apenas volta sempre.
O que é diferente agora é a escala e a sofisticação. A geração actual de IA é, ele reconhece, genuinamente impressionante, de forma surpreendente. Mas impressionante e útil não são a mesma coisa, e sistemas desenhados para parecerem humanos, para dizer “eu”, para simular uma relação, estão a optimizar a qualidade errada. A pergunta que ele quer que os designers façam é mais simples: isto dá às pessoas mais poder, ou menos?
“Não há ‘eu’ na IA”, diz. “Ou pelo menos, não devia haver.”
Pessoas, não benchmarks
Karen Panetta tem uma resposta simples para explicar por que razão o desenvolvimento de IA tem o aspecto que tem. Segue o dinheiro.
Panetta, professora de engenharia eléctrica e de computadores na Tufts University e membro da IEEE, estuda ética em IA e tem uma visão clara de para onde a tecnologia deve ir. Animais de estimação assistivos para doentes com Alzheimer, ferramentas de aprendizagem adaptativa para crianças com estilos cognitivos diferentes, monitorização de casa inteligente para idosos a envelhecer no local. A tecnologia para fazer isto bem, diz ela, em grande medida já existe. O investimento não.
“Os humanos não ligam aos benchmarks”, diz. “Eles ligam a isto: funciona quando eu o compro, e vai mesmo tornar a minha vida mais fácil?”
O problema é que as pessoas que mais beneficiariam de uma IA assistiva bem concebida são também as menos atraentes para um capitalista de risco. Um sistema que transforma processos de fabrico, reduz acidentes no local de trabalho e corta custos de saúde para os empregados de uma empresa tem um retorno óbvio. Um companheiro robótico que mantém um doente com Alzheimer calmo e ligado exige um tipo de matemática totalmente diferente. Assim, o dinheiro vai para onde o dinheiro vai, e as populações com mais a ganhar continuam à espera.
O que mudou, diz Panetta, é que os caros problemas de engenharia finalmente estão a ser resolvidos em grande escala. Os sensores ficaram mais baratos. As baterias são mais leves. Os protocolos sem fios são ubíquos. O mesmo investimento que construiu robôs industriais para chão de fábrica tornou, em silêncio, a robótica para consumidores viável de um modo que não era possível há cinco anos. O caminho da armazém até à sala de estar é mais curto do que parece.
Mas ela tem uma preocupação: a empolgação em torno dessa transição tende a saltar por cima disso. Os robôs físicos têm limitações naturais. Conheces os limites de força. Conheces a cinemática. Consegues antecipar, simular e desenhar tendo em conta as formas como falharão. A IA generativa não traz essas garantias. É não-determinística. Alucina. Ninguém mapeou totalmente o que acontece quando a colocas num sistema fisicamente presente na casa de alguém com demência, ou numa criança que não consegue identificar quando algo correu mal.
Ela já viu o que acontece quando um sensor fica sujo e um robô perde a percepção espacial. Já pensou no que significa construir algo que aprende detalhes íntimos da vida de uma pessoa, as suas rotinas, o seu estado cognitivo, os seus momentos de confusão, e depois actua autonomamente com base nessa informação. Os mecanismos de falha segura, diz ela, não acompanharam.
“Não estou preocupado com o robô”, diz. “Estou preocupado com a IA.”
📬 Inscreve-te no Daily Brief
O nosso briefing gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de dia útil.
Inscrevam-me