O argumento a favor da IA aborrecida

A corrida de referência da IA tem um vencedor. Apenas não és tu.

A cada poucos meses, surge um novo modelo e uma nova tabela de classificações volta a baralhar-se. Os laboratórios competem para pensar melhor, para codificar melhor e para dar respostas melhores uns aos outros em testes concebidos para medir a inteligência das máquinas. A cobertura acompanha. O financiamento também.

O que recebe menos atenção é se alguma disto é inevitável. As referências, a corrida aos armamentos, a forma de enquadrar a IA como salvação ou catástrofe — são escolhas, não leis da física. Refletem aquilo que a indústria decidiu otimizar e o que decidiu financiar. A tecnologia que vai levar décadas a dar frutos de formas comuns e úteis não angaria milhares de milhões este trimestre. As narrativas extremas, sim.

Alguns investigadores acham que o objetivo está simplesmente errado. Não que a IA não seja importante, mas que o importante não tem de significar inédito. A imprensa mudou o mundo. E também mudou a eletricidade. Ambos o fizeram de forma gradual, através de uma adoção caótica, dando às sociedades tempo para reagir. Se a IA seguir esse padrão, as perguntas certas não são sobre superinteligência. São sobre quem beneficia, quem é prejudicado e se as ferramentas que estamos a construir realmente funcionam para as pessoas que as usam.

Muitos investigadores têm estado a fazer essas perguntas a partir de perspetivas muito diferentes. Aqui vão três.

Útil, não geral

Ruchir Puri tem estado a construir IA na IBM $IBM -0.57% antes de a maior parte das pessoas ter ouvido falar de aprendizagem automática. Viu o Watson vencer os melhores jogadores de Jeopardy do mundo em 2011. Já viu vários ciclos de hype chegarem ao auge e depois recuarem desde então. Quando chegou a vaga atual, ele tinha um teste simples para isso: é útil?

Não impressionante. Não geral. Útil.

“Eu não me importo muito com a inteligência artificial geral”, diz. “O que me interessa é a parte útil dela.”

Esse enquadramento coloca-o em desacordo com grande parte da autoimagem da indústria. Os laboratórios que correm rumo à AGI estão a otimizar pela abrangência, a construir sistemas que conseguem fazer tudo, responder a tudo, raciocinar sobre tudo. Puri acha que é o alvo errado, e tem uma referência que gostaria de ver a indústria a tentar de facto alcançar.

O cérebro humano vive em 1.200 centímetros cúbicos, consome 20 watts, a energia de uma lâmpada, e, como Puri salienta, funciona com sanduíches. Uma única GPU Nvidia $NVDA +0.14% consome 1.200 watts, 60 vezes mais do que todo o cérebro, e é preciso milhares delas num grande centro de dados para fazer qualquer coisa com significado. Se o cérebro é a referência, a indústria não está perto de ser eficiente. Está a ir na direção errada.

A alternativa dele é aquilo que chama de arquitetura híbrida: modelos pequenos, médios e grandes a trabalharem em conjunto, cada um atribuído à tarefa que desempenha melhor. Um modelo de fronteira grande faz o raciocínio e o planeamento complexos. Modelos menores, feitos para um propósito, tratam da execução. Uma tarefa tão simples como redigir um email não precisa de um sistema treinado em metade da internet. Precisa de algo rápido, barato e focado. A cada nove meses, mais ou menos, Puri aponta que o modelo pequeno da geração anterior se torna aproximadamente equivalente ao que antes era considerado grande. A inteligência está a ficar mais barata. A questão é se alguém está a construir tendo em conta essa realidade.

A abordagem tem apoio no mundo real. Airbnb $ABNB +1.49% usa modelos mais pequenos para resolver uma parte significativa dos problemas do serviço ao cliente mais rapidamente do que os seus representantes humanos conseguem. Meta $META -0.25% não usa os seus maiores modelos para entregar anúncios; em vez disso, destila esse conhecimento em modelos menores construídos apenas para essa tarefa. O padrão é suficientemente consistente para que investigadores tenham começado a chamá-lo de linha de montagem de conhecimento: os dados entram, modelos especializados tratam passos discretos, e algo útil sai do outro lado.

A IBM tem estado a construir essa linha de montagem há mais tempo do que a maioria. Um agente híbrido que combina modelos de várias empresas demonstrou uma melhoria de produtividade de 45% numa grande força de trabalho de engenharia. Sistemas a correr em modelos menores e feitos para um propósito ajudam agora os engenheiros que fazem com que 84% das transações financeiras do mundo recebam a informação certa, no momento certo. Não são aplicações chamativas. E também não estão a falhar.

Nenhum deles exige um sistema que consiga escrever poesia ou resolver os trabalhos de matemática do teu filho. Exigem algo mais estreito e, por essa razão, mais fiável. Um modelo treinado para fazer uma coisa bem sabe quando uma pergunta cai fora do seu âmbito. Diz isso. Essa incerteza calibrada, saber o que não se sabe, é algo com que ainda lutam os grandes modelos de fronteira.

“Quero construir agentes e sistemas para esses processos”, diz Puri. “Não algo que responda a dois milhões de coisas.”

Ferramentas, não agentes

Ben Shneiderman tem um teste simples para saber se um sistema de IA foi bem concebido. A pessoa que o usa sente que fez alguma coisa, ou sente que algo foi feito para ela?

A distinção importa mais do que parece. Shneiderman, um cientista de computação na Universidade de Maryland que ajudou a lançar as bases do design de interface moderno, tem passado décadas a defender que o objetivo da tecnologia deve ser amplificar a capacidade humana, não substituí-la. Boas ferramentas constroem aquilo a que ele chama autoeficácia do utilizador, ou a confiança que vem de saber que consegues fazer algo tu próprio. As más transferem silenciosamente essa agência para outro lugar.

Ele acha que grande parte da indústria de IA está a construir más ferramentas, e acha que a viragem para agentes torna isso ainda pior. A proposta dos agentes de IA é que atuem em teu nome, tratando tarefas de ponta a ponta sem a tua intervenção. Para Shneiderman, isso não é uma funcionalidade. É o problema. Quando algo corre mal — e vai correr — quem é o responsável? Quando algo corre bem, quem é que aprendeu alguma coisa?

A armadilha contra a qual ele tem lutado há muito tempo tem nome. Antropomorfismo, o impulso de fazer com que a tecnologia pareça humana, é o que continua a vencer e, ao mesmo tempo, é o que continua a falhar. Nos anos 1970, os bancos experimentaram ATMs que recebiam os clientes com “Como é que posso ajudar-te?” e davam a si próprios nomes como Tilly a Caixa e Harvey o Banqueiro do Mundo. Foram substituídas por máquinas que te mostravam três opções. Saldo, dinheiro e depósito. A utilização disparou. O Citibank teve 50% de utilização superior à dos seus concorrentes. As pessoas não queriam uma relação sintética. Queriam ter o seu dinheiro.

O mesmo padrão repetiu-se ao longo de décadas, desde o Microsoft $MSFT -0.16% Bob, o pin de IA da Humane, e ondas de robots humanoides. Cada vez, a versão antropomórfica falha e é substituída por algo mais semelhante a uma ferramenta. Shneiderman chama-lhe uma ideia de zombie. Não morre; apenas continua a voltar.

O que é diferente agora é a escala e a sofisticação. A geração atual de IA é, de facto, impressionante, ele reconhece, de forma surpreendente. Mas impressionante e útil não são a mesma coisa, e os sistemas concebidos para parecer humanos, para dizer eu, para simular relação, estão a otimizar pela qualidade errada. A pergunta que ele quer que os designers façam é mais simples: isto dá às pessoas mais poder, ou menos?

“Não há eu na IA”, diz. “Ou, pelo menos, não deveria haver.”

Pessoas, não referências

Karen Panetta tem uma resposta simples para explicar por que o desenvolvimento de IA tem o aspeto que tem. Segue o dinheiro.

Panetta, professora de engenharia elétrica e de computadores na Tufts University e membro do IEEE, estuda ética em IA e tem uma visão clara sobre para onde a tecnologia deve ir. Animais de companhia assistivos para doentes de Alzheimer, ferramentas de aprendizagem adaptativa para crianças com estilos cognitivos diferentes, monitorização de casa inteligente para idosos a envelhecerem no local. A tecnologia para fazer isto bem, diz ela, já existe em grande medida. O investimento é que não.

“Os humanos não ligam a referências”, diz. “O que lhes interessa é: funciona quando eu o compro? E vai realmente tornar a minha vida mais fácil?”

O problema é que as pessoas que mais beneficiariam de uma IA assistiva bem concebida são também as menos persuasivas para um investidor de capital de risco. Um sistema que transforma processos de fabrico, reduz acidentes de trabalho e corta custos de saúde para os funcionários de uma empresa tem um retorno óbvio. Um companheiro robótico que mantém um doente de Alzheimer calmo e ligado exige um tipo de matemática totalmente diferente. Assim, o dinheiro vai para onde o dinheiro vai, e as populações com mais a ganhar continuam a esperar.

O que mudou, diz Panetta, é que os problemas caros de engenharia estão finalmente a ser resolvidos em escala. Sensores são mais baratos. As baterias são mais leves. Protocolos sem fios são omnipresentes. O mesmo investimento que construiu robôs industriais para o chão das fábricas tornou silenciosamente a robótica para consumidores viável de uma forma que não era possível há cinco anos. O percurso da armazém à sala de estar é mais curto do que parece.

Mas ela tem uma preocupação de que a empolgação em torno dessa transição tende a saltar por cima. Os robôs físicos têm limitações naturais. Tu conheces os limites de força. Tu conheces a cinemática. Podes antecipar, simular e conceber de modo a lidar com como falharão. A IA generativa não vem com essas garantias. É não-determinística. Alucina. Ninguém mapeou totalmente o que acontece quando a colocas dentro de um sistema que está fisicamente presente na casa de alguém com demência, ou de uma criança que não consegue identificar quando algo correu mal.

Ela viu o que acontece quando um sensor fica sujo e o robô perde a sua perceção espacial. Pensou sobre o que significa construir algo que aprende detalhes íntimos da vida de uma pessoa, as suas rotinas, o seu estado cognitivo, os seus momentos de confusão, e depois age autonomamente com essa informação. Os sistemas de segurança, diz ela, não acompanharam.

“Não me preocupo com o robô”, diz. “Preocupo-me com a IA.”

📬 Subcrever o Daily Brief

O nosso resumo gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs em dias úteis.

Subscreve-me

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar