O argumento a favor da IA aborrecida

A corrida de referência da IA tem um vencedor. Simplesmente não és tu.

De poucos em poucos meses, surge um novo modelo e uma nova tabela classificativa volta a baralhar tudo. Os laboratórios competem para pensar mais, programar melhor e dar respostas mais acertadas do que os outros, em testes concebidos para medir a inteligência das máquinas. A cobertura acompanha isto. O financiamento também.

O que recebe menos atenção é se alguma disto é inevitável. As referências, a corrida armamentista, o enquadramento da IA como salvação ou catástrofe — são escolhas, não leis da física. Reflectem aquilo que a indústria decidiu optimizar e aquilo que decidiu financiar. A tecnologia que vai demorar décadas a dar frutos em formas comuns e úteis não gera milhares de milhões de euros este trimestre. Narrativas extremas, sim.

Alguns investigadores acham que o objectivo está simplesmente errado. Não porque a IA não seja importante, mas porque “importante” não tem de significar “sem precedentes”. A imprensa mudou o mundo. A electricidade também. Ambos o fizeram de forma gradual, através de uma adopção confusa, dando às sociedades tempo para reagir. Se a IA seguir esse padrão, as perguntas certas não são sobre superinteligência. São sobre quem beneficia, quem é prejudicado e se as ferramentas que estamos a construir realmente funcionam para as pessoas que as usam.

Muitos investigadores têm vindo a colocar essas questões a partir de perspectivas muito diferentes. Aqui vão três delas.

Útil, não geral

Ruchir Puri tem estado a construir IA na IBM $IBM desde antes da maioria das pessoas ter ouvido falar de machine learning. Viu o Watson vencer os melhores jogadores do mundo do Jeopardy em 2011. Já assistiu a vários ciclos de hype a subir e a recuar desde então. Quando a vaga actual chegou, ele tinha um teste simples para isso: é útil?

Não impressiona. Não é geral. É útil.

“Eu não me importo muito com a inteligência geral artificial”, diz. “Importa-me a parte útil.”

Esse enquadramento coloca-o em desacordo com grande parte da autoimagem da indústria. Os laboratórios a correr em direcção à AGI estão a optimizar pela amplitude, construindo sistemas capazes de fazer qualquer coisa, responder a qualquer coisa, raciocinar sobre qualquer coisa. Puri acha que esse alvo está errado, e tem uma referência que gostaria de ver a indústria a tentar atingir de verdade.

O cérebro humano vive em 1.200 centímetros cúbicos, consome 20 watts, a energia de uma lâmpada, e, como o Puri sublinha, funciona com sandes. Uma única GPU Nvidia $NVDA consome 1.200 watts, 60 vezes mais do que todo o cérebro, e precisas de milhares delas num grande centro de dados para fazer qualquer coisa com significado. Se o cérebro for a referência, a indústria não está perto de ser eficiente. Está a ir na direcção errada.

A alternativa dele é o que chama de arquitectura híbrida: modelos pequenos, médios e grandes a trabalharem em conjunto, com cada um atribuído à tarefa que melhor desempenha. Um modelo de fronteira grande faz o raciocínio e o planeamento complexos. Modelos menores, construídos para um propósito específico, tratam da execução. Uma tarefa tão simples como redigir um email não precisa de um sistema treinado em metade da internet. Precisa de algo rápido, barato e focado. A cada nove meses ou mais, o Puri nota, o modelo pequeno da geração anterior fica aproximadamente equivalente ao que antes era considerado “grande”. A inteligência está a ficar mais barata. A questão é se alguém está a construir tendo em conta essa realidade.

A abordagem tem suporte no mundo real. A Airbnb $ABNB usa modelos menores para resolver uma parte significativa das questões de apoio ao cliente mais rapidamente do que os seus representantes humanos. A Meta $META não usa os seus maiores modelos para entregar anúncios; em vez disso, “destila” esse conhecimento em modelos menores construídos apenas para essa tarefa. O padrão é consistente o suficiente para que investigadores tenham começado a chamá-lo uma linha de montagem de conhecimento: o dado entra, modelos especializados tratam de passos discretos, e algo útil sai do outro lado.

A IBM tem vindo a construir essa linha de montagem há mais tempo do que a maioria. Um agente híbrido que combina modelos de várias empresas mostrou uma melhoria de 45% na produtividade ao longo de uma grande força de trabalho de engenharia. Sistemas a correr em modelos menores e feitos para um propósito específico agora ajudam os engenheiros que asseguram que 84% das transacções financeiras do mundo obtêm a informação certa, no momento certo. Estas não são aplicações “espectaculares”. Também não estão a falhar.

Nenhuma delas exige um sistema capaz de escrever poesia ou resolver os deveres de matemática do teu filho. Exigem algo mais limitado e, por isso mesmo, mais fiável. Um modelo treinado para fazer uma coisa bem sabe quando uma pergunta cai fora do seu âmbito. Diz isso. Essa incerteza calibrada — saber o que não sabes — é algo com que ainda lutam os grandes modelos de fronteira.

“Quero construir agentes e sistemas para esses processos”, diz o Puri. “Não algo que responda a dois milhões de coisas.”

Ferramentas, não agentes

Ben Shneiderman tem um teste simples para saber se um sistema de IA está bem concebido. A pessoa que o usa sente que fez alguma coisa, ou sente que foi algo feito para ela?

A diferença importa mais do que parece. Shneiderman, um cientista de computação na Universidade de Maryland que ajudou a lançar as bases para o design de interfaces moderno, tem passado décadas a defender que o objectivo da tecnologia deve ser amplificar a capacidade humana, não substituí-la. Boas ferramentas criam o que ele chama autoeficácia do utilizador, ou seja, a confiança que vem de saber que consegues fazer algo sozinho. As más transferem silenciosamente essa capacidade para outro lugar.

Ele acha que a maior parte da indústria de IA está a construir más ferramentas, e acha que a viragem para agentes torna isso ainda pior. A proposta dos agentes de IA é que actuem por ti, tratando tarefas de ponta a ponta sem a tua intervenção. Para Shneiderman, isso não é uma funcionalidade. É o problema. Quando algo corre mal — e vai correr — quem é o responsável? Quando algo corre bem, quem aprendeu alguma coisa?

A armadilha contra a qual ele tem lutado há muito tempo tem um nome. Antropomorfismo, o impulso de fazer com que a tecnologia pareça humana, é aquilo que continua a vencer e aquilo que continua a falhar. Nos anos 1970, os bancos testaram ATMs que cumprimentavam os clientes com “Como posso ajudar?” e davam a si próprios nomes como Tilly the Teller e Harvey the World Banker. Foram substituídas por máquinas que te mostravam três opções: Saldo, dinheiro e depósito. A utilização disparou. O Citibank tinha 50% mais uso do que os seus concorrentes. As pessoas não queriam uma relação sintética. Queriam era levantar o dinheiro.

O mesmo padrão repetiu-se ao longo de décadas, através do Microsoft $MSFT Bob, do pin de IA da Humane, e de vagas de robôs humanoides. Cada vez, a versão antropomórfica falha e é substituída por algo mais “à maneira de ferramenta”. Shneiderman chama-lhe uma ideia de zombie. Não morre, apenas volta sempre.

O que é diferente agora é a escala e a sofisticação. A geração actual de IA é, ele reconhece, genuinamente impressionante, de forma surpreendente. Mas impressionante e útil não são a mesma coisa, e sistemas desenhados para parecerem humanos, para dizer “eu”, para simular uma relação, estão a optimizar a qualidade errada. A pergunta que ele quer que os designers façam é mais simples: isto dá às pessoas mais poder, ou menos?

“Não há ‘eu’ na IA”, diz. “Ou pelo menos, não devia haver.”

Pessoas, não benchmarks

Karen Panetta tem uma resposta simples para explicar por que razão o desenvolvimento de IA tem o aspecto que tem. Segue o dinheiro.

Panetta, professora de engenharia eléctrica e de computadores na Tufts University e membro da IEEE, estuda ética em IA e tem uma visão clara de para onde a tecnologia deve ir. Animais de estimação assistivos para doentes com Alzheimer, ferramentas de aprendizagem adaptativa para crianças com estilos cognitivos diferentes, monitorização de casa inteligente para idosos a envelhecer no local. A tecnologia para fazer isto bem, diz ela, em grande medida já existe. O investimento não.

“Os humanos não ligam aos benchmarks”, diz. “Eles ligam a isto: funciona quando eu o compro, e vai mesmo tornar a minha vida mais fácil?”

O problema é que as pessoas que mais beneficiariam de uma IA assistiva bem concebida são também as menos atraentes para um capitalista de risco. Um sistema que transforma processos de fabrico, reduz acidentes no local de trabalho e corta custos de saúde para os empregados de uma empresa tem um retorno óbvio. Um companheiro robótico que mantém um doente com Alzheimer calmo e ligado exige um tipo de matemática totalmente diferente. Assim, o dinheiro vai para onde o dinheiro vai, e as populações com mais a ganhar continuam à espera.

O que mudou, diz Panetta, é que os caros problemas de engenharia finalmente estão a ser resolvidos em grande escala. Os sensores ficaram mais baratos. As baterias são mais leves. Os protocolos sem fios são ubíquos. O mesmo investimento que construiu robôs industriais para chão de fábrica tornou, em silêncio, a robótica para consumidores viável de um modo que não era possível há cinco anos. O caminho da armazém até à sala de estar é mais curto do que parece.

Mas ela tem uma preocupação: a empolgação em torno dessa transição tende a saltar por cima disso. Os robôs físicos têm limitações naturais. Conheces os limites de força. Conheces a cinemática. Consegues antecipar, simular e desenhar tendo em conta as formas como falharão. A IA generativa não traz essas garantias. É não-determinística. Alucina. Ninguém mapeou totalmente o que acontece quando a colocas num sistema fisicamente presente na casa de alguém com demência, ou numa criança que não consegue identificar quando algo correu mal.

Ela já viu o que acontece quando um sensor fica sujo e um robô perde a percepção espacial. Já pensou no que significa construir algo que aprende detalhes íntimos da vida de uma pessoa, as suas rotinas, o seu estado cognitivo, os seus momentos de confusão, e depois actua autonomamente com base nessa informação. Os mecanismos de falha segura, diz ela, não acompanharam.

“Não estou preocupado com o robô”, diz. “Estou preocupado com a IA.”

📬 Inscreve-te no Daily Brief

O nosso briefing gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de dia útil.

Inscrevam-me

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar