Não mexa na minha carteira: pesquisa da Apple mostra que os utilizadores odeiam IA a ser inteligente por conta própria

robot
Geração de resumo em curso

IT之家 2 de fevereiro de 2024 — A equipe de pesquisa em aprendizagem de máquina da Apple publicou em 7 de fevereiro o artigo intitulado “Mapeando o espaço de design da experiência do usuário para agentes de uso de computador”, focando em revelar as expectativas reais dos usuários e suas preferências de interação com inteligências artificiais.

Os pesquisadores apontam que, apesar do grande investimento do mercado no desenvolvimento de agentes de IA, as explorações sobre as formas de interface e lógica de interação ainda são insuficientes. Para isso, a equipe analisou produtos existentes e realizou testes de usuário em campo, tentando esclarecer as normas de design para esse campo emergente.

Na primeira fase da pesquisa, a IT Home, citando um blog, informa que a equipe aprofundou a análise de nove agentes de IA principais, incluindo Claude Computer Use, OpenAI Operator e AutoGLM, tanto para desktop quanto para dispositivos móveis.

A pesquisa consultou oito profissionais experientes na área, e os pesquisadores construíram um sistema de classificação baseado em quatro dimensões: “instruções do usuário”, “explicabilidade da atividade”, “controle do usuário” e “modelo mental”. Esse sistema cobre todo o processo, desde como o usuário emite comandos até como a IA exibe seus planos de operação, relata erros e transfere o controle.

Na segunda fase, a pesquisa utilizou o método clássico do “Mágico de Oz”. A equipe recrutou 20 usuários com experiência no uso de IA, solicitando que realizassem tarefas de aluguel de férias ou compras online por meio de uma interface de chat.

Para eliminar interferências de falhas técnicas e capturar de forma precisa as reações psicológicas e comportamentais reais dos usuários ao enfrentarem decisões da IA, a Apple empregou uma simulação de operação de IA com pessoas reais (incluindo erros intencionais ou loops infinitos). Os usuários não sabiam que o “AI” por trás da tela era, na verdade, um pesquisador na sala ao lado.

Os resultados mostraram que os usuários têm uma necessidade sutil de “transparência”: eles querem entender os movimentos da IA, mas rejeitam uma microgestão de cada passo, pois isso anula o propósito de usar o agente inteligente.

Essa necessidade varia de acordo com o cenário: em tarefas exploratórias ou desconhecidas, os usuários desejam ver mais etapas intermediárias e explicações; em cenários de alto risco (como pagamentos ou alterações de informações de conta), eles exigem controle absoluto e confirmação.

Por fim, a pesquisa enfatiza que a confiança é a base da interação homem-máquina, mas ela é extremamente frágil. Quando um agente de IA enfrenta opções ambíguas sem consultar o usuário (suposição silenciosa) ou desvia do plano original sem aviso, a confiança do usuário pode se desintegrar rapidamente.

Após enfrentar situações de incerteza, os usuários não desejam que a IA escolha aleatoriamente para alcançar a “automação”; preferem que ela pause e busque esclarecimentos, especialmente quando essas escolhas podem levar a compras erradas ou perdas reais.

A IT Home fornece os links de referência:

Site oficial da Apple: Mapping the Design Space of User Experience for Computer Use Agents
Arxiv: Mapping the Design Space of User Experience for Computer Use Agents

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar