A Google DeepMind Forma Força-Tarefa de Programação para Competir com a Anthropic, Brin Supervisiona Pessoalmente os Esforços

robot
Geração de resumo em curso

De acordo com o monitorização da Dongcha Beating, The Information cita três fontes informadas afirmando que o Google DeepMind formou uma força-tarefa composta por investigadores e engenheiros especificamente voltada para melhorar as capacidades do seu modelo de codificação. A força-tarefa é liderada pelo engenheiro de investigação do DeepMind Sebastian Borgeaud, que anteriormente supervisionou os esforços de pré-treinamento do DeepMind; o cofundador Sergey Brin e o CTO do DeepMind Koray Kavukcuoglu também estão diretamente envolvidos. O gatilho imediato para a formação da equipa foi o recente lançamento de modelo da Anthropic. Investigadores internos do DeepMind acreditam que as ferramentas de codificação da Anthropic superaram as capacidades de geração de código do Gemini. Numa nota recente, Brin escreveu que a equipa deve “fechar urgentemente a lacuna nas capacidades de execução de agentes e transformar o modelo num desenvolvedor principal para escrever código” para vencer esta última corrida. “Agente” refere-se a IA capaz de lidar com tarefas de múltiplos passos. A lacuna tem números específicos: Boris Cherny, chefe do Claude Code da Anthropic, afirmou em janeiro que a empresa tem “quase 100%” do seu código escrito por IA; a CFO do Google, Anat Ashkenazi, mencionou na chamada de resultados de fevereiro que os agentes de codificação do Google lidam com apenas cerca de 50% do trabalho de codificação internamente. A força-tarefa concentra-se em tarefas de codificação de ciclo longo, como escrever novo software do zero, que requer que o modelo leia múltiplos ficheiros e compreenda a intenção do utilizador, representando o aspeto mais desafiante das ferramentas de codificação de IA atuais. O corpus de treino também está a ser ajustado: o Google começou a usar a sua base de código privada para treinar modelos, pois o código interno difere significativamente do código público, e os modelos de codificação gerais não funcionam bem em projetos internos. Estes modelos treinados internamente não podem ser lançados externamente, mas podem ajudar a iterar versões disponíveis ao público. No que diz respeito à promoção interna, o Google criou uma tabela de classificação para o uso de uma ferramenta de codificação interna chamada Jetski; algumas equipas fora do DeepMind começaram a organizar formações obrigatórias de IA. No memorando, Brin exige que cada engenheiro do Gemini utilize o agente interno ao realizar tarefas complexas de múltiplos passos. O objetivo a longo prazo é o que Brin chama de “arranque de IA”, ou seja, IA autoaperfeiçoável. Ele tem repetidamente dito aos funcionários que melhorar as capacidades de codificação é fundamental para atingir esta fase; juntamente com IA que possa realizar matemática e conduzir experimentos, isso permite, teoricamente, uma automação em larga escala do trabalho de investigadores e engenheiros de IA. A OpenAI já possui ferramentas internas semelhantes para ajudar investigadores a gerar código experimental mais rapidamente.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar