Google DeepMind forma un grupo de trabajo de programación para competir con Anthropic, Brin supervisa personalmente los esfuerzos

robot
Generación de resúmenes en curso

Según el monitoreo de Dongcha Beating, The Information cita a tres fuentes informadas que afirman que Google DeepMind ha formado un grupo de trabajo compuesto por investigadores e ingenieros específicamente enfocado en mejorar las capacidades de su modelo de codificación. El grupo de trabajo está liderado por el ingeniero de investigación de DeepMind Sebastian Borgeaud, quien anteriormente supervisó los esfuerzos de preentrenamiento de DeepMind; el cofundador Sergey Brin y el CTO de DeepMind, Koray Kavukcuoglu, también están involucrados directamente. El desencadenante inmediato para formar el equipo fue el reciente lanzamiento de un modelo de Anthropic. Los investigadores internos de DeepMind creen que las herramientas de codificación de Anthropic han superado las capacidades de generación de código de Gemini. En un memorando reciente, Brin escribió que el equipo debe “cerrar urgentemente la brecha en las capacidades de ejecución de agentes y convertir el modelo en un desarrollador principal para escribir código” para ganar esta última etapa. “Agente” se refiere a una IA capaz de manejar tareas de múltiples pasos. La brecha tiene cifras específicas: Boris Cherny, jefe de Claude Code de Anthropic, afirmó en enero que la compañía tiene “casi el 100%” de su código escrito por IA; la directora financiera de Google, Anat Ashkenazi, mencionó en la llamada de resultados de febrero que los agentes de codificación en Google manejan solo alrededor del 50% del trabajo de codificación internamente. El grupo de trabajo se centra en tareas de codificación de ciclo largo, como escribir nuevo software desde cero, que requiere que el modelo lea múltiples archivos y comprenda la intención del usuario, representando el aspecto más desafiante de las herramientas de codificación de IA actuales. El corpus de entrenamiento también se está ajustando: Google ha comenzado a usar su base de código privada para entrenar modelos, ya que el código interno difiere significativamente del código público, y los modelos de codificación general no funcionan bien en proyectos internos. Estos modelos entrenados internamente no pueden ser lanzados externamente, pero pueden ayudar a iterar versiones disponibles públicamente. En cuanto a la promoción interna, Google ha establecido una tabla de clasificación para el uso de una herramienta de codificación interna llamada Jetski; algunos equipos fuera de DeepMind han comenzado a organizar capacitaciones obligatorias en IA. En el memorando, Brin exige que cada ingeniero de Gemini debe usar el agente interno al realizar tareas complejas de múltiples pasos. El objetivo a largo plazo es lo que Brin llama “despegue de IA”, es decir, IA que se auto-mejora. Él ha dicho repetidamente a los empleados que mejorar las capacidades de codificación es clave para alcanzar esta etapa; junto con IA que pueda realizar matemáticas y ejecutar experimentos, esto teóricamente permite una automatización a gran escala del trabajo de investigadores e ingenieros de IA. OpenAI ya cuenta con herramientas internas similares para ayudar a los investigadores a generar código experimental más rápidamente.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado