A perseguição de AGI da OpenAI é um conceito e contrato complexo

NOVA IORQUE, 16 de março (Reuters Breakingviews) - Imagine uma parceria de sucesso estrondoso que se dissolve assim que algo acontece. Exceto que não está claro qual é esse evento, se já ocorreu ou mesmo se é possível. Esse é o desafio enfrentado pela OpenAI e Microsoft (MSFT.O), ao contemplarem a possível chegada da inteligência artificial geral (AGI). A opacidade do seu acordo, e os enormes valores em jogo, tornam quase inevitável que um debate teórico se transforme numa disputa contratual.

O conceito conhecido como AGI é o ponto onde sistemas autônomos podem igualar ou superar os humanos em tarefas intelectuais. No Vale do Silício, isso é tanto uma meta aspiracional quanto uma ameaça existencial. Criar um sistema autoaprendente poderia, teoricamente, resultar em resultados que variam desde uma era de ouro para a humanidade até a extinção.

O boletim Reuters Iran Briefing mantém você informado com os últimos desenvolvimentos e análises sobre a guerra no Irã. Inscreva-se aqui.

A OpenAI foi fundada em 2015 com esse objetivo explícito. Sam Altman, Ilya Sutskever, Elon Musk e outros buscaram criar a AGI, que eles definiram, abre uma nova aba, como “sistemas altamente autônomos que superam os humanos na maioria dos trabalhos economicamente valiosos, para benefício de toda a humanidade”. Em linha com a ideia de que o amor ao dinheiro é a raiz do mal, a OpenAI foi fundada como uma organização sem fins lucrativos.

No entanto, ego e boa vontade não foram suficientes: a corrida pela IA também exigia recursos financeiros enormes. Assim, a empresa estabeleceu uma divisão com fins lucrativos em 2019 e uma parceria com a Microsoft. O gigante do software investiu US$ 1 bilhão e forneceu infraestrutura de computação em troca do acesso à tecnologia da OpenAI. A startup insistiu que, uma vez alcançada a AGI, os direitos exclusivos sobre a tecnologia retornariam à startup.

Provavelmente, essa foi uma concessão fácil de fazer na época. No entanto, à medida que os sistemas de IA se tornaram mais capazes rapidamente, definir a AGI tornou-se uma questão menos abstrata. Em medidas como raciocínio visual, compreensão de inglês ou matemática de nível de competição, sistemas avançados superaram as médias humanas, de acordo com o Instituto Stanford de IA Centrada no Humano.

É aqui que o debate conceitual se transforma em uma questão contratual. Como a explicação subjetiva do juiz da Suprema Corte Potter Stewart sobre obscenidade — “Eu sei quando vejo” — a AGI foi mal definida. A cláusula da OpenAI não era nem concreta nem facilmente observável, como apontaram pesquisadores do Google, em um artigo de 2023 que tentou estabelecer uma estrutura para tais declarações.

Considere a provisão de que o marco seria atingido quando os sistemas pudessem superar a maioria dos humanos em trabalhos economicamente valiosos. O que significa “a maioria das pessoas”? Pode-se medir isso sem implantação no mundo real, ou se o uso for desacelerado por razões legais ou éticas? Por fim, o valor econômico de muitos empregos é difícil de definir.

Enquanto isso, treinar e implantar modelos de IA exige quantidades vorazes de dinheiro. Microsoft, Alphabet (GOOGL.O), Meta Platforms (META.O) e Oracle (ORCL.N) aumentaram drasticamente seus gastos de capital em resposta a essas necessidades e planejam gastar mais de US$ 700 bilhões este ano. Como uma startup sem fontes de receita existentes, a OpenAI precisava de apoio.

A Microsoft acabou investindo um total de US$ 13 bilhões. Isso, no entanto, não foi suficiente para a OpenAI, e o acordo cada vez mais complexo entre as duas empresas, várias partes das quais dependiam da cláusula de AGI, gerou atritos de ambos os lados.

Outros setores aprenderam que acordos vagos e grandes somas de dinheiro não combinam. Tome os títulos de catástrofe, que ajudam empresas a transferir o risco financeiro de furacões, inundações ou pandemias. Esses eventos são raros, mas a conta de US$ 1,4 trilhão de um temporal que atingisse uma grande cidade dos EUA, como Miami, poderia fazer toda a indústria de seguros tremer. Assim, empresas contratam terceiros dispostos a assumir riscos gigantescos, porém de baixa probabilidade, em troca de pagamentos. Acordos inicialmente opacos levaram a disputas amargas, como a luta jurídica de cinco anos entre uma resseguradora e detentores de títulos sobre o que exatamente foi coberto após um furacão em 2008.

Desde então, os títulos de catástrofe evoluíram para triggers mais concretos e facilmente observáveis, reduzindo a incerteza e evitando disputas. Pense em medir velocidades do vento em um local específico, por exemplo, ao invés de perdas totais na indústria de seguros ou se um governo declara estado de emergência.

Em fusões na biotecnologia, empresas usam pagamentos contingentes para preencher a lacuna entre comprador e vendedor na avaliação de medicamentos experimentais. Geralmente, esses incluem triggers não debatíveis, como a aprovação do tratamento pela FDA até uma certa data.

A OpenAI e a Microsoft chegaram a uma espécie de détente, provavelmente porque negociações prolongadas poderiam acabar prejudicando ambos os lados. Um novo acordo, assinado no final do ano passado, exige que um painel independente verifique qualquer alegação da OpenAI de que a AGI foi alcançada.

A Microsoft mantém uma participação de 27% na empresa, avaliada recentemente em US$ 840 bilhões, e tem direito a parte da tecnologia até 2032, mesmo que a AGI seja atingida. A empresa de Altman agora pode buscar parcerias ou uma oferta pública inicial. Ainda há motivos para tensão, porém. A OpenAI envia cerca de 20% de sua receita para a Microsoft, e isso praticamente desaparece se a AGI ocorrer. Uma mudança financeira tão grande faria uma grande diferença nas finanças da OpenAI, enquanto ela se prepara para vender ações ao público.

A discussão sobre como definir a AGI ainda não foi realmente resolvida. Altman afirmou, no final do ano passado, em um podcast, que as pessoas não perceberam muito e isso não mudou o mundo, mas “construímos a AGI”. O CEO da Microsoft, Satya Nadella, parece focar mais nos efeitos amplos, afirmando no ano passado que a AGI seria “uma avaliação sem sentido, uma espécie de hacking de benchmarks” e que o verdadeiro marco de sucesso seria o crescimento da economia mundial a uma taxa improvável de 10%.

O debate também evoluiu. Mesmo evangelistas da IA como Altman admitem que a IA ainda faz algumas coisas mal, como raciocínio complexo e capacidade de aprender. Ele agora promove a ideia de superinteligência e sistemas de IA realizando tarefas que os humanos não podem, ou sistemas desempenhando empregos, como ser presidente dos EUA, melhor do que um humano. Ainda assim, essa é uma definição vaga.

Altman continua em busca. A recente captação de US$ 110 bilhões da OpenAI incluiu uma grande contribuição da Amazon (AMZN.O), que, segundo o The Information, pode depender de a empresa abrir ou não capital ou alcançar a AGI.

Em uma entrevista à CNBC após o acordo, Altman afirmou que o progresso da IA permanece rápido, e como a AGI é uma “coisa de curto prazo”, a empresa não está fechando novos acordos que parem quando ela for alcançada. Essa linha do tempo pode ser otimista, mas, se for, a disputa ainda tem tempo e incentivo para reascender.

Siga Robert Cyran no Bluesky.

Para mais insights como estes, clique aqui para experimentar o Breakingviews gratuitamente.

Edição por Peter Thal Larsen; Produção por Maya Nandhini

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar