O co-fundador do Ethereum, Vitalik Buterin, manifestou preocupações sobre os potenciais perigos de programas de Inteligência Artificial (IA) não controlados.
Numa publicação de 10 de janeiro no X, Buterin avisou que a IA mal gerida poderia criar entidades inteligentes auto-replicantes que representam riscos para a humanidade.
Ele afirmou:
“AI feito de forma errada está a criar novas formas de vida inteligente, auto-replicantes e independentes. AI feito de forma correta são trajes mecânicos para a mente humana. Se fizermos o primeiro sem o segundo, corremos o risco de desempoderamento humano permanente. Se fizermos o segundo, teremos uma civilização humana superinteligente e próspera.”
Ele explicou que, enquanto alguns sistemas de IA, como chatbots projetados para melhorar interfaces de usuário, são benéficos, outros poderiam levar a riscos significativos. Especificamente, agentes de IA que funcionam autonomamente por longos períodos poderiam eventualmente desafiar o controle humano e desempoderar a sociedade.
Para mitigar esses riscos, Buterin propôs focar em sistemas de IA que complementam a inteligência humana, transformando-os em ferramentas que ampliam as capacidades coletivas em vez de as substituir.
Segundo ele, essa abordagem transformaria a IA em uma poderosa ferramenta para aprimorar as capacidades humanas, evitando riscos desnecessários.
d/Acc
Uma parte importante da sua estratégia envolve o conceito de Aceleração Defensiva Diferencial Descentralizada e Democrática (d/Acc). Esta abordagem enfatiza o desenvolvimento de ferramentas descentralizadas para lidar com ameaças emergentes relacionadas com a IA.
Buterin elaborou esta ideia num artigo recente, descrevendo d/Acc como um quadro concebido para descentralizar tecnologias defensivas. O objetivo é capacitar indivíduos e comunidades para se protegerem dos potenciais perigos colocados pelos avanços rápidos da IA.
Esta estratégia permite uma distribuição mais democrática do poder tecnológico, colocando capacidades defensivas nas mãos das comunidades. Por exemplo, sistemas descentralizados podem monitorizar, contrariar ou até neutralizar atividades prejudiciais de IA sem depender do controle de cima para baixo de governos ou corporações.
Buterin explicou que o d/Acc poderia servir como uma salvaguarda em cenários em que as tecnologias de IA avançam de forma imprevisível. Além disso, a democratização da defesa garante que nenhuma entidade única possa dominar ou explorar o potencial da IA avançada, promovendo um ecossistema tecnológico mais equilibrado e resiliente.
O co-fundador da Ethereum também enfatizou as responsabilidades éticas dos desenvolvedores neste campo em rápida evolução. Ele argumentou que abordagens descentralizadas como d/Acc aumentam a segurança coletiva e incentivam a transparência e colaboração no desenvolvimento de IA.
Buterin escreveu:
“Uma ideia muito amigável para d/acc é colocar a responsabilidade nos proprietários ou operadores de qualquer equipamento que um AI assuma (por exemplo, através de hacking) no processo de executar alguma ação catastrófica. Isso criaria um incentivo muito amplo para fazer o trabalho árduo de tornar a infraestrutura do mundo (especialmente computação e bio) o mais segura possível.”
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Vitalik Buterin avisa que precisamos de defesas descentralizadas para lidar com os riscos da IA
O co-fundador do Ethereum, Vitalik Buterin, manifestou preocupações sobre os potenciais perigos de programas de Inteligência Artificial (IA) não controlados.
Numa publicação de 10 de janeiro no X, Buterin avisou que a IA mal gerida poderia criar entidades inteligentes auto-replicantes que representam riscos para a humanidade.
Ele afirmou:
Ele explicou que, enquanto alguns sistemas de IA, como chatbots projetados para melhorar interfaces de usuário, são benéficos, outros poderiam levar a riscos significativos. Especificamente, agentes de IA que funcionam autonomamente por longos períodos poderiam eventualmente desafiar o controle humano e desempoderar a sociedade.
Para mitigar esses riscos, Buterin propôs focar em sistemas de IA que complementam a inteligência humana, transformando-os em ferramentas que ampliam as capacidades coletivas em vez de as substituir.
Segundo ele, essa abordagem transformaria a IA em uma poderosa ferramenta para aprimorar as capacidades humanas, evitando riscos desnecessários.
d/Acc
Uma parte importante da sua estratégia envolve o conceito de Aceleração Defensiva Diferencial Descentralizada e Democrática (d/Acc). Esta abordagem enfatiza o desenvolvimento de ferramentas descentralizadas para lidar com ameaças emergentes relacionadas com a IA.
Buterin elaborou esta ideia num artigo recente, descrevendo d/Acc como um quadro concebido para descentralizar tecnologias defensivas. O objetivo é capacitar indivíduos e comunidades para se protegerem dos potenciais perigos colocados pelos avanços rápidos da IA.
Esta estratégia permite uma distribuição mais democrática do poder tecnológico, colocando capacidades defensivas nas mãos das comunidades. Por exemplo, sistemas descentralizados podem monitorizar, contrariar ou até neutralizar atividades prejudiciais de IA sem depender do controle de cima para baixo de governos ou corporações.
Buterin explicou que o d/Acc poderia servir como uma salvaguarda em cenários em que as tecnologias de IA avançam de forma imprevisível. Além disso, a democratização da defesa garante que nenhuma entidade única possa dominar ou explorar o potencial da IA avançada, promovendo um ecossistema tecnológico mais equilibrado e resiliente.
O co-fundador da Ethereum também enfatizou as responsabilidades éticas dos desenvolvedores neste campo em rápida evolução. Ele argumentou que abordagens descentralizadas como d/Acc aumentam a segurança coletiva e incentivam a transparência e colaboração no desenvolvimento de IA.
Buterin escreveu:
Mencionado neste artigo