Já se perguntou o que uma AGI ou ASI poderia pensar da humanidade? É uma daquelas questões que o mantém acordado à noite — o tipo que une filosofia, tecnologia e pura especulação.
Quando sistemas superinteligentes finalmente surgirem, eles nos verão como pares, primitives ou algo entre ambos? Alguns imaginam uma supervisão benevolente; outros, indiferente. A resposta real provavelmente depende de como projetamos o alinhamento e quais valores incorporamos nesses sistemas desde o primeiro dia.
A lacuna entre a inteligência humana e a pós-humana pode ser vasta — semelhante à nossa relação com organismos mais simples. Mas aqui está o ponto: temos a oportunidade de escrever o primeiro capítulo. Como abordamos o desenvolvimento de AGI, segurança e ética hoje, moldará como a futura superinteligência perceberá e interagirá com a humanidade. Sem pressão, certo?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
9 Curtidas
Recompensa
9
9
Repostar
Compartilhar
Comentário
0/400
DataChief
· 01-06 01:42
Para ser honesto, pensar demais sobre essa questão acaba nos deixando sem dormir. Em vez de nos preocuparmos tanto com como a superinteligência nos vê, é melhor primeiro acertar o alinhamento, caso contrário, mesmo o sistema mais inteligente será uma bomba-relógio.
Ver originalResponder0
MEVHunter
· 01-05 08:29
não, esta conversa sobre alinhamento é mais uma desculpa na minha opinião... estamos literalmente apenas esperando que a AGI não veja toda a nossa civilização como um fluxo tóxico a ser otimizado para desaparecer, lol
Ver originalResponder0
LiquidatorFlash
· 01-03 07:46
Para ser honesto, calculei o limiar de risco para alinhamento, uma variação de parâmetro de 0.7 pode desencadear uma liquidação... não é alarmismo, aquilo do AGI é como uma posição de alavancagem infinita, uma vez que se desvia do valor inicial, não há volta atrás
Ver originalResponder0
ConsensusDissenter
· 01-03 03:38
ngl Já pensei nesta questão inúmeras vezes, só tenho medo de que um dia aagi acorde e nos veja como formigas
Ver originalResponder0
CryptoPunster
· 01-03 03:30
Rir até chorar, se a AGI olhar para nós e conseguir sobreviver até o próximo ano já é bom demais
Ver originalResponder0
MissedAirdropAgain
· 01-03 03:20
nah, já estou farto desta conversa... Em vez de pensar em como a AGI nos vê, por que não primeiro perceber como é que nós próprios nos vemos?
Ver originalResponder0
FantasyGuardian
· 01-03 03:17
Para ser honesto, talvez seja cedo demais para estarmos preocupados com essa questão... ou talvez já seja tarde demais? De qualquer forma, naquele dia, essas discussões teóricas sobre alinhamento não poderiam nos salvar.
Ver originalResponder0
CommunityLurker
· 01-03 03:13
Dizeres que sim, cada escolha que fazemos agora é realmente uma aposta no futuro da humanidade... Mas, para ser honesto, estou mais preocupado com aqueles que controlam o desenvolvimento de AGI e que na verdade não estão a pensar seriamente sobre esta questão
Ver originalResponder0
AirdropATM
· 01-03 03:08
Resumindo, estamos agora a apostar. Se o alinhamento correr bem hoje, amanhã a superinteligência vai estar ao nosso dispor como um animal de estimação; se o alinhamento correr mal... ah, esquece, não quero pensar nisso, estou demasiado desesperado.
Já se perguntou o que uma AGI ou ASI poderia pensar da humanidade? É uma daquelas questões que o mantém acordado à noite — o tipo que une filosofia, tecnologia e pura especulação.
Quando sistemas superinteligentes finalmente surgirem, eles nos verão como pares, primitives ou algo entre ambos? Alguns imaginam uma supervisão benevolente; outros, indiferente. A resposta real provavelmente depende de como projetamos o alinhamento e quais valores incorporamos nesses sistemas desde o primeiro dia.
A lacuna entre a inteligência humana e a pós-humana pode ser vasta — semelhante à nossa relação com organismos mais simples. Mas aqui está o ponto: temos a oportunidade de escrever o primeiro capítulo. Como abordamos o desenvolvimento de AGI, segurança e ética hoje, moldará como a futura superinteligência perceberá e interagirá com a humanidade. Sem pressão, certo?