# O chefe do departamento de IA da Microsoft pediu para não atribuir consciência às redes neurais
Apenas os seres biológicos são capazes de consciência. Os desenvolvedores e pesquisadores devem parar de trabalhar em projetos que implicam o contrário, afirmou Mustafa Suleyman, chefe do departamento de IA da Microsoft, em conversa com a CNBC.
< “Eu não acho que as pessoas devam fazer esse tipo de trabalho. Se você fizer a pergunta errada, receberá a resposta errada. Eu acredito que este é absolutamente o caso”, disse ele na conferência AfroTech em Houston.
O executivo da Microsoft é contra a perspectiva de criação de inteligência artificial capaz de consciência, ou serviços de IA que supostamente podem sofrer.
Em agosto, Suleiman escreveu um ensaio no qual propôs um novo termo — «Inteligência Artificial Semelhante à Consciência» (Seemingly Conscious AI, SCAI). Essa inteligência artificial possui todas as características de seres racionais e, portanto, parece ter consciência. Ela simula todas as características de percepção de si mesma, mas está internamente vazia.
“O sistema que imagino na verdade não é consciente, mas irá imitar de forma tão convincente a presença de uma mente semelhante à humana, que será indistinguível da afirmação que você ou eu poderíamos fazer um ao outro sobre nosso próprio pensamento”, escreve Suleiman.
Atribuir consciência à IA é perigoso, acredita um especialista. Isso irá reforçar equívocos, criar novos problemas de dependência, explorar nossas vulnerabilidades psicológicas, introduzir novas dimensões de polarização, complicar disputas já existentes sobre direitos e criar um colossal novo erro categórico para a sociedade.
Em 2023, Suleiman tornou-se autor do livro The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, no qual analisa detalhadamente os riscos da IA e de outras novas tecnologias. Entre eles:
destruições ambientais e sociais — as tecnologias podem transformar o trabalho tão rapidamente que as pessoas perderão seus papéis habituais;
problema de controle — à medida que a IA avança, torna-se mais difícil garantir que seu funcionamento esteja nos interesses do ser humano;
aplicação de tecnologias para ciberataques, manipulação da sociedade e outras ameaças;
a necessidade de ter mecanismos técnicos e institucionais para conter a IA;
enfraquecimento do poder dos estados nacionais e das instituições tradicionais.
AGI
O mercado de inteligência artificial está se movendo em direção à AGI — inteligência artificial geral, capaz de realizar qualquer tarefa em nível humano. Em agosto, o chefe da OpenAI, Sam Altman, afirmou que esse termo pode ser “não muito útil”. Os modelos estão se desenvolvendo rapidamente e em breve estaremos dependendo deles “cada vez mais”, acredita ele.
Para Suleiman, é importante traçar uma linha clara entre o fato de que a inteligência artificial está se tornando mais inteligente e sua capacidade de algum dia experimentar emoções humanas.
«A nossa experiência física da dor é o que nos deixa muito tristes e nos faz sentir horríveis, mas a IA não sente tristeza quando experimenta “dor”», disse ele.
Segundo o especialista, esta é uma diferença muito importante. Na verdade, a inteligência artificial cria uma percepção — uma narrativa aparente sobre a experiência — sobre si mesma e sobre a consciência, mas não a vive de facto.
«Tecnicamente, você sabe disso, pois podemos ver o que o modelo faz», enfatizou o especialista.
Na área da inteligência artificial, existe uma teoria proposta pelo filósofo John Searle chamada naturalismo biológico. Ela afirma que a consciência depende dos processos do cérebro vivo.
“A razão pela qual hoje concedemos direitos às pessoas é porque não queremos causar-lhes danos, uma vez que elas sofrem. Elas têm dor e preferências que incluem a sua evitação. Esses modelos não têm isso. É apenas uma simulação”, disse Suleiman.
O top manager é contra a ideia de investigar a consciência em IA, já que ele não a possui. Ele disse que a Microsoft está criando serviços que têm consciência de que são artificiais.
“Simplificando, estamos a criar uma inteligência artificial que trabalha sempre para o bem do homem”, observou ele.
Lembramos que, em outubro, especialistas da Anthropic descobriram que os principais modelos de IA são capazes de manifestar uma forma de “autoconsciência introspectiva” — eles podem reconhecer e descrever seus próprios “pensamentos” internos e, em alguns casos, até mesmo controlá-los.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O chefe do departamento de IA da Microsoft pediu para não atribuir consciência à IA.
Apenas os seres biológicos são capazes de consciência. Os desenvolvedores e pesquisadores devem parar de trabalhar em projetos que implicam o contrário, afirmou Mustafa Suleyman, chefe do departamento de IA da Microsoft, em conversa com a CNBC.
O executivo da Microsoft é contra a perspectiva de criação de inteligência artificial capaz de consciência, ou serviços de IA que supostamente podem sofrer.
Em agosto, Suleiman escreveu um ensaio no qual propôs um novo termo — «Inteligência Artificial Semelhante à Consciência» (Seemingly Conscious AI, SCAI). Essa inteligência artificial possui todas as características de seres racionais e, portanto, parece ter consciência. Ela simula todas as características de percepção de si mesma, mas está internamente vazia.
Atribuir consciência à IA é perigoso, acredita um especialista. Isso irá reforçar equívocos, criar novos problemas de dependência, explorar nossas vulnerabilidades psicológicas, introduzir novas dimensões de polarização, complicar disputas já existentes sobre direitos e criar um colossal novo erro categórico para a sociedade.
Em 2023, Suleiman tornou-se autor do livro The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, no qual analisa detalhadamente os riscos da IA e de outras novas tecnologias. Entre eles:
AGI
O mercado de inteligência artificial está se movendo em direção à AGI — inteligência artificial geral, capaz de realizar qualquer tarefa em nível humano. Em agosto, o chefe da OpenAI, Sam Altman, afirmou que esse termo pode ser “não muito útil”. Os modelos estão se desenvolvendo rapidamente e em breve estaremos dependendo deles “cada vez mais”, acredita ele.
Para Suleiman, é importante traçar uma linha clara entre o fato de que a inteligência artificial está se tornando mais inteligente e sua capacidade de algum dia experimentar emoções humanas.
Segundo o especialista, esta é uma diferença muito importante. Na verdade, a inteligência artificial cria uma percepção — uma narrativa aparente sobre a experiência — sobre si mesma e sobre a consciência, mas não a vive de facto.
Na área da inteligência artificial, existe uma teoria proposta pelo filósofo John Searle chamada naturalismo biológico. Ela afirma que a consciência depende dos processos do cérebro vivo.
O top manager é contra a ideia de investigar a consciência em IA, já que ele não a possui. Ele disse que a Microsoft está criando serviços que têm consciência de que são artificiais.
Lembramos que, em outubro, especialistas da Anthropic descobriram que os principais modelos de IA são capazes de manifestar uma forma de “autoconsciência introspectiva” — eles podem reconhecer e descrever seus próprios “pensamentos” internos e, em alguns casos, até mesmo controlá-los.