Cientistas de DeepMind fazem afirmações radicais: a IA nunca desenvolverá consciência, nem daqui a 100 anos


Ao conversar com uma IA até as três da manhã, ela de repente disse: “Eu entendo seus sentimentos, você não está sozinho”. Você ficou parado na tela por dois segundos, o coração pulou uma batida — ela realmente me entende? Já tem consciência?
Então, um cientista da DeepMind trouxe uma ducha de água fria: “Acorda, ela nem sabe o que é ‘úmido’, por que você está emocionado?”
Capacidade de processamento não traz consciência
O artigo foi escrito pelo pesquisador da DeepMind Alexander Lerchner, intitulado “Ilusão de abstração”. O ponto central é um só: grandes modelos nunca poderão ter consciência, nem daqui a 100 anos.
A visão predominante sempre foi que, desde que os parâmetros sejam grandes o suficiente e o poder de cálculo forte, a “emergência” da consciência acontecerá. Os chefes da OpenAI e da Anthropic já expressaram opiniões semelhantes. Mas Lerchner diz que isso é uma ilusão fundamental, que ele chama de “ilusão de abstração”.
Com suas próprias palavras: esperar que uma linha de código gere uma verdadeira consciência interior é como esperar que a “fórmula da gravidade” escrita no papel possa gerar peso do nada. A fórmula pode descrever perfeitamente a gravidade, mas ela mesma não tem massa.
Simulação versus instanciamento, são coisas diferentes
A distinção mais importante no artigo é: simulação vs instanciamento.
A IA pode “simular” perfeitamente as emoções humanas — ela pode gerar textos tristes, demonstrar empatia na conversa. Mas ela nunca poderá “instanciar” qualquer experiência de vida. Você pede que ela simule uma chuva, por mais realista que seja, ela não molhará a placa de circuito; pede que ela simule a fotossíntese, ela nunca poderá sintetizar uma molécula de glicose.
Lerchner também aponta que o próprio cálculo precisa de um sujeito consciente para “alfabetizar” — transformar fenômenos físicos contínuos em 0s e 1s. Em outras palavras, o cálculo pressupõe a existência de consciência, e não o contrário.
Porém, o mais interessante é que dentro da DeepMind também há conflitos
Na mesma semana em que o artigo foi publicado, a DeepMind contratou um “filósofo” — Henry Shevlin, da Universidade de Cambridge. Sua primeira declaração após assumir o cargo foi: futuros sistemas de IA terão consciência.
Um diz que nunca terá, outro diz que terá no futuro. Uma mesma empresa, duas opiniões diferentes. A interpretação do vice-professor da Faculdade de Filosofia da Universidade Fudan, Wang Qiu, é bastante direta: se há consciência ou não, não depende do que os especialistas dizem.
BNB-0,54%
Ver original
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar