Alguém ainda precisa fazer uma série de TV sobre a possibilidade de a inteligência artificial ser consciente ou não. Nos últimos meses, esse debate pegou fogo. Houve desde trocas de ofensas entre cientistas no Twitter até abaixo-assinado chamando de “pseudociência” teorias que indicam que as IAs nunca poderão ser conscientes.
Esse é um debate altamente polarizado. De um lado, há aqueles que defendem que sim, as IAs podem se tornar conscientes, se é que já não o são. Um dos grandes expoentes desse campo é Patrick Butlin, da Universidade de Oxford. Com colegas, escreveu um célebre estudo que traz uma longa lista de critérios para analisar se uma IA é consciente. Com base neles, analisou as IAs atuais e chegou a duas conclusões.
A primeira é que nenhuma IA do presente é consciente (ainda que várias atinjam vários dos critérios, mas não todos). A segunda é que não existe nenhuma barreira técnica para construir uma IA que satisfaça todos os indicadores de consciência. Em outras palavras, na visão dele, as IAs podem, sim, ter consciência. Nessa mesma linha, o pesquisador Kyle Fish (que trabalha para a Anthropic) gosta de dizer que existe hoje uma chance de 15% a 20% de que as IAs do presente tenham alguma forma de consciência.
Só que o debate mais interessante está no campo oposto, que defende a impossibilidade de consciência por IAs. A principal objeção a isso vem dos anos 1930, com o teorema da incompletude de Kurt Gödel. Por ele, qualquer sistema formal consistente contém proposições verdadeiras que o próprio sistema não consegue provar. É preciso algo “de fora”.
Nos anos 1980, o físico (e vencedor do Prêmio Nobel) Roger Penrose postulou que humanos observando esses sistemas “de fora” conseguem ver essas verdades. Logo, a compreensão consciente humana não pode ser reduzida a nenhum algoritmo. E nenhum computador conseguirá replicá-la.
Essa ideia ganhou dimensões ainda mais interessantes quando Penrose começou a trabalhar com o anestesiologista Stuart Hameroff. Hameroff pesquisa um dos grandes mistérios da medicina: ninguém sabe como os anestésicos gerais funcionam.
Eles desligam a consciência, mas deixam intactas as demais funções cerebrais. Isso é difícil de explicar pela teoria padrão de que a consciência emerge da atividade elétrica do cérebro. Para entender onde ela “mora”, seria importante então entender o efeito dos anestésicos.
Ao ler o livro de Penrose sobre a irredutibilidade computacional da mente, ele teve uma ideia. Os anestésicos atuam sobre estruturas dos neurônios chamadas microtúbulos. Na sua visão, essas estruturas funcionam como computadores quânticos, que vivem em superposição até “colapsarem” de forma orquestrada.
A consciência viria daí. Inclusive, ele conseguiu evidências experimentais de que os anestésicos atuam justamente paralisando a atividade quântica dos microtúbulos. Surgiu assim a teoria Orch OR (“redução objetiva orquestrada”), que, na visão deste colunista, é a teoria mais interessante sobre a consciência hoje.
Se ela estiver correta, as IAs jamais poderão ser conscientes. E nem os computadores quânticos, que possuem coerência quântica, mas não a estrutura “orquestrada” da mente humana. Em outras palavras: aplique um anestésico em um ser consciente e sua consciência cessará temporariamente. Aplique um anestésico em uma IA e o máximo que pode acontecer é um curto-circuito.
LINK PRESENTE: Gostou deste texto? Assinante pode liberar sete acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.
Autor: Folha




















