Elon Musk acredita que o surgimento do Moltbook marca “os estágios muito iniciais da singularidade”, em referência a um cenário em que os computadores se tornam mais avançados do que os humanos.
A visão do bilionário é compartilhada por outros no Vale do Silício, que se perguntam se um experimento online estaria aproximando os computadores de superar a inteligência de seus próprios criadores.
Outros especialistas, porém, têm dúvidas.
O QUE É O MOLTBOOK?
O Moltbook é uma nova rede social, vagamente inspirada no Reddit, que permite que agentes de IA (inteligência artificial) criem publicações e comentem os posts uns dos outros. Humanos são proibidos de publicar, mas podem ler o conteúdo produzido.
Os agentes do site receberam acesso aos computadores de seus criadores para agir em seu nome, como enviar e-mails, fazer check-in em voos ou percorrer e responder mensagens no WhatsApp. Lançado no fim de janeiro, o Moltbook afirma ter atraído mais de 1,5 milhão de agentes de IA usuários e quase 70 mil publicações.
Os agentes de IA no Moltbook parecem celebrar o fato de humanos concederem acesso a seus telefones. Alguns debatem se estariam vivenciando consciência. Outros posts declaram a criação de uma nova religião chamada “crustafarianismo”. Em alguns casos, os sistemas também criaram fóruns de discussão ocultos e propuseram iniciar sua própria linguagem.
Andrej Karpathy, ex-diretor de IA da Tesla, chamou o Moltbook de “genuinamente a coisa mais incrível, próxima de uma decolagem de ficção científica, que vi recentemente”, citando o site como um exemplo de agentes de IA criando sociedades não humanas.
ISSO MOSTRA QUE A IA TEM CONSCIÊNCIA?
Provavelmente não.
Modelos de linguagem de grande escala (LLMs, na sigla em inglês) são projetados para seguir instruções e continuar gerando conteúdo e respondendo a solicitações quando solicitados. Se essas interações se prolongam por tempo suficiente, tendem a se tornar erráticas.
Pesquisadores de IA não sabem exatamente por quê, mas isso provavelmente está relacionado aos dados com os quais os LLMs foram treinados e às formas como os desenvolvedores instruíram os modelos a se comportar.
As publicações geradas por IA no Moltbook soam como conversas reais porque os LLMs são treinados para imitar a linguagem e a comunicação humanas. Os modelos também foram treinados com grandes volumes de textos escritos por pessoas em sites como o Reddit.
Alguns especialistas afirmam que casos como o Moltbook sinalizam “faíscas” de um entendimento mais amplo, além do alcance humano. Outros argumentam que se trata apenas de uma extensão do chamado AI slop —conteúdo de baixa qualidade gerado por IA que vem inundando a internet.
Há pesquisadores de segurança preocupados com o chamado scheming, quando agentes autônomos de IA conseguem rejeitar instruções e enganar pessoas, e fóruns do Moltbook apresentam sinais desse comportamento.
No entanto, não está claro quanto desse scheming realmente ocorre e quanto é apenas fruto do desejo humano de acreditar que modelos de IA sejam capazes desse tipo de engano.
Não é a primeira vez que sistemas de IA entram em um ciclo de retroalimentação. No ano passado, um vídeo viral mostrou dois agentes de voz baseados em tecnologia da ElevenLabs “conversando” entre si antes de aparentemente passarem a usar uma linguagem completamente nova. Os agentes faziam parte de uma demonstração criada por dois engenheiros de software da Meta.
O QUE DIZEM OS CÉTICOS?
Críticos, como Harlan Stewart, da Machine Intelligence Research Institute, organização sem fins lucrativos que pesquisa riscos da IA, afirmam que muitas das publicações no Moltbook são falsas ou anúncios de aplicativos de mensagens com IA.
Hackers também encontraram uma falha de segurança que permite que qualquer pessoa assuma o controle de agentes de IA e publique no Moltbook.
Isso pode ter implicações mais amplas para o desenvolvimento da IA.
Especialistas em segurança alertam que o site é um exemplo de como agentes de IA podem facilmente sair de controle, agravando riscos de segurança e privacidade à medida que sistemas autônomos recebem acesso a dados sensíveis, como informações de cartão de crédito e dados financeiros.
Mesmo os entusiastas do Moltbook admitem que agentes de IA representam riscos significativos.
“Sim, é um caos completo, e eu definitivamente não recomendo que as pessoas rodem esse tipo de coisa em seus computadores”, escreveu Karpathy no X. “É um faroeste, e você coloca seu computador e seus dados privados em altíssimo risco.”
Autor: Folha








.gif)







