O Grok, a controversa plataforma de IA (inteligência artificial) de Elon Musk, sob responsabilidade da empresa xAI, segue gerando deepfakes de mulheres e crianças, em fotos sensuais incluindo nudez sem a autorização dos retratados, para qualquer usuário, embora diga o contrário.
A página de Grok no X (ex-Twitter) passou a informar, nesta sexta-feira (9), que o uso do gerador de imagens estava restrito apenas a assinantes (o serviço é vendido por R$ 42 mensais), após protestos sobre o uso ilegal da IA, deliberadamente feita para ter menos limites do que as concorrentes.
No entanto, ainda é possível pedir que o modelo de Musk gere imagem de pessoas vestidas em biquinis em uma plataforma externa, mantida em um domínio da xAI. Chamar o Grok no antigo Twitter é apenas uma das formas de usá-lo. Desde o início do ano, repercute uma série de denúncias de que o chatbot é usado para criar imagens explícitas de pessoas sem consentimento.
Essas revelações levaram legisladores da UE, França e Reino Unido a ameaçar a plataforma com multas e proibições, a menos que tomasse providências.
Em resposta automática enviada a Folha, a xAI disse que “a mídia tradicional mente”.
Desde o final de dezembro, os usuários do X estão aumentando as solicitações ao Grok, o chatbot de IA vinculado à rede social, para alterar fotos que as pessoas publicam de si mesmas.
Durante uma análise de 24 horas das imagens que a conta @Grok publicou no X, o chatbot gerou cerca de 6.700 por hora que foram identificadas como sexualmente sugestivas ou de nudez, de acordo com Genevieve Oh, pesquisadora de mídias sociais e deepfakes. Os outros cinco principais sites para esse tipo de conteúdo tiveram uma média de 79 novas imagens de nudez por IA por hora no período de 24 horas, de 5 a 6 de janeiro, segundo Oh.
O chatbot de Musk ainda inclui um recurso que permite aos usuários gerar imagens provocantes.
O primeiro-ministro britânico, Keir Starmer, prometeu na quinta-feira (9) tomar medidas contra o X, instando a plataforma de mídia social a “organizar-se” e impedir que sua ferramenta de chatbot de IA produza imagens sexualizadas de crianças.
Depois que a xAI anunciou ter limitado o acesso ao Grok nesta sexta, um porta-voz do governo britânico disse que a medida “simplesmente transforma um recurso de IA que permite a criação de imagens ilegais em um serviço premium. Não é uma solução. Na verdade, é insultuoso para as vítimas de misoginia e violência sexual”.
A Comissão Europeia ordenou que o X retenha documentos internos relacionados ao Grok até o final do ano. Ministros franceses também denunciaram as imagens sexuais geradas pelo programa a promotores e reguladores de mídia.
Em 3 de janeiro, Musk publicou no X que “qualquer pessoa que use o Grok para fazer conteúdo ilegal sofrerá as mesmas consequências como se tivesse carregado conteúdo ilegal”.
O avanço da IA generativa levou a uma explosão de imagens deepfake não consensuais, devido à facilidade de usar a tecnologia para criar tais imagens.
A Internet Watch Foundation, organização sem fins lucrativos baseada no Reino Unido, afirmou que as imagens de abuso sexual infantil geradas por IA dobraram no último ano, com o material se tornando mais apelativo e explícito.
Embora a xAI tenha afirmado ter removido imagens ilegais de crianças geradas por IA, o incidente mais recente levantará mais preocupações sobre a facilidade de contornar as barreiras de segurança nos modelos de IA. A indústria de tecnologia e os reguladores têm lidado com o impacto social de longo alcance do recurso.
Em 2023, pesquisadores da Universidade de Stanford, nos EUA, descobriram que um banco de dados popular usado para criar geradores de imagens de IA estava cheio de material de abuso sexual infantil.
As leis que regem o conteúdo prejudicial gerado por IA ainda estão sendo debatidas. Em maio de 2025, os EUA assinaram a Lei Take It Down, que combate a “pornografia de vingança” e deepfakes gerados por IA.
O Reino Unido também está trabalhando em um projeto de lei para tornar ilegal possuir, criar ou distribuir ferramentas de IA que possam gerar material de abuso sexual infantil, e para exigir que os sistemas de IA sejam minuciosamente testados para verificar se não podem gerar conteúdo ilegal.
Autor: Folha






