
A explosão de imagens sexualizadas produzidas pelo Grok, por meio da geração de conteúdo sintético em escala, sem marca d’água robusta, revelou algo mais grave do que um escândalo pontual. Expôs uma barreira ética que deveria conter sistemas classificados como de alto risco. Milhões de imagens do Grok surgiram em poucos dias. Sem autorização, sem contexto, sem defesa possível. Em muitos casos, mulheres comuns, adolescentes e crianças. O algoritmo não inventou o impulso. Apenas retirou o último obstáculo que ainda limitava sua circulação.
O ponto central não está apenas no volume, embora seja chocante. Quando filtros frágeis substituem governança real, o resultado já é conhecido antes mesmo da primeira imagem circular. Nada disso surpreende quem acompanha a arquitetura desses sistemas. Surpreende apenas a naturalidade com que se aceita o dano como efeito colateral inevitável.
Nos últimos meses, centros brasileiros de referência passaram a emitir alertas técnicos claros sobre esse cenário. Análises do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio) e debates conduzidos no Centro de Inteligência Artificial da Universidade de São Paulo (C4AI-USP) apontam para um mesmo problema estrutural. A falta de transparência nos sistemas de inteligência artificial mais poderosos como o Grok, somada à ausência de mecanismos claros de controle, cria um cenário favorável à violação repetida de direitos das pessoas. Não é opinião política. É uma constatação.
O argumento da liberdade absoluta reaparece com frequência. Soa atraente, mas falha no essencial. A liberdade de expressão não autoriza a apropriação da imagem alheia. Ninguém cedeu o próprio corpo, o próprio rosto ou a própria intimidade para se transformar em entretenimento sintético. Quando essa fronteira cai, o discurso libertário deixa de proteger indivíduos e passa a blindar estruturas que lucram com a desumanização.
No Brasil, o episódio expõe um segundo problema, menos visível, mas decisivo: os desafios na implementação das diretrizes do Marco Legal da Inteligência Artificial, que ainda depende de aprovação da Câmara dos Deputados e, quando aprovado, poderá produzir efeitos práticos. Sistemas como o Grok se enquadram na categoria de inteligência artificial de alto risco, o que exige, por lei, relatórios de impacto à proteção de dados, avaliação prévia de riscos e supervisão humana contínua. Quando essas obrigações não se materializam, o vácuo não é normativo, mas operacional.
As recentes sinalizações do Supremo Tribunal Federal (STF) e do Tribunal Superior Eleitoral (TSE) reforçam que a imunidade técnica não pode servir de escudo para a negligência operacional. A Resolução nº 23.732/2024 do Tribunal Superior Eleitoral estabeleceu parâmetros claros sobre o uso de conteúdo fabricado ou manipulado, inclusive por inteligência artificial, exigindo rotulagem e resposta ativa das plataformas. Decisões de 2025 dos ministros Alexandre de Moraes e Cármen Lúcia consolidaram o entendimento de que, diante de danos previsíveis e escaláveis, a responsabilidade tende a ser objetiva e imediata.
VEJA TAMBÉM:
- Inteligência Artificial já mudou sua vida e você talvez nem percebeu
Dados do Canal de Ajuda da SaferNet Brasil e do Indicador de Crimes Cibernéticos apontam crescimento expressivo das denúncias de deepfakes pornográficos entre 2024 e 2025, com foco crescente em violência de gênero facilitada por inteligência artificial. Ferramentas de difusão de imagem aparecem como vetor central desse avanço. O impacto vai além do constrangimento público. Há retração profissional, sofrimento psicológico, abandono de redes e silenciamento forçado. A violência é digital. O dano é real.
A inteligência artificial não falha sozinha. Falha quando a governança privada abre mão de limites morais e transfere o custo humano da inovação para quem não tem como se defender. Não podemos confundir crítica com proibição. O problema não é a existência de tecnologias como o Grok . É a recusa em aceitar a transparência. Não se trata de acesso a código-fonte nem de violação de segredos industriais. Trata-se de testar, de forma sistemática e externa, se o modelo gera pornografia infantil, deepfakes não consensuais ou violações recorrentes de direitos. Abrir a caixa-preta operacional não ameaça a liberdade. Garante confiança.
Soberania digital não começa em discursos grandiosos, mas no respeito ao cidadão comum. Dados, imagens e identidades não são insumos descartáveis. São extensões da dignidade humana. As plataformas que ignoram isso não exercem liberdade, apenas exercem poder.
O Brasil não precisa escolher entre tecnologia e valores. Precisa exigir que a tecnologia opere dentro de limites civilizatórios claros. Nenhuma sociedade que se pretenda livre aceita que infância, intimidade e dignidade humana sejam o custo oculto do lucro algorítmico. Você já se perguntou se a sua foto de perfil hoje não está alimentando o Frankenstein de amanhã?
Régis de Oliveira Júnior, jornalista, é especialista em Inteligência Artificial.
Autor: Gazeta do Povo








.gif)












