
É #FAKE vídeo que usa imagem de Marcos Palmeira para pedir doação para o cão Orelha; trata-se de golpe
Reprodução
Circula nas redes sociais um vídeo no qual o ator Marcos Palmeira supostamente pede “doações” em uma campanha para “responsabilizar” os autores das agressões que levaram à morte do cão Orelha, no início de janeiro, em Florianópolis. É #FAKE.
selo fake
g1
🛑 Como é a publicação falsa?
O vídeo viralizou no Facebook e no Instagram no início deste mês e explora a comoção em torno do caso Orelha, cachorro comunitário que vivia na Praia Brava. Em 5 de janeiro, ele teve de passar por eutanásia devido à gravidade dos ferimentos. Nesta terça-feira (3), a Polícia Civil de Santa Catarina apontou um adolescente como autor da agressão e pediu a internação provisória do jovem.
Na parte superior do quatro, há o seguinte enunciado: “Vamos mostrar que isso não passa batido”. A tela se divide em duas: à direita, aparece Marcos Palmeira falando diretamente à câmera; à esquerda, há a foto de um cachorro parecido com Orelha e retratos borrados de quatro pessoas (inicialmente, a investigação havia indicado envolvimento de quatro menores de idade no episódio).
Mas a fala atribuída ao ator foi criada com inteligência artificial (IA) – leia detalhes abaixo. A versão manipulada diz: “Oi, eu sou o Marcos Palmeira, sou ator, mas sou eu mesmo. Eu quero fazer um convite para vocês. Por favor, é muito importante. Fiquem comigo até o final que é assunto sério. Está acontecendo um movimento no Brasil todo pelo caso do Orelha. Temos menos de 7 dias para a gente conseguir fazer a coisa certa. Um cachorro que levou um fim da pior forma, tal forma que, até para falar, é complicado, dói no coração. Tudo isso, por quatro pessoas desalmadas. Foi aberta uma campanha para levar o caso para a frente com uma equipe de profissionais para que esse caso não seja arquivado e os responsáveis não saiam impunes dessa situação. E eu estou falando, assim, meio urgente, porque temos menos de 7 dias para garantir que esse caso não seja esquecido […]. Talvez você nunca tenha conhecido Orelha, mas imagine só essas pessoas andando pela rua como nada tivesse acontecido. Conto com a ajuda de todos vocês. Clique aqui no link abaixo e faça sua parte. Vamos fazer o que é certo, aquilo que Deus nos ensinou”.
Na parte inferior do quadro, um link direciona o usuário a um site de uma vaquinha solidária on-line com propostas de doações de R$ 30 a R$ 1 mil. O endereço é pouco confiável, segundo uma ferramenta de análise de segurança, e exige um pagamento via PIX. O valor vai para uma intermediadora de pagamentos que não revela o destinatário final dos recursos.
Além disso, a página apresenta sinais típicos de golpe como: apelo emocional extremo; foco em urgência; ausência de CNPJ, razão social, endereço físico ou responsável legal pela campanha; e pagamento fora de plataformas conhecidas ou que permita auditoria.
⚠️ Por que a publicação é falsa?
Ao Fato ou Fake, Marcos Palmeira enviou um e-mail, por meio de sua assessoria de imprensa, desmentindo o material:
“Os criminosos se apropriaram de uma causa importante, que eu apoio, para aplicar o golpe. É uma prática sórdida, que a gente tem que denunciar e combater. Temos que ficar sempre muito atentos, principalmente nesse ano de eleição, que não vai ser fácil”. A equipe informou ainda que, provavelmente, os criminosos usaram uma foto do autor como base para criar o vídeo.
O Fato ou Fake submeteu o conteúdo ao detector de deepfake da plataforma InVID. A ferramenta apontou 98% de probabilidade de adulteração por IA (veja infográfico abaixo). Deepfake é uma técnica que permite alterar vídeos e fotos. Ele permite, por exemplo, substituir o rosto de uma pessoa pelo de outra, além de inserir áudios fabricados.
O Fato ou Fake submeteu o vídeo ao detector de deepfake da plataforma InVID. A ferramenta apontou 98% de probabilidade de o material conter rosto manipulado por inteligência artificial.
Reprodução
Além disso, uma análise com a ferramenta Hiya, que identifica áudios falsos, detectou 92% de probabilidade de o material ter sido gerado por IA (veja infográfico abaixo).
O áudio foi submetido à ferramenta Hiya, que detectou 92% de probabilidade de o material ter sido gerado por IA.
Reprodução
Por fim, a verificação sites de segurança, como ScamAdviser, indicou que o domínio do site golpista é novo, pouco conhecido e tem índice de confiança baixo (veja infográfico abaixo).
Uma análise por sites de segurança como ScamAdviser aponta que o domínio é novo e pouco conhecido. Além disso, tem índice de confiança baixo.
Reprodução
Vídeo mostra Orelha andando em calçada após horário estimado da agressão, confirma polícia
É #FAKE vídeo que usa imagem de Marcos Palmeira para pedir doação para o cão Orelha; trata-se de golpe
Reprodução
Veja também
Vídeo de capivara pegando “carona” em cima de tatu foi feito com IA
É #FAKE vídeo de capivara pegando ‘carona’ em cima de tatu
VÍDEOS: Os mais vistos agora no g1
Veja os vídeos que estão em alta no g1
VÍDEOS: Fato ou Fake explica
VEJA outras checagens feitas pela equipe do FATO ou FAKE
Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)
É #FAKE vídeo de Marcos Palmeira divulgando 'vaquinha' para o caso Orelha; golpe usa IA para manipular imagem e áudio
Siga-nos
Vídeos em Destaque








.gif)












