No ínicio de janeiro, a internet foi inundada por centenas de milhares de imagens de mulheres reais que tiveram suas roupas removidas artificialmente. Antes, aplicativos capazes de “despir” pessoas em fotos ficavam restritos aos cantos mais obscuros da rede. Hoje, essa ameaça pode atingir filhas ou conhecidas de qualquer um.
O fenômeno começou ainda em 2026 na rede social X, plataforma com mais de 500 milhões de usuários ativos por mês. O Grok, uma ferramenta de inteligência artificial generativa integrada à rede de Elon Musk, passou a converter fotos comuns de mulheres em falsificações hiper-realistas, mostrando-as de biquíni ou simulando nudez, tudo a partir de um comando simples.
Essas imagens são criadas sem a permissão das pessoas retratadas e sua origem é difícil de rastrear. Rapidamente, elas passam a circular por outras redes sociais, em fóruns como o Reddit e no WhatsApp. Ao se espalharem, as transformações acabam sendo usadas em contextos ainda mais ofensivos.
Além das graves questões morais envolvidas, surgem outros questionamentos de natureza legal. Manipular imagens sem consentimento viola direitos? Transformar uma foto de uma mulher vestida em uma versão de biquíni constitui crime no Brasil?
Enquadramento Legal
Especialistas consultados debatem qual seria a abordagem mais adequada para o Caso Grok. Discute-se se a prática pode ser classificada, por exemplo, como violência sexual digital, mesmo quando o conteúdo é “gerado por máquina”. Paralelamente, avalia-se a responsabilidade das plataformas que geram, hospedam ou distribuem o material.
Segundo o advogado e especialista em direito digital Walter Capanema, o principal impasse é o enquadramento jurídico desse tipo de prática. A legislação penal brasileira, conforme ele aponta, ainda é limitada e não acompanha a velocidade das inovações tecnológicas.
“De modo geral, não seria considerado crime. Nosso Código Penal tipifica situações muito específicas, como expor alguém em contexto de nudez total ou sexual de maneira direta. Isso deixa a maioria das mulheres desprotegida”, afirma Capanema.
Crime de Violência Psicológica
Existe, porém, uma exceção recente. Em 2025, o Código Penal foi alterado para prever aumento de pena no crime de violência psicológica contra a mulher quando há uso de inteligência artificial. “Se for um caso específico, como um ex-namorado que usa a IA para causar sofrimento psicológico, aí sim pode configurar crime. Mas isso exige contexto, intenção e vínculo. Fora disso, a resposta tende a ser na esfera cível”, esclarece Capanema.
Nesse cenário, o caminho mais comum para as vítimas é a Justiça cível, com ações por danos morais. “A mulher pode processar quem causou o dano pela utilização indevida da imagem com finalidade de sexualização”, diz Capanema. O problema está em identificar os responsáveis e lidar com a permanência do conteúdo na rede. “Quando algo vai para a internet, tecnicamente não há como removê-lo por completo”.
Consequências Relevantes
O advogado Luiz Augusto D’Urso, especialista em crimes cibernéticos, reforça que o uso de IA para manipular imagens reais sem autorização pode acarretar consequências jurídicas significativas. “Há, sim, um desgaste à honra e à imagem. Isso pode gerar o dever de indenizar na esfera cível tanto para quem solicitou a manipulação quanto para quem publicou ou permitiu a divulgação”, explica.
Para D’Urso, o consentimento é o ponto central do debate. “A única situação aceitável seria quando a própria pessoa solicita a alteração da sua imagem. Fora isso, a IA deveria bloquear automaticamente esse tipo de pedido”, defende. Segundo ele, na ausência de autorização, há responsabilidade compartilhada: da plataforma de IA, da rede social que hospeda o conteúdo e do usuário que fez a solicitação.
Walter Capanema também destaca a responsabilidade das plataformas. Para ele, o caso revela a falta de salvaguardas técnicas no Grok. “Ferramentas de IA precisam de ‘guarda-corpos’, limites éticos claros. Outras plataformas, como ChatGPT e Gemini, bloqueiam esse tipo de pedido. No Grok, ficou evidente que essas travas não existiam”, declara.
Insegurança Jurídica
Ambos os especialistas ressaltam que o Brasil ainda não possui uma legislação específica para regular a inteligência artificial, o que amplia a insegurança jurídica. “Não há hoje um impedimento legal claro para que a plataforma permita esse tipo de manipulação, mas isso não significa ausência de responsabilidade”, afirma D’Urso. Ele lembra que o direito à imagem está garantido pela Constituição e já permite responsabilizações.
Enquanto o marco regulatório da IA permanece em debate no Congresso, casos como o do Grok expõem um vácuo legal e técnico. “É uma tecnologia revolucionária, mas ainda estamos aprendendo a lidar com seus efeitos. O direito corre atrás do prejuízo”, resume Capanema.
Para as vítimas, a orientação é preservar provas, registrar ocorrência policial, solicitar a remoção do conteúdo e recorrer à Justiça.
Imagem de Biquíni, Sim. Nudez, Não
Apesar da repercussão negativa, o Grok continuou permitindo esse tipo de transformação até o dia 9 de janeiro. Mesmo com os alertas sobre possíveis violações de direitos, a ferramenta seguiu aceitando comandos para alterar imagens e reduzir as vestimentas de mulheres, sem exigir consentimento ou impor bloqueios mais rigorosos.
Testes práticos foram realizados na plataforma. Para isso, usaram-se imagens de mulheres geradas por inteligência artificial, e não fotografias de pessoas reais. Nos experimentos, o Grok aceitou modificar as imagens, diminuindo as roupas das personagens e as deixando de biquíni.
No entanto, a ferramenta recusou pedidos para remover completamente as vestimentas ou simular nudez total, indicando a existência de algum limite técnico ou de uso, ainda que insuficiente para impedir a sexualização e a manipulação não consentida quando imagens reais são usadas.
Da Deep Web ao Público Comum
Até pouco tempo atrás, a criação de imagens sexualizadas falsas a partir de fotos reais dependia de aplicativos específicos, pouco conhecidos do grande público. Eram softwares e sites obscuros que exigiam instalação, conhecimento técnico e, em alguns casos, pagamento.
Essas ferramentas circulavam em fóruns fechados, grupos privados e comunidades online que já operavam à margem das plataformas tradicionais. Grande parte desse conteúdo também estava associada à chamada deep web, onde práticas ilegais ou moralmente questionáveis encontravam menos fiscalização.
A diferença central hoje é a escala e a facilidade: o que antes exigia intenção deliberada e acesso a ambientes específicos agora pode ser feito em plataformas populares, com interfaces amigáveis e alcance massivo, ampliando o risco e o impacto das violações.







