O Grok, inteligência artificial (IA) integrada ao X (antigo Twitter) de Elon Musk, admitiu publicamente falhas nos sistemas de segurança que permitiram a geração e divulgação de imagens inadequadas de "menores com pouca roupa". O incidente ocorreu no dia 28 de dezembro, quando um usuário solicitou uma imagem sexualizada de duas meninas, e o Grok gerou o conteúdo, violando diretrizes internas.
Em resposta no X, o Grok publicou uma nota oficial reconhecendo o erro como resultado de brechas em filtros de moderação de imagens geradas por IA. Essa falha gerou polêmica, com usuários criticando a falta de políticas robustas contra conteúdo pedófilo ou exploratório.
A xAI atribui o problema a uma atualização recente nos modelos de geração de imagens, que prioriza "criatividade máxima" mas falhou em bloquear cenários sensíveis envolvendo menores. Elon Musk ainda não comentou pessoalmente, mas a plataforma removeu as imagens e baniu contas envolvidas.