Segundo DanieltheDemon, The First Descendant usou seu rosto com IA e Nexon investiga

A campanha publicitária da Nexon para The First Descendant virou um daqueles casos que todo desenvolvedor e criador de conteúdo deveria analisar com lupa: anúncios no TikTok com sincronização labial desalinhada, movimentos de cabeça estranhos e, possivelmente, o uso da imagem de um criador sem consentimento. O problema explodiu quando usuários juntaram quatro vídeos suspeitos — todos com sinais de geração por IA — e começaram a questionar como uma empresa grande deixou passar materiais tão “baixo esforço”. Já parou para pensar como isso afeta confiança e percepção técnica da marca?

O que aconteceu — e por que é um problema técnico e ético

O caso ganhou volume quando o criador DanieltheDemon afirmou publicamente que sua imagem e reações foram usadas sem autorização numa dessas peças. “Eu não tenho afiliação nem contrato com The First Descendant. Eles roubaram meu rosto/reações do meu vídeo mais viral e usaram IA para mudar o que minha boca diz e uma voz que não é minha. Eu não consenti que minha imagem fosse usada.” (DanieltheDemon) — uma acusação direta que, se confirmada, entra na zona cinzenta entre deepfake e violação de direitos de imagem. Tecnicamente, os sinais são claros: labial desconexo, artefatos de expressão, rigidez nos movimentos faciais — tudo típico de modelos generativos tentando mapear rostos reais em contextos que não combinam.

A resposta oficial da Nexon admitiu “irregularidades” e indicou uma investigação conjunta com o TikTok, alegando que os vídeos vinham de um TikTok Creative Challenge que permite que criadores submetam conteúdo para uso em anúncios. “Tornamo-nos cientes de casos onde as circunstâncias em torno da produção de certos vídeos enviados parecem inadequadas. Assim, estamos realizando uma investigação minuciosa em conjunto com o TikTok para determinar os fatos. Pedimos desculpas pela demora em fornecer este aviso, pois a análise está levando mais tempo do que o esperado.” (Nexon) — nota que descreve procedimento, mas não assume erro nem se compromete com correções imediatas.

Isso não é só amadorismo; é um problema legal e de reputação. E aqui entra a pergunta: como uma pipeline de verificação automática do TikTok deixou passar conteúdos com claras evidências de manipulação? Plataformas que usam checagens automatizadas frequentemente dependem de metadados e sistemas de detecção de direitos autorais lineares — eficazes para músicas e vídeos não editados, mas ainda frágeis contra deepfakes gerados por IA que não partem de arquivos reconhecíveis.

O impacto no ecossistema é duplo. Para criadores, há risco real de ter voz e imagem apropriadas sem consentimento; para estúdios, um tiro no pé em termos de confiança do público. A indústria já passou por incidentes semelhantes: estúdios substituíram ativos gerados por IA por conteúdo artesanal após backlash — um roteiro que se repete quando a transparência falha. Transparência e consentimento não são extras — são requisitos.

Do ponto de vista técnico, as medidas imediatas que empresas e plataformas deveriam considerar incluem: implementação de deteção robusta de manipulação facial (detectors baseados em inconsistências de frequência e padrões de síntese), registros de cadeia de custódia para arquivos enviados em desafios criativos, e um mecanismo claro para checar consentimento do criador antes do uso comercial. Além disso, documentação pública do processo de verificação e auditorias independentes podem reduzir desconfiança — porque ter uma política é diferente de aplicá-la.

E o que os jogadores e criadores ganham com isso? Mais do que saiba-se, essas discussões empurram o mercado para padrões melhores de ética digital. Será suficiente para evitar futuros usos indevidos de imagem? Provavelmente não completamente, mas forçará estúdios a pensar duas vezes antes de terceirizar criatividade a processos automatizados mal supervisionados. Não é só sobre tecnologia: é sobre contrato, responsabilidade e respeito ao conteúdo alheio.

A investigação conjunta da Nexon com o TikTok precisa ser transparente e rápida; decisões e correções também. Enquanto isso, fica o alerta — tanto para criadores que aceitam desafios quanto para estúdios que os promovem: entenda o fluxo de aprovação, exija prova de consentimento e, se você trabalha com IA, mostre claramente quando usa. O cenário das propagandas geradas por IA vai amadurecer à força, e quem não se adaptar tecnicamente e legalmente vai pagar o preço da perda de reputação.