Editora de jogos afirma que TikTok usou IA para alterar anúncios, adicionando um estereótipo racista

O editor independente Finji diz que o TikTok usou IA generativa para alterar seus anúncios sem permissão – incluindo um que inseriu um estereótipo racista e sexualizado de um personagem de Usual June. O estúdio, conhecido por publicar títulos como Night in the Woods e Tunic e desenvolver Usual June e Overland, diz que os anúncios modificados foram veiculados como se tivessem sido postados em sua conta oficial.

A CEO da Finji, Rebekah Saltsman, levantou a questão publicamente pela primeira vez, perguntando aos seguidores do Bluesky: “Se você vir algum anúncio da Finji que se pareça distintamente com o UN-Finji, envie-me um screencap.”

Em conversa com o IGN, Saltsman disse que Finji “desligou totalmente a IA” em sua conta de anúncios TikTok. A equipe só tomou conhecimento do problema depois que os usuários começaram a comentar sobre seus anúncios legítimos, questionando versões estranhas que não correspondiam aos criativos de vídeo originais. Os espectadores enviaram capturas de tela mostrando o que pareciam ser variantes geradas por IA. Uma imagem vista pelo IGN mostra uma versão alterada da arte principal de Usual June, na qual a protagonista June é redesenhada com quadris e coxas exagerados, parte inferior do biquíni e botas acima do joelho – imagens que Saltsman diz invocar um estereótipo prejudicial.

Em mensagens analisadas pelo IGN, um agente de suporte do TikTok confirmou que Finji desativou o “Smart Creative” e o “Automate Creative” – recursos que usam IA generativa para remixar ou otimizar ativos de anúncios. Apesar disso, o suporte disse inicialmente a Finji que não havia evidências de que o sistema adicionasse conteúdo gerado por IA ou recursos de apresentação de slides montados automaticamente.

Depois que Finji reenviou a captura de tela ofensiva e exigiu escalada, TikTok respondeu: “Não estamos mais contestando se isso ocorreu”, reconhecendo “o uso não autorizado de IA, a sexualização e deturpação de seus personagens” e prometendo uma revisão interna.

Dias depois, no entanto, o suporte do TikTok ofereceu uma explicação diferente, dizendo que Finji havia sido incluído em “uma iniciativa automatizada mais ampla” vinculada a um formato de anúncios de catálogo projetado para aumentar o desempenho, alegando que campanhas que usam ativos mistos apresentam um “aumento de ROAS de 1,4x” (retorno sobre gastos com publicidade). A empresa ofereceu solicitar que Finji fosse adicionado a uma lista de bloqueio de exclusão, embora a aprovação não fosse garantida. Quando Finji perguntou por que havia optado por participar sem consentimento e por que não poderia optar por não participar de forma confiável, o suporte respondeu que o representante atual era “a equipe interna mais alta disponível” e que “constatações e ações finais” já haviam sido fornecidas.

Saltsman considerou a resposta desconcertante. “Uma coisa é ter um algoritmo racista e sexista, e outra coisa é usar IA para produzir conteúdo de seus parceiros de negócios pagantes… e também NÃO responder a nenhum desses erros de forma coerente?

Ela acrescentou: “Este é o meu trabalho, o trabalho da minha equipe e a reputação minha e da minha empresa – que passei mais de uma década construindo … aqui está o que é realmente divertido sobre tudo isso – você, que pagou e fez anúncios representativos para o seu trabalho, nunca verá o que eles fizeram com o seu trabalho. Mas o seu público verá. E talvez alguém nesse público seja corajoso o suficiente para entrar em contato para informá-lo sobre o que está acontecendo. “

Finji diz que não recebeu mais atualizações, apesar de acompanhamentos adicionais, e a TikTok se recusou a comentar sobre o registro.

Deixe um comentário