YouTube 永久 banimento de dois grandes canais de IA, Screen Culture e outros, que usaram trailers falsos de filmes para obter mais de 10 bilhões de visualizações, refletindo o dilema das plataformas entre promover tecnologia e combater conteúdos enganosos.
Relatório exclusivo do meio estrangeiro 《Deadline》 indica que o YouTube já baniu permanentemente dois canais conhecidos por usar inteligência artificial (IA) para criar trailers falsos de filmes: Screen Culture e KH Studio.
Estes dois canais possuem mais de 2 milhões de assinantes, acumulando mais de 10 bilhões de visualizações. Atualmente, ao acessar a página inicial desses canais, aparece apenas uma mensagem de erro indicando que a página não está disponível.
Segundo informações, Screen Culture e KH Studio publicaram em grande quantidade trailers que parecem reais, mas são totalmente fictícios, como 《GTA: San Andreas 2025》 ou 《Surprise 4 Superman: First Step》, e até usam materiais com direitos da Disney.
Embora esses trailers sejam falsos, devido à alta qualidade de produção, aparecem frequentemente nas recomendações do YouTube.
Fonte: Deadline Captura de tela da capa do trailer falso de 《Surprise 4 Superman: First Step》 do canal Screen Culture
No início de 2025, o YouTube já havia suspendido temporariamente a monetização de dois canais de IA após protestos de outros YouTubers, exigindo que fossem adicionados avisos como “paródia” ou “prévia conceitual”. No entanto, após a retomada da monetização, as mensagens de aviso relacionadas aos vídeos populares desses canais desapareceram novamente, dificultando a distinção entre real e falso para os espectadores.
A razão do YouTube ter optado por banir esses dois canais de IA foi por violarem as políticas contra conteúdo spam e metadados enganosos.
Porém, isso também reflete a situação delicada enfrentada pela matriz do YouTube, Google, que por um lado incentiva o uso de ferramentas de IA generativa como Veo por criadores, mas por outro precisa combater o spam gerado por essas tecnologias.
Encontrar um equilíbrio entre promover novas tecnologias e manter a autenticidade do conteúdo na plataforma é um desafio que o Google deve manejar com cuidado.
Os riscos de vídeos com IA não se limitam ao entretenimento, já que também invadiram o setor de saúde, podendo causar danos potenciais aos espectadores mais velhos.
Relatório anterior do 《Crypto City》 revelou que um canal chamado “Fonte de Sabedoria” no YouTube, que circula em Taiwan, parece ser de especialistas médicos falando sobre saúde, mas na verdade esses especialistas não existem, sendo todos gerados por IA, e o canal já acumulou mais de 16 milhões de visualizações.
Alguns usuários apontaram que idosos em casa gostam de assistir ao canal e fazem anotações, preocupando-se com o impacto na compreensão deles.
Fonte: Captura de tela do YouTube do canal Fonte de Sabedoria, que usa IA para criar especialistas discutindo saúde, levando idosos a acreditarem em informações incorretas
Com a popularização da tecnologia de IA generativa, a barreira para criar notícias falsas diminui drasticamente, abrangendo desde trailers fictícios de filmes até informações médicas incorretas, que são amplamente disseminadas por algoritmos.
Diante de um ambiente digital difícil de distinguir entre verdadeiro e falso, além da regulação das plataformas, melhorar a literacia midiática do público tornou-se uma prioridade urgente.
Leitura adicional:
43% dos taiwaneses usam IA! Confiam na alfabetização midiática, mas apenas 10% verificam informações frequentemente