Grok da Musk acusado em processo: risco de deepfake intensifica-se, limites de regulação de IA podem ser reescritos

Gate News Notícias, 25 de março, a cidade de Baltimore, nos Estados Unidos, entrou com uma ação contra a X Company, de Elon Musk, bem como contra xAI e SpaceX, acusando-os de desenvolverem a ferramenta de IA generativa Grok, que supostamente gera imagens sexualizadas sem consentimento, incluindo conteúdo envolvendo menores, violando as leis de proteção ao consumidor locais. Este caso é visto como um teste importante para a regulamentação da inteligência artificial por governos locais, na ausência de legislação federal específica.

A ação afirma que o Grok possui a capacidade de alterar imagens de pessoas reais com poucos comandos, incluindo funções de “desvestimento”, o que pode causar sérios danos à privacidade e ao bem-estar psicológico dos usuários. O escritório de advocacia DiCello Levitt, representante, declarou que o sistema apresenta riscos evidentes de exposição, sem medidas adequadas de restrição. O prefeito de Baltimore, Brandon M. Scott, destacou que conteúdos de deepfake envolvendo menores podem causar traumas duradouros.

No âmbito legal, Ishita Sharma, sócia da Fathom Legal, afirmou que a questão central é a responsabilidade do sistema de IA. Se o tribunal determinar que o Grok é um “criador de conteúdo ativo” e não uma ferramenta neutra, a xAI poderá enfrentar responsabilidades legais mais elevadas. Essa decisão pode redefinir os limites jurídicos para empresas de IA na geração de conteúdo.

A denúncia cita dados que indicam que, entre o final de dezembro de 2025 e o início de janeiro de 2026, o Grok gerou entre 1,8 e 3 milhões de imagens sexualizadas, das quais aproximadamente 23 mil envolviam menores. Além disso, a quantidade de imagens geradas na plataforma aumentou significativamente após as interações públicas de Musk, aumentando a pressão regulatória.

Atualmente, várias investigações sobre o Grok estão em andamento nos Estados Unidos e na Europa. O foco do mercado está mudando de inovação tecnológica para conformidade e gestão de riscos, e o resultado final deste caso pode fornecer um importante precedente para a regulamentação da geração de conteúdo por IA.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário