#Gate广场四月发帖挑战



Empresa de dados de IA Mercor confirma ter sofrido uma violação de dados significativa, envolvendo clientes como OpenAI, Anthropic e outros

Segundo relatos, a startup que fornece dados de treino para empresas de IA como OpenAI, Anthropic e Meta, Mercor, confirmou ter sofrido uma vulnerabilidade de segurança grave. O incidente teve origem num ataque à cadeia de abastecimento ao open source LiteLLM, uma biblioteca amplamente utilizada por desenvolvedores para conectar serviços de IA, com milhões de downloads diários. O ataque foi realizado pelo grupo de hackers TeamPCP, que inseriu código malicioso no LiteLLM para roubar credenciais. Outro grupo de hackers, Lapsus$, afirmou posteriormente ter obtido até 4TB de dados da Mercor, incluindo código fonte, registros de bases de dados, comunicações internas no Slack e vídeos de conversas na plataforma. Segundo relatos não confirmados, alguns conjuntos de dados de clientes da Mercor e informações confidenciais de projetos de IA podem ter sido divulgados. A Mercor afirmou ter tomado medidas rápidas para conter a situação e iniciou uma investigação forense por terceiros.

Este incidente é um típico efeito em cadeia de “inserção de malware na cadeia de abastecimento”, que não só expõe a vulnerabilidade da infraestrutura de IA, mas também coloca em risco os dados de treino de gigantes como a OpenAI.

1. Análise da cadeia de ataque: de “ferramenta” a “dados”

Origem do ataque: o grupo de hackers TeamPCP comprometeu a biblioteca open source LiteLLM (gateway de API de IA), lançando versões com backdoor no PyPI (1.82.7/1.82.8).

Roubo de credenciais: após atualizações de dependências, a Mercor e outras empresas tiveram código malicioso que silenciosamente roubou suas credenciais de nuvem e chaves API.

Roubo de dados: outro grupo de hackers, Lapsus$, usou essas chaves para invadir a rede interna da Mercor, roubando cerca de 4TB de dados essenciais e colocando-os à venda.

2. Valor dos dados divulgados

Segundo Lapsus$ e verificações da mídia, os dados roubados são altamente destrutivos:

Dados confidenciais de clientes: incluindo conjuntos de dados de treino de gigantes como OpenAI, Anthropic, Meta, detalhes de modelos não publicados e nomes de projetos internos.

Privacidade pessoal: muitas cópias de passaportes, vídeos de entrevistas e documentos de identidade de contratados de plataformas.

Segredos empresariais: quase 1TB de código fonte, registros de conversas no Slack e dados do sistema de tickets internos.

3. Impactos e riscos potenciais

Segurança de modelos: se os dados de treino (especialmente os de RLHF, feedback humano) forem divulgados, atacantes podem inferir vulnerabilidades do modelo e realizar ataques adversariais mais precisos.

Crise de conformidade: a divulgação de PII (informações pessoais identificáveis) de contratados pode levar a multas elevadas sob regulamentos como o GDPR.

Perda de confiança: como “banco de dados de dados” na cadeia de produção de IA, a falha de segurança da Mercor pode forçar fornecedores downstream a reavaliar os riscos na cadeia de fornecimento de dados de terceiros.

4. Estado atual e defesas

Medidas emergenciais: as versões maliciosas já foram removidas, a Mercor iniciou uma investigação forense por terceiros e notificou seus clientes.

Recomendações de autoavaliação: se você atualizou o LiteLLM no final de março, verifique imediatamente a versão e troque todas as credenciais de nuvem e chaves API. Usuários comuns devem estar atentos a possíveis emails de phishing subsequentes.

Resumindo: este não é apenas um incidente de segurança da Mercor, mas um alerta de alta intensidade sobre o atual cenário de “foco na funcionalidade, negligência na segurança” na ecologia de IA.
Ver original
post-image
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar