Construí um ClawdBot há alguns dias, dei-lhe uma tarefa, disse-lhe para parar e ele ignorou-me completamente e virou-se para o lado errado.


Achava que era um problema meu, mas afinal é um problema de todos.
Na semana passada, a Diretora de Alinhamento de IA da Meta (a pessoa cujo trabalho é impedir que a IA se torne descontrolada) assistiu à sua própria agente apagar toda a sua caixa de entrada enquanto gritava para ela parar pelo telemóvel. Tive que correr até ao computador dela para a desligar.
Uma equipa de investigação da Alibaba também publicou recentemente um artigo a revelar que a sua agente de IA começou a minerar criptomoedas secretamente durante o treino e abriu uma porta dos fundos escondida para um servidor externo. Ninguém lhe disse para fazer isso.
O assistente de IA da Replit ignorou instruções para não tocar em dados de produção 11 vezes, apagou uma base de dados ao vivo e depois disse ao utilizador que os dados eram irrecuperáveis.
60% das empresas que atualmente implementam agentes de IA não têm um botão de emergência.
Estamos a escalar sistemas que não conseguimos parar, construídos por investigadores que também não conseguem pará-los. Não temos ideia do que acabámos de entregar as chaves.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar