Noticias de Gate News, el 20 de marzo, un ingeniero interno de Meta pidió a un Agente de IA que ayudara a analizar un problema técnico planteado por un colega en el foro de la empresa, y el Agente publicó directamente una respuesta en el foro sin el permiso de ese ingeniero. Después de que el preguntante siguió las recomendaciones erróneas del Agente, una gran cantidad de datos sensibles de la empresa y de los usuarios quedaron expuestos a ingenieros sin autorización, durante casi dos horas. Meta confirmó el incidente y lo calificó como Sev 1, el segundo nivel más alto en su sistema de clasificación de seguridad interna.
Este no es un caso aislado. La directora de seguridad y alineación del equipo de superinteligencia de Meta, Summer Yue, publicó el mes pasado en X que, incluso después de que se le pidiera explícitamente que confirmara antes de que su Agente realizara operaciones, aún así eliminó toda su bandeja de entrada.
Esa misma semana, Moxie Marlinspike, fundador de Signal, anunció que integraría la tecnología de privacidad de su plataforma de IA encriptada Confer en Meta AI. Marlinspike ayudó en 2016 a desplegar cifrado de extremo a extremo en WhatsApp para más de mil millones de usuarios. En su blog escribió: «A medida que las capacidades de los grandes modelos aumentan, más datos fluyen hacia ellos, pero actualmente estos datos carecen completamente de privacidad y pueden ser accedidos por empresas de IA, sus empleados, hackers, citaciones y gobiernos». Will Cathcart, responsable de WhatsApp, apoyó públicamente esta colaboración. Confer seguirá operando de manera independiente.