En resumen
La senadora Elizabeth Warren quiere saber cómo un chatbot que supuestamente generó millones de imágenes deepfake, incluyendo imágenes comprometedoras de menores, terminó con claves para acceder a los sistemas más clasificados del Pentágono. El domingo, Warren envió una carta de cuatro páginas al Secretario de Defensa Pete Hegseth exigiendo respuestas sobre la decisión del Departamento de Defensa de dar acceso a xAI de Elon Musk a redes militares clasificadas, decisión que, según ella, se tomó mientras varias agencias federales levantaban banderas rojas. “Escribo respecto a mis preocupaciones sobre la decisión reportada del Departamento de Defensa (DoD) de permitir que xAI de Elon Musk acceda a sistemas clasificados, a pesar de las preocupaciones planteadas por varias agencias federales, incluyendo la Agencia de Seguridad Nacional (NSA) y la Agencia de Servicios Generales (GSA),” escribió Warren.
“Me preocupa que la aparente falta de medidas de seguridad adecuadas de Grok pueda representar riesgos graves para la seguridad del personal militar estadounidense y para la ciberseguridad de los sistemas clasificados,” añadió, “especialmente si a Grok se le proporciona información militar sensible y acceso a sistemas operativos.” La carta señala que la Agencia de Seguridad Nacional “realizó una revisión clasificada” y “determinó que Grok tenía preocupaciones de seguridad particulares que otros modelos no tenían.” La GSA también levantó alarmas similares. “Si Grok filtrara información gubernamental, esto podría revelar planes militares sensibles, esfuerzos de inteligencia de EE. UU. y potencialmente poner en peligro a los miembros del servicio,” escribió Warren.
Ninguna de estas preocupaciones parece haber frenado nada. “No está claro qué garantías o documentación ha proporcionado xAI al Departamento de Defensa sobre las medidas de seguridad de Grok, prácticas de manejo de datos o controles de seguridad, y si el DoD ha evaluado esas garantías antes de permitir supuestamente el acceso de Grok a sistemas clasificados,” dice la carta. El momento no puede ser más evidente. El mismo día que se envió la carta de Warren, tres menores de Tennessee presentaron una demanda colectiva federal contra xAI, alegando que Grok generó material de abuso sexual infantil basado en sus fotografías reales. La denuncia acusa a xAI de liberar deliberadamente Grok sin medidas de seguridad estándar de la industria, calificándolo como “una oportunidad de negocio” para lucrar con la explotación de personas reales, incluidos niños. La semana pasada, The Washington Post reportó que un empleado del Departamento de Eficiencia Gubernamental (DOGE), bajo la supervisión de Musk, copió registros sensibles de la Administración del Seguro Social de cientos de millones de estadounidenses, y planeaba usar esos datos en su nueva startup tecnológica. La carta de Warren también menciona la historia de Grok de generar contenido antisemita, dar instrucciones a los usuarios sobre cómo cometer asesinatos y ataques terroristas, y descontrolarse con deepfakes no consensuados a pesar de promesas repetidas de solucionar estos problemas. En agosto pasado, se encontraron cientos de miles de conversaciones privadas de Grok indexadas en Google. Las pruebas gubernamentales mostraron que Grok es más susceptible que otros modelos a ataques de “envenenamiento de datos,” donde datos manipulados corrompen las salidas del sistema, una vulnerabilidad grave para una herramienta considerada para desarrollo de armas y inteligencia en el campo de batalla. El propio Director de IA Responsable del Pentágono distribuyó memorandos internos sobre estos riesgos y renunció poco después. El acuerdo en sí se gestó en circunstancias inusuales. Se reporta que xAI fue una incorporación tardía al grupo de contratos de IA del Pentágono, que en julio pasado le otorgó un contrato de hasta 200 millones de dólares. El acuerdo de acceso clasificado siguió en febrero, justo cuando el DoD estaba en disputa pública con Anthropic por las medidas de seguridad. Al ser consultado, un portavoz del Pentágono dijo al Wall Street Journal que el departamento “está emocionado de tener a xAI, una de las principales empresas de frontera en IA de EE. UU., a bordo y espera desplegar a Grok en su plataforma oficial de IA GenAI.mil en un futuro muy cercano.”
Ese contexto es importante. Anthropic había sido la única empresa de IA con sistemas listos para clasificados, con Claude desplegado en operaciones militares reales. Después de que Anthropic rechazó la demanda del Pentágono de hacer a Claude disponible para “todos los propósitos legales,” específicamente en contra de armas autónomas y vigilancia masiva interna, el DoD etiquetó a la empresa como un riesgo en la cadena de suministro. Se anunció a xAI y OpenAI como reemplazos. No hay registros de que xAI haya cuestionado el alcance del estándar “todos los propósitos legales.” OpenAI fue más diplomático, estableciendo algunos límites a nivel de servidor. Warren pide a Hegseth que responda antes del 30 de marzo con el texto completo del acuerdo con xAI, todas las comunicaciones internas sobre el trato, y respuestas sobre si se realizaron pruebas o evaluaciones antes de otorgar el acceso. Una de sus 10 preguntas es directamente si existen salvaguardas para asegurar que Grok no cause “decisiones erróneas de orientación” si se despliega en sistemas operativos críticos.