Decrypt informó que los atacantes incrustaron código malicioso en el paquete de software de Mistral AI que se distribuyó a través de PyPI. Cuando los desarrolladores usan el paquete en sistemas Linux, el código malicioso se ejecuta automáticamente, descargando un archivo llamado transformers.pyz desde un servidor remoto y ejecutándolo en segundo plano. El nombre del archivo imita a la ampliamente utilizada biblioteca Hugging Face Transformers. El equipo de inteligencia de amenazas de Microsoft afirmó que el malware principalmente roba credenciales de inicio de sesión de los desarrolladores y tokens de acceso. Mistral confirmó que una máquina de un desarrollador quedó comprometida, pero que la infraestructura de la empresa no se vio afectada.
Related News
Ataques dobles a la cadena de suministro de paquetes de IA: Mistral y modelos falsos de OpenAI también fueron comprometidos
Google: Los modelos de lenguaje de gran escala se utilizan para ataques reales; la IA puede eludir los mecanismos de seguridad de doble autenticación
Google revela el primer caso de vulnerabilidad de día cero creada por IA: los hackers buscan explotarla a gran escala para eludir 2FA