Mistral AI の PyPI パッケージが、開発者の資格情報を狙う悪意のあるコードによって侵害されました

Decryptによると、攻撃者はPyPI経由で配布されたMistral AIのソフトウェアパッケージ内に悪意のあるコードを仕込んだ。開発者がLinuxシステム上でそのパッケージを使用すると、悪意のあるコードが自動的に実行され、リモートサーバーからtransoformers.pyzという名前のファイルをダウンロードしてバックグラウンドで実行する。そのファイル名は、広く使われているHugging Face Transformersライブラリを模倣している。Microsoftの脅威インテリジェンスチームは、マルウェアは主に開発者のログイン資格情報とアクセス・トークンを盗み取ると述べた。Mistralは、ある開発者のマシンが侵害されたことは確認したが、同社のインフラには影響がなかったとした。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし