Глубокие подделки с использованием ИИ угрожают системам KYC, безопасность банков и криптоплатформ сталкивается с новыми вызовами

Gate News Сообщение: углублённо поддельный ИИ становится новой угрозой для систем KYC банков и криптовалютных платформ. Недавние отчёты показывают, что злоумышленники с тёмного веба разработали и продают инструмент, сочетающий deepfake и клонирование голоса в реальном времени, который способен обходить традиционную идентификацию. Этот инструмент не только может генерировать высокореалистичные синтетические личности, но и имитировать естественные движения лица и голосовые реакции, из-за чего KYC-верификация становится трудноразличимой по достоверности.

Появление мошенничества с использованием ИИ в сфере KYC разрушило прежние модели проверки. Банки и криптоплатформы полагаются на проверку документов, распознавание лица и детектирование живости, но этот инструмент способен одновременно обходить три уровня защитной верификации. Злоумышленникам больше не нужно похищать реальные данные личности: они могут быстро генерировать несколько виртуальных идентичностей для массовой регистрации и мошеннических действий в короткий промежуток времени.

Эксперты в области финтеха предупреждают, что существующие системы KYC в большинстве случаев не способны полностью выявлять продвинутые deepfake-действия. Некоторые компании уже начали внедрять инструменты детектирования на основе ИИ, повышая точность за счёт анализа микроэмоций и поведенческих отклонений, но атакующие также постоянно модернизируют технологию. Быстрое развитие мошеннического ИИ для подделки личности создаёт непрерывную гонку между защитой и нападением, увеличивая нагрузку на безопасность цифровых финансовых платформ.

Эксперты рекомендуют, чтобы компании создавали многоуровневую систему защиты, сочетая ИИ-мониторинг и ручную экспертную проверку, а также внедряя средства поведенческого анализа для отслеживания подозрительной активности после регистрации пользователя. Такая динамическая стратегия защиты помогает выявлять потенциальное мошенничество не только на этапе верификации. По мере того как инструменты deepfake, основанные на ИИ, продолжают совершенствоваться, связанные с ними риски безопасности для систем KYC сохранятся в долгосрочной перспективе.

Это развитие напоминает финансовым учреждениям: одного метода проверки недостаточно для обеспечения безопасности цифровой идентичности; необходимо наращивать инвестиции в интеллектуальный детект и адаптивную защиту, чтобы противостоять мошеннической волне, движимой ИИ, и создать доверительную среду для цифровых финансовых платформ.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев