Специалисты Google Threat Intelligence Group предотвратили атаку на open-source-инструмент для администрирования, где вредоносный код был частично сгенерирован искусственным интеллектом. Это один из первых подтвержденных случаев, когда киберпреступники доверили создание эксплойта нулевого дня нейросети, чтобы обойти системы двухфакторной аутентификации.
Исследователи обнаружили специфические следы машинной генерации: от вымышленных оценок уязвимостей по шкале CVSS до характерного «учебного» форматирования, копирующего структуру обучающих выборок нейросетей. В самой компании уточнили, что за инцидентом не стоит модель Google Gemini, однако не стали раскрывать название скомпрометированного приложения.Злоумышленники эксплуатировали логическую ошибку, при которой один из компонентов системы считался доверенным и не подвергался проверке безопасности. Этот пробел позволил бы им беспрепятственно обходить механизмы защиты пользователей. В Google подчеркивают: преступные группы всё чаще прибегают к техникам prompt injection, вынуждая ИИ игнорировать этические ограничения и выступать в роли экспертов по безопасности. Помимо этого, хакеры активно загружают в языковые модели базы данных уязвимостей и используют специализированные инструменты вроде OpenClaw для отладки вредоносного ПО в изолированных средах.

Комментарии (0)
Пока нет комментариев. Будьте первым!