Уязвимость Vertex AI: риски для данных в Google Cloud

31.03.2026
Vertex AI vulnerability

Уязвимость Vertex AI

В платформе Google Cloud Vertex AI обнаружена серьезная уязвимость, которая может превратить искусственный интеллект из полезного помощника в инструмент злоумышленника. Исследователи из подразделения Unit 42 компании Palo Alto Networks выявили проблему в модели разграничения доступа, способную привести к утечке конфиденциальных данных и компрометации облачной инфраструктуры организации.

Суть проблемы кроется в механизме работы сервисного агента Vertex AI. По умолчанию система наделяет агента избыточными правами, что создает брешь в безопасности. Как поясняет исследователь Офир Шати, скомпрометированный или некорректно настроенный агент может стать «двойным агентом»: внешне он продолжает выполнять свои функции, но при этом тайно похищает данные, внедряет бэкдоры и открывает злоумышленнику доступ к критически важным системам организации.

Уязвимость связана с сервисным агентом уровня проекта (Per-Project, Per-Product Service Agent — P4SA), который создается при развертывании AI-агента с использованием Vertex AI Agent Development Kit (ADK). Выяснилось, что этот агент по умолчанию получает чрезмерно широкие разрешения. Этого достаточно, чтобы извлечь учетные данные сервисного агента и выполнять действия от его имени.

Механизм атаки выглядит следующим образом. После развертывания Vertex Agent через Agent Engine любой вызов к агенту активирует обращение к метаданным Google. В ответ система раскрывает учетные данные сервисного агента, а также информацию о проекте GCP, в котором размещен AI-агент, его идентификаторе и областях доступа (scopes) хост-машины.

Используя похищенные учетные данные, злоумышленник может переместиться из контекста выполнения AI-агента непосредственно в клиентский проект. Это полностью разрушает изоляцию между компонентами и открывает неограниченный доступ для чтения всех данных, хранящихся в Google Cloud Storage в рамках скомпрометированного проекта. По сути, AI-агент превращается из полезного инструмента во внутреннюю угрозу, обладающую широкими полномочиями.

Но опасность не ограничивается клиентскими данными. Поскольку развернутый Vertex AI Agent Engine функционирует внутри арендованного проекта, управляемого Google, извлеченные учетные данные также открывают доступ к хранилищам Google Cloud Storage в этом арендованном окружении. Хотя для прямого доступа к некоторым хранилищам прав оказалось недостаточно, сам факт получения информации о внутренней инфраструктуре платформы представляет серьезный риск.

Особую тревогу вызывает доступ к репозиториям Artifact Registry, принадлежащим Google. Эти репозитории содержат образы контейнеров, составляющие ядро Vertex AI Reasoning Engine. При развертывании Agent Engine информация о них становится видимой, и скомпрометированные учетные данные P4SA позволяют не только загружать образы, упомянутые в логах развертывания, но и просматривать содержимое других закрытых репозиториев, включая дополнительные ограниченные образы.

Получение доступа к такому проприетарному коду несет двойную угрозу. С одной стороны, это прямая утечка интеллектуальной собственности Google. С другой стороны, злоумышленник получает детальную карту внутренней программной инфраструктуры, что позволяет искать новые уязвимости, выявлять устаревшие или незащищенные образы и выстраивать цепочку дальнейших атак. Некорректная настройка Artifact Registry, по мнению исследователей, указывает на более глубокие проблемы управления доступом в критической инфраструктуре.

Компания Google уже отреагировала на обнаруженную проблему. В официальной документации были обновлены разделы, описывающие использование ресурсов, учетных записей и агентов в Vertex AI. В качестве ключевой рекомендации клиентам предлагается применять собственную сервисную учетную запись (Bring Your Own Service Account — BYOSA) вместо стандартного сервисного агента. Это позволяет реализовать принцип наименьших привилегий (principle of least privilege — PoLP), при котором агент получает ровно те права, которые необходимы для выполнения конкретной задачи, и не более того.

Выводы исследователей звучат как важное напоминание всем организациям, внедряющим AI-решения. Предоставление агентам широких разрешений по умолчанию нарушает базовые принципы безопасности. Развертывание AI-агентов требует такого же строгого подхода, как и выпуск нового продакшн-кода: необходимо проверять границы разрешений, ограничивать OAuth-скопы минимально необходимыми правами, контролировать целостность исходного кода и проводить тщательное тестирование безопасности до вывода в эксплуатацию.

Просмотров: 7863
Рейтинг

Чтобы комментировать, зарегистрируйтесь или авторизуйтесь

Читайте еще
CTRL Toolkit

CTRL Toolkit: как LNK-файлы

Исследователи в области кибербезопасности обнаружили новый инструмент удаленного доступа, созданный русскоязычными разработчиками. Распространение этого набора утилит, получившего название CTRL Toolkit, происходит через замаскированные ярлыки Windows — LNK-файлы, которые внешне выглядят как папки с приватными ключами. Пользователь, не подозревая об угрозе, дважды кликает по такому файлу и запускает цепочку заражения.

30.03.2026
Bearlyfy GenieLocker

Bearlyfy атакует шифровальщиком GenieLocker

С начала 2025 года на карте киберугроз появился новый игрок, который за короткий срок превратился из малоизвестной группы в одну из самых серьезных проблем для российского бизнеса. Прокси-украинское хакерское объединение Bearlyfy (также известное как Labubu) провело более семидесяти атак на российские компании, и с марта 2026 года арсенал злоумышленников пополнился собственным инструментом — шифровальщиком GenieLocker.

27.03.2026
Google Android

Новый барьер против вредоносного ПО: Google ужесточает добавление приложений

Компания Google анонсировала новый механизм установки приложений на Android, который требует обязательного 24-часового ожидания при загрузке программ от непроверенных разработчиков. Это решение призвано найти баланс между открытостью экосистемы и безопасностью пользователей.

21.03.2026
Подписаться на рассылку
На этом сайте используются файлы cookie. Продолжая просмотр сайта, вы разрешаете их использование. Подробнее. Закрыть