Banner brightness
Назад к журналу

Как генеративные модели меняют ландшафт кибербезопасности 

С развитием генеративного искусственного интеллекта мы получили мощный инструмент для ускорения разработки, автоматизации и даже творчества. Однако вместе с удобством приходят и новые риски.

С развитием генеративного искусственного интеллекта мы получили мощный инструмент для ускорения разработки, автоматизации и даже творчества. Однако вместе с удобством приходят и новые риски. Вопросы, которые поднимает статья, касаются как этических проблем, так и реальных угроз, возникающих из-за массового внедрения ИИ в цифровую инфраструктуру.

GPT сливает информацию?

В рунете распространен слух: якобы ChatGPT передает персональные данные российских пользователей в ЦРУ. Хотя подобные утверждения сложно подтвердить официально, они поднимают важную тему — непрозрачность обработки данных ИИ-платформами.

Когда пользователь вводит в чат паспортные данные, код продукта или другую конфиденциальную информацию, модель может «запомнить» их в рамках сессии и использовать при генерации последующих ответов. Более того, если система защиты данных будет «сломана» специальным запросом, эти сведения могут оказаться доступны другим пользователям.

«ИИ не сохраняет данные в явном виде, но обучается на них. То есть, если ты отправил свой код — он становится частью его знаний и может быть воспроизведен для других», — поясняет эксперт.

Аналогичная проблема есть и в других ИИ-продуктах. Например, Adobe внедрил ИИ-функции в Photoshop, и в лицензионном соглашении прямо указано, что созданные пользователем изображения могут использоваться для обучения моделей. Это означает, что ваши творческие работы могут стать «кормом» для будущих генераций ИИ.

Данные внутри корпоративных ИИ защищены?

Корпорации внедряют собственные версии GPT, полагая, что данные внутри «закрытой» модели защищены. Однако, как отмечают специалисты, архитектура таких систем часто остается «черным ящиком».

«Нам не показывают, как разделены пространства. Возможно, все — в одном общем пуле. И тогда твоя секретная смета или внутренний отчет может всплыть у другого пользователя при удачном запросе», — предполагает эксперт.

Даже если компания использует двухфакторную аутентификацию и шифрование, реальный уровень изоляции данных остается неизвестным. 

ИИ пишет небезопасный код?

Одна из самых острых проблем — массовое использование GPT для генерации программного кода. 

В апреле 2025 года исполнительный директор Microsoft Сатья Наделла сообщил, что примерно 30% программного кода в компании создается с применением генеративных алгоритмов искусственного интеллекта. Аналогичные подходы развиваются и в других компаниях. В Google, например, машинные модели участвуют в создании кода для Android и облачной платформы Google Cloud. По прогнозам, к 2030 году до 90% всего прикладного кода в мире будет написано с участием генеративных ИИ. 

При этом ИИ обучается на открытых репозиториях, где полно уязвимого и небезопасного кода. Соответственно, он не просто «повторяет» ошибки — он их легитимизирует.

«Все пишут через GPT — и получают один и тот же незащищенный код. Особенно в C-подобных языках, где с безопасностью просто беда», — резюмирует эксперт.

ИИ может стать инструментом для хакеров? 

Прямой запрос вроде «напиши эксплойт для Windows» будет заблокирован. Однако если пользователь уже разбирается в теме, он может сформулировать запрос так, что GPT даст ему инструкции, алгоритмы или фрагменты кода, которые легко превратить в атакующий инструмент.

«ИИ не напишет вредонос напрямую, но укажет, где искать, какие протоколы использовать, какие уязвимости известны. Это как умный поисковик для тех, кто уже знает, что ищет», — поясняет эксперт.

Кто виноват и что делать? 

Искусственный интеллект может анализировать логи, генерировать отчеты или оформлять документацию, но принимать решения должен человек.

«Главное — проверять то, что сгенерировал ИИ. Даже если он написал 90% кода, ты обязан перечитать, протестировать и адаптировать его под свои стандарты», — подчеркивает эксперт.

ИИ перестал быть просто «умной игрушкой» и превратился в инфраструктурный элемент, который влияет на безопасность государств, корпораций и отдельных пользователей. Его «светлая» сторона — это беспрецедентная продуктивность. «Темная» — новые векторы атак, утечки данных и иллюзия контроля. 

Безопасное будущее возможно только при осознанном и ответственном использовании ИИ. Алгоритмы просто повторяют то, чему мы их учим. На нас лежит ответственность за знания, принципы и этические нормы, которыми мы наполняем эти системы.

Читайте так же

читайте наш блог о всем самом интересном,
расскажем и покажем кухню легиона изнутри

Тренды 2025 в кибербезопасности

В 2025 году кибератаки стали причиной многомиллионных убытков, парализовали цепочки поставок и заставили топ-менеджеров крупнейших компаний лично разбираться в цифровых угрозах. Рассказываем, как и почему меняются правила игры на рынке ИБ.

Как генеративные модели меняют ландшафт кибербезопасности 

С развитием генеративного искусственного интеллекта мы получили мощный инструмент для ускорения разработки, автоматизации и даже творчества. Однако вместе с удобством приходят и новые риски.

Импортозамещение в ИТ

Пора переходить на отечественное ПО. Что ждет компанию на этом пути? 

О кибербезопасности руководителям. Что нужно знать и делать.

Современные технологии, удаленные сотрудники, облачные сервисы — все это не только повышает эффективность вашего бизнеса, но

Разработка на Open Source коде: влияние на безопасность бизнеса

Что безопаснее: проприетарное программное обеспечение с закрытым исходным кодом или Open Source решения?