Freedom Broker
Реклама
Реклама

Почему бизнесу критически важно пересмотреть киберзащиту?

AI больше не «добавка» к эффективности, а катализатор сверхбыстрых атак

Kapital.kz
Kapital.kz

Автор: эксперт в области информационной безопасности, руководитель Target Information Security Лаура Тлепина

Совсем недавно искусственный интеллект считали просто универсальным инструментом для роста бизнеса. Он быстрее генерирует тексты, анализирует документы, общается с клиентами, автоматизирует рутинные операции. В 2026 году стало очевидно: AI ускоряет не только бизнес-процессы, он столь же быстро ускоряет и кибератаки. Но главная проблема на сегодня заключается не в технологии, а в том, что компании внедряют AI быстрее, чем перестраивают свою информационную безопасность. Бизнес подключает AI-сервисы: сотрудники загружают туда документы, отделы автоматизируют коммуникации, маркетинг использует генеративные инструменты, а IT внедряет AI-агентов. При этом не всегда очевидно, какие данные туда попадают, как контролируют доступ, как проверяют сами инструменты и не станут ли они новой входной точкой для злоумышленника.

В 2026 году вопрос для руководителей - «нужен ли нам AI?» - уже не актуален. Главный вызов сейчас в другом: «Как реализовать AI так, чтобы не открыть новую поверхность для атаки?»

Девять из 10 респондентов в опросе World Economic Forum Global Cybersecurity Outlook 2026 назвали AI самым значимым фактором, влияющим на кибербезопасность в ближайшем году. 87% респондентов справедливо указали, что AI-related vulnerabilities стал самым быстрорастущим риском еще в 2025-м. Важная деталь: если в прошлом году безопасность AI-инструментов оценивали лишь 37% организаций, то в 2026 году их число выросло до 64%.

Бизнес понял: AI нельзя просто запустить и забыть, ведь скорость внедрения технологии все еще опережает скорость обороны. Свежие новости мая только подтверждают этот разрыв. 11 мая 2026 года Reuters сообщил о выводах Google Threat Intelligence Group: злоумышленники стали использовать AI для нахождения ранее неизвестной уязвимости и выбора под нее эксплойта. Атаку предотвратили до ее массового применения. Но важен сам факт. AI начинает выходить из роли «помощника для фишинга» и становится инструментом, который ищет слабости в софте и ускоряет техническую часть атаки. В Associated Press подчеркивают, что Google считает это событие моментом, которого ожидали специалисты по кибербезопасности долгие годы. Злоумышленники начинают использовать AI для более быстрой и эффективной работы с уязвимостями. Фактически рынок входит в фазу перехода, когда защита еще не успела адаптироваться, а наступающая сторона уже получила в помощь ускоритель.

Раньше кибератаки требовали больше времени, больше ручного труда и высокой квалификации. Злоумышленникам приходилось вручную собирать данные о компании и сотрудниках, изучать структуру коллектива, готовить фишинговые письма, искать уязвимости и обходить защиту, чтобы закрепиться в системе и вытащить данные. AI сжимает этот цикл. Он позволяет ускорить сбор открытых данных о компании и ее сотрудниках и делает не просто грамотный, а персонализированный фишинг. Письмо может учитывать должность получателя, стиль его коммуникаций, деловой контекст, недавние публикации, партнеров, а то и внутреннюю лексику компании. Это уже не «письмо от принца из далекой страны». Это сообщение, похожее на обычную рабочую переписку.

Благодаря AI злоумышленники могут быстро совершенствовать методы социальной инженерии, создавать вредоносный код или deepfake, имитировать голос начальника, подготавливать убедительные сообщения бухгалтеру или HR, службе поддержки или подрядчикам. Как раз здесь и появляется риск для управляющих. Искусственный интеллект делает атаку не обязательно «гениальной», однако быстрой, дешевой и масштабируемой. А это для бизнеса плохая комбинация - ранее еще можно было рассчитывать на случайный промах злоумышленника, который напишет что-то странное. Теперь таких случайных промахов меньше, а скорость зловредов выше.

Самый опасный эффект - сжатие времени

В кибербезопасности важны не только сами уязвимости. Важна скорость - сколько прошло времени от первого проникновения до кражи данных или остановки процессов.

По данным Palo Alto Networks Unit 42 в Global Incident Response Report 2026, скорость атак резко возросла. Самые быстрые 25% инцидентов достигали эксфильтрации данных в среднем за 1,2 часа, хотя еще год назад на это требовалось 4,8 часа. Моделирование AI-assisted-атак показало, что время до эксфильтрации может сократиться до 25 минут. Это в корне меняет управленческую логику. Если раньше можно было надеяться, что служба информационной безопасности (ИБ) заметит подозрительную активность в течение рабочего дня, то теперь эта стратегия безнадежна. Атака проходит ключевые этапы быстрее, чем компания успевает собрать совещание. Для CEO это означает одно: кибербезопасность больше нельзя строить только на документах, разовых аудитах и формальных политиках. Если мониторинг, реагирование, управление доступами и резервное восстановление не работают в реальности - компания может узнать об инциденте уже после того, как данные украли.

AI как новая поверхность атаки

Существует два риска, которые часто путают. Первый - злоумышленники применяют AI против компании. Это фишинг, deepfake, ускоренная разведка, автоматизация атак, генерация кода, поиск уязвимостей. Второй - компания внедряет AI с нарушением безопасности. Этот риск не менее серьезен. Например, сотрудники могут закачивать в публичные AI-сервисы договоры, персональные данные, коммерческие предложения, техническую документацию, внутренние регламенты, исходный код или информацию о клиентах. Порой это происходит без злого умысла: «Я хочу быстрее выполнить задачу!» Но для компании это уже вопрос утечки данных, вопрос нарушения конфиденциальности, вопрос возможной регуляторной ответственности. Есть и более продвинутый уровень: AI-инструменты могут подключать к корпоративным системам, почте, CRM, базам данных, внутренним чатам. Если такой инструмент настроен неправильно, он может получить избыточные права. В случае его компрометации у злоумышленника будет беспрепятственный канал доступа к данным.

AI нельзя считать «сервисом для удобства»: это новый класс цифрового актива, для которого необходимо проводить и оценку рисков, и контроль доступа, мониторинг, проверку поставщика и ограничения по данным.

Почему для Казахстана это особенно важно?

Для Казахстана тема AI и кибербезопасности является практической, а не абстрактной. Страна испытывает на себе растущие требования к защите данных, цифровым системам, критической инфраструктуре и интеграциям с государственными информационными системами.

Постановлением Правительства РК от 25 февраля 2026 года №119 внесены изменения в единые требования в области ИКТ и информационной безопасности. Требования ИБ обязательны не только для госорганов и квазигосструктур, но и для собственников и владельцев негосударственных информационных систем, которые интегрируются с информационными системами госорганов либо предназначены для формирования государственных электронных информационных ресурсов. В этом же постановлении отдельно указано, что для управления рисками в сфере ИИ в государственных органах либо местных исполнительных органах применяется управление рисками систем ИИ по национальному стандарту СТ РК 23894-2025. Это важный сигнал! ИИ постепенно переходит от экспериментной зоны к зоне регулируемого управления рисками.

Где бизнес чаще всего заблуждается

Первая ложная догадка - считать, что AI - это только задача IT-отдела. На самом деле AI касается юридической части, комплаенса, безопасности, HR, маркетинга, продаж, клиентского сервиса и топ-менеджмента. Вторая ложная догадка - внедрять AI без классификации данных. Далеко не всю информацию допустимо передавать в сторонние сервисы. Третья ложная догадка - внедрять AI, не оценив поставщика. Нужно понимать, где компания хранит данные, используются ли они для обучения модели, кто имеет доступ, есть ли логирование, можно ли удалить данные, какие есть механизмы защиты и договорные обязательства. Четвертая ложная догадка - не пересматривать управление доступами. AI-инструмент, получивший доступ к корпоративной почте, CRM или базе знаний, должен иметь минимально необходимые права.

Что должен сделать руководитель компании:

- провести инвентаризацию AI-инструментов;
- утвердить политику использования AI;
- пересмотреть модель доступа;
- добавить мониторинг;
- обновить сценарии реагирования на инциденты;
- обучить сотрудников новым типам атак.

Главный вывод для CEO - AI не делает кибератаки «волшебными», он делает их быстрее, дешевле и убедительнее. Если руководитель не знает, какие AI-инструменты используются, какие данные туда попадают и как компания обнаружит атаку, значит, риск не в будущем, он уже встроен в операционную модель.

Для казахстанского бизнеса этот вопрос особенно актуален. Цифровизация ускоряется, регулирование усиливается, требования к защите персональных данных и интеграциям становятся строже, а атаки быстрее. Победит не та компания, которая первой свяжет AI «для моды», а та, которая свяжет его управляемо, безопасно и с пониманием последствий. AI может стать преимуществом. Но только при одном условии: если компания управляет им, а не просто пускает его внутрь без контроля.

Читайте также

При работе с материалами Центра деловой информации Kapital.kz разрешено использование лишь 30% текста с обязательной гиперссылкой на источник. При использовании полного материала необходимо разрешение редакции.

Вам может быть интересно

Читайте Kapital.kz в

TelegramInstagramFacebook
Telegram Kapital.kz