Искусственный интеллект заменяет человека и влечет ИБ риски
Андрей Арефьев, директор по инновационным проектам ГК InfoWatch
Когда технологии ИИ приходят в компанию, это способствует не только оптимизации бизнеса, но и появлению новых ИБ рисков. Давайте рассмотрим подробнее, какие это риски и как с ними работать безопасникам.
Андрей, ты один из главных популяризаторов ИИ в безопасности и был модератором секции про искусственный интеллект в информационной безопасности на BIS Summit 2021. Интересно твое мнение, какой вызов распространение технологий ставит перед безопасниками?
Я недавно пересматривал в записи свою секцию про искусственный интеллект в информационной безопасности. Получилось собрать уникальный состав гостей и сделать много интересных выводов. Не ошибусь, если скажу, что внимание всех, кто ведет свои компании в цифровое будущее, сейчас обращено к технологиям МО (машинного обучения) и ИИ (искусственного интеллекта). Современная стратегия цифровой трансформации любого бизнеса сегодня предполагает использование этих технологий МО для улучшения чего бы то ни было внутри компании или снаружи. Не всегда у всех участников цифровой трансформации есть четкое понимание, какую пользу в итоге получит бизнес. Но если предпринимаются усилия для улучшения и оптимизации, то, значит, рано или поздно в компании появляются такие люди, как дата-сайентисты. Из-за их серьезной востребованности эти специалисты легко открывают все двери в компании, в том числе с точки зрения ИБ. С позиции информационной безопасности это выглядит так: появляется особая категория сотрудников с привилегированным доступом к данным, которые вообще-то большинством безопасников охраняются. Дальше возникает закономерный вопрос: что с этими сотрудниками делать, давать им доступ или не давать, к чему он действительно нужен, а к чему нет. Как их ограничить, как сделать так, чтобы ИБ выполнила свою первичную функцию – обеспечила непрерывность бизнеса, несмотря на «зеленый свет» дата-сайентистам.
Как это меняет цифровые активы организации, которые безопасник призван защищать?
Например, технологии машинного обучения инкапсулируют в себя знания и экспертизу какой-то отрасли. Возьмем сталелитейную. Создается модель, способная управлять домной, которой до этого управлял сталевар. Теперь экспертиза этого сталевара оцифрована, и, возможно, там содержатся ноу-хау.
И хотя на BIS Summit 2021 в моей секции мы услышали экспертное мнение, что для сталелитейщиков этот риск в низком приоритете, потому что второй такой же домны ни у кого нет, все же риск сохраняется, а для других отраслей он может быть гораздо-гораздо выше. С домной – одна история, а с каким-то другим специфичным оборудованием все может быть иначе. Если какую-либо функцию внутри компании мы заменяем на Machine Learning машинное обучение, то обученная модель становится обладателем экспертных знаний в конкретной области, она знает, что надо делать, как надо поступать в том или ином бизнес-процессе. Это все нужно как-то охранять.
Утечка ноу-хау через модель – не единственный риск. О каких еще рисках стоит знать?
Есть и более общая проблема. Специалистов по data-science мало. Своего нанять сложно, поэтому часто заказчики привлекают аутсорс. В какой-то момент модель оказывается снаружи организации, и данные, нужные для ее обучения, тоже. То есть эксперты по data-science, открывшие дверь в ваш ИБ отдел чуть ли не «ногой», получают эти данные, «уводят» их из компании, что-то с ними делают и потом возвращают в виде уже обученной модели. Поэтому здесь безопасникам важно уметь оценивать, что они отдают, зачем, какие есть риски, может ли вывод наружу этого инкапсулированного опыта нанести вред бизнесу. Может быть, конкурент, получив вашу модель, цифрового двойника, и имея возможности проанализировать его, сможет впоследствии проникнуть во что-то технологическое у вас, осуществить атаку. Как только мы заменяем человека на ИИ, возникают риски, что эти знания могут быть украдены, использованы в чьих-либо интересах или для вмешательства в ваш бизнес и т.д.
Получается, что защита цифровых двойников – это для ИБ-служб предприятий приоритет в условиях цифровой трансформации?
Создан цифровой двойник конкретного персонажа или персонажей, который теперь обладает не просто общими знаниями, а экспертизой, и обучен принимать решение конкретной задачи. Поэтому надо понимать, какие есть риски, если этого двойника украдут или атакуют. Но в контексте обеспечения ИБ я бы хотел еще сказать вот что.
С точки зрения безопасности технологии МО уязвимы в принципе. Например, подсовывая не совсем чистые данные можно обманывать технологии МО и заставлять принимать неверные решения. Нужен пример. Берем знак «Уступить дорогу», обучаем машину распознавать знаки «Главная дорога» и «Уступи дорогу». А потом, обладая знаниями как устроена модель, как она отличает «Главную дорогу» от «Уступи дорогу», делаем такого цифрового двойника, который для человека означает «Уступи дорогу», а машина его распознает как «Главная дорога». Научное сообщество подтверждает, что такие атаки могут быть проведены. А теперь представим, что наш цифровой двойник оказался снаружи. И здесь сразу возникает несколько рисков: можно потерять важную информацию, которой завладеют конкуренты, они могут изучить двойника и придумать, как его обмануть, атаковать.
Много новых задач и условий возникает у безопасности в связи с переходом бизнеса в цифру?
И это еще не все. Если мы создаем цифрового двойника и делаем его частью бизнес-цепочки, то у него должны быть определенные условия существования. Все технологии МО требуют постоянной корректировки, непрерывного дообучения. Без этого модель быстро теряет актуальность. Поэтому для ИБ, отвечающей за непрерывность бизнеса, важно также понимать, соблюдены ли эти условия существования.
Грубо говоря, бизнес принимает решение: взять и заменить службы с людьми на цифровых двойников. Ок, заменить заменили, но работа на этом не заканчивается. Цифровых двойников нужно еще хорошо «кормить», чтобы они продолжали правильно функционировать. Если через какое-то время они прекратят правильно функционировать, то нарушится непрерывность бизнеса, а, значит, функция безопасности не будет выполнена. Поэтому с точки зрения ИБ и, по-хорошему, всей безопасности важно понимать: начали использовать какую-то технологию – у нее есть определенные условия работы, и они состоят в том, что результаты надо непрерывно проверять и корректировать. ИБ, зная о таком риске, может и сама предпринять шаги, чтобы взять под полный контроль все вопросы безопасности при цифровой трансформации бизнеса, это та проактивность, которую руководство должно высоко оценить.
Означает ли это, что безопасникам нужно прокачивать hard skills и изучать новые подходы?
Этот подход можно сравнить с практикой DevSecOps в разработке программного обеспечения. Есть стек технологий, который позволяет быть уверенными, что тот релиз продукта, который вся команда делает, будет качественным. Такой набор действий, который позволяет убедиться, что код соберется, в нем не будет ошибок, он будет протестирован, и в итоге вы получите правильный релиз. В машинном обучении тоже есть набор последовательных действий, который позволяет убедиться, что модель правильно работает. И все идет к тому, что задачей безопасников будет становиться, с одной стороны, традиционно контроль, с другой стороны, обеспечение непрерывности работы цепочки, потому что все это про информацию. Поэтому да, разумеется, от безопасников потребуется прокачка навыков. Понадобиться понимать хотя бы базовые критерии работоспособности технологий. Иначе как вы проверите, что технологии работают? Например, заказал бизнес услуги у аутсорсной команды аналитиков и разработчиков, те что-то сделали. Получил ли бизнес то, что хотел? Поэтому специалистам по ИБ важно прокачивать навыки, погружаться в новые для себя сферы – в анализ данных, например. Сейчас для этого очень удачное время, потому что эти практики в безопасности только формируются, и на многое вы можете влиять сами. Нашим клиентам мы всегда помогаем разбираться с новыми подходами.
Не слишком ли большой стек технологий и разных решений сейчас ложится грузом на ИБ службу?
Действительно, большой стек технологий ложится на плечи ИБ. SIEM, DLP, SOC, куча разных решений. Можно подумать, что это такой «налог на бизнес»: хотите продолжать существовать – платите. Но мне кажется, что, во-первых, несправедливо так думать по отношению к нашим клиентам, а, во-вторых, технологии должны позволять человеку эффективно решать задачи и минимизировать его вовлеченность. Минимизировать требования к экспертизе, необходимой для того, чтобы человек мог работать с технологиями. Например, что нужно сейчас для того, чтобы сконфигурировать любую DLP? Вы должны разбираться, какие у вас есть данные, какие из них важны, какие нет, как у вас сконфигурированы политики безопасности – все для того, чтобы были под защитой те данные, которые важны. Для этого нужно обладать большим количеством знаний. Меняется продукт – безопасник вынужден идти за новым знанием. И такую работу он может проделать два, три и более раз. Это одна проблема.
Вторая проблема в том, что компания – живой организм, и информация, циркулирующая в ней, постоянно меняется. Сегодня надо защищать вот это, а завтра появляется новый цифровой актив, который тоже нужно защищать. Как безопаснику угнаться за всем? Для этого, как минимум, должны быть налажены процессы сбора, анализа, категорирования данных. Потом надо научиться переносить это на политики безопасности, применяя DLP систему. А еще нужно поддерживать актуальность, потому что если настроить политики всего один раз, то вскоре система безопасности перестанет быть актуальной, и ИБ будет защищать вчерашний день. Все это стоит очень дорого, делать надо регулярно. Как быть? Как помочь компании, владеющей DLP-системой, избежать такого большого оброка? Очевидно, что надо применять технологии, которые позволят минимизировать вовлеченность человека в ненужную рутину. Человек должен, в первую очередь, решать свои профессиональные задачи, технологические системы должны ему в этом помогать, а не накладывать дополнительные обязанности. Как раз технология AutoDLP от InfoWatch – это пример того, что мы пошли навстречу клиентам и попытались минимизировать их трудозатраты. AutoDLP собирает большой объем данных, автоматически их разбивает на кластеры, и дальше на основе этих кластеров позволяет простыми средствами создать политики безопасности. Раньше на это уходили недели, а теперь – несколько минут. Трудозатраты на такую рутину впоследствии минимальны, эту работу DLP система делает сама, а человек уходит от рутины к важным задачам.
Полное или частичное копирование материалов возможно только при указании ссылки на источник — сайт www.infowatch.ru или на страницу с исходной информацией.