АНАЛИТИКА

Международные новости утечек информации, ежегодные аналитические отчеты и статистика по инцидентам за прошедшие годы.

13 декабря 2024

Искусственный интеллект в кибербезопасности

Технологии искусственного интеллекта в кибербезопасности постоянно развиваются, данная область характеризуется ростом инвестиций, новыми стартапами и технологическими прорывами. Искусственный интеллект в кибербезопасности представляет широкие возможности, но у специалистов есть опасения относительно того, что злоумышленники могут также использовать эти технологии. Калифорнийский институт безопасности и технологий (1ST) выпустил исследование о текущем состоянии искусственного интеллекта в кибербезопасности, в котором делится прогнозами и рекомендациями.

Для отчета авторы использовали последние научные исследования, включая работы Института Аспена о будущем с искусственным интеллектом (ИИ), и результаты собственных опросов и интервью с представителями отрасли, консалтинговыми компаниями и исследователями угроз о том, как специалисты в настоящее время используют ИИ-технологии и интегрируют их, а также о связанном с этим изменением ландшафта угроз.

В отчете делается вывод о том, что в ближайшей перспективе ИИ дает специалистам по кибербезопасности значительное преимущество. Однако злоумышленники также используют ИИ для расширения своих возможностей, что делает непрерывные инвестиции и инновации в кибербезопасность с использованием ИИ критически важными.

В результате исследования авторы сделали пять выводов, которые отражают текущее положение, а также перспективы изменения ландшафта кибербезопасности с помощью ИИ.

Искусственный интеллект в анализе киберугроз

ИИ существенно помогает как безопасникам, так и правонарушителям в анализе огромных объемов данных, быстро обрабатывая информацию и генерируя выводы. Применение ИИ в разведке киберугроз стремительно меняет то, как организации обнаруживают, анализируют и реагируют на возникающие угрозы на протяжении всего цикла разведки угроз.

Напротив, злоумышленниками ИИ поможет быстро интерпретировать файловую структуру и предсказывать, где хранятся ключи доступа к облачным сервисам или файл резервной копии. Такие возможности могут помочь хакеру, который наткнулся на уязвимую систему, понять «Где я? Что делает эта система? К чему у нее есть доступ?»

В качестве рекомендации авторы отчета советуют защищать конфиденциальные данные от вредоносного контент-анализа с помощью ИИ путем шифрования данных, предоставлять доступ с минимальными привилегиями, использовать многофакторную аутентификацию.

Дипфейки и фишинг с использованием искусственного интеллекта ставят под угрозу традиционные методы аутентификации и доверие людей

Способность ИИ создавать убедительные синтетические личности ставит системы управления доступом под угрозу. Точность имитаций, управляемых ИИ, настолько эффективна, что они могут даже обходить традиционные методы аутентификации.

В отчете говорится, что «системы биометрической аутентификации, использующие распознавание лиц или анализ голоса, уже были скомпрометированы технологией deepfake в нескольких случаях».

Нарушения с биометрическими персональными данными могут привести к поддельным атакам с использованием ИИ, но обнаружение атак на «liveness detection» уже широко используется в качестве защиты от таких атак.

Liveness detection — это метод безопасности, который проверяет, является ли человек живым или поддельным представлением. Это ключевая часть систем биометрической аутентификации, которая используется для предотвращения доступа мошенников к системам с использованием украденных или реплицированных биометрических данных.

Эксперты рекомендуют:

  • внедрить многоуровневый подход к проверке подлинности, использовать водяные знаки наряду с другими методами определения происхождения контента, а также поддерживать разработку и принятие открытых стандартов для проверки цифрового контента.
  • внедрить решения физической аутентификации, использующие криптографию с открытым ключом (например, стандарты FIDO2), и опять же советуют использовать многофакторную аутентификацию.
  • Повышать уровень осведомленности общества, поощрять внедрение адаптивных инструментов обнаружения, которые будут отмечать для пользователей ложный контент, создаваемый искусственным интеллектом.

Искусственный интеллект делает программное обеспечение более безопасным

ИИ улучшает написание кода, его проверку и обнаружение уязвимостей, но также может создавать новые риски. Человеческие ошибки и сложность обнаружения уязвимостей усугубляют проблемы обеспечения безопасности программного обеспечения. Поскольку модели повысили скорость генерации кода, неудивительно, что использование ИИ для написания и проверки стало популярным, что заставило многих надеяться, что ИИ может облегчить всевозможные проблемы, связанные с программным обеспечением.

Хотя ИИ может повысить безопасность программного обеспечения за счет помощи в кодировании, управления уязвимостями и фаззинга, эти же возможности могут быть использованы злоумышленниками в вредоносных целях.

Кроме того, исследователи подняли вопросы, связанные с человеческим фактором и с тенденцией чрезмерно полагаться на инструменты, повышающие эффективность. Текущие оценки моделей ИИ часто подчеркивают правильность кода, упуская из виду его последствия для безопасности.

Исследователи рекомендуют сочетать автоматизацию с человеческим опытом, внедрить строгие процессы обеспечения качества для кода, сгенерированного ИИ, развивать культуру критической оценки, использовать ИИ для задач с низким уровнем риска, постепенно увеличивая их сложность.

Искусственный интеллект в кибербезопасности произведет революцию

ИИ оптимизирует и улучшает различные операции по кибербезопасности и является фактором повышения эффективности.

Владельцы систем должны иметь сравнительное преимущество перед злоумышленниками в одном аспекте: они понимают внутреннюю структуру и данные, хранящиеся в сети. Авторы отчета считают, что это преимущество часто не реализуется, так как многие специалисты по кибербезопасности утопают в данных, оповещениях и задачах, которые переполняют их системы.

ИИ может позволить профессионалам в области кибербезопасности использовать передовые инструменты, оптимизировать сложные задачи и сосредоточиться на принятии стратегических решений более высокого уровня, а не на рутинных операциях.

Авторы исследования советуют интегрировать модели ИИ в существующие фреймворки безопасности и считают, что ключевые решения должен принимать человек. Также они рекомендуют внедрять комплексные меры безопасности для ИИ-моделей, включая управление данными и управление жизненным циклом.

Искусственный интеллект выводит разведку и идентификацию целей на новый уровень

С помощью инструментов искусственного интеллекта злоумышленники могут анализировать большие объемы данных, автоматизировать сбор информации и извлекать подробную информацию о тех, кого они хотят атаковать, — и все это без вмешательства человека.

По данным Национального центра кибербезопасности Соединенного Королевства, разведка с помощью технологий ИИ становится все более агрессивной, поскольку злоумышленники могут использовать модели ИИ для анализа огромных объемов данных с большей скоростью и масштабом. Специалисты центра подчеркнули, что инструменты ИИ могут позволить злоумышленникам тщательно наблюдать за своими целями и выявлять уязвимости с большей точностью, что позволяет им совершенствовать и улучшать свои стратегии кибератак.

Другие респонденты опроса подтвердили это наблюдение, отметив, что инструменты ИИ позволяют злоумышленникам тщательно наблюдать и сравнивать потенциальные цели, выявляя уязвимости с большей точностью. Это демонстрирует значительный скачок в эффективности по сравнению с традиционными методами разведки.

Авторы исследования рекомендуют использовать методы «запутывания сети», чтобы минимизировать поверхность атаки, внедрить сегментацию сети и контроль между средами информационных технологий (ИТ) и операционных технологий (ОТ), а также использовать принципы нулевого доверия. 

Подпишитесь на рассылку INFOWATCH
l.12-.057c.834-.407 1.663-.812 2.53-1.211a42.414 42.414 0 0 1 3.345-1.374c2.478-.867 5.078-1.427 7.788-1.427 2.715 0 5.318.56 7.786 1.427z" transform="translate(-128 -243)"/>