Новости компании
09 октября 2023

Н. Касперская приняла участие в дискуссии об ИИ на GIS DAYS-2023

Президент ГК InfoWatch Наталья Касперская приняла участие в конференции GIS DAYS-2023. В рамках дня кибербезопасности эксперты поговорили о тех рисках, с которыми связано активное применение искусственного интеллекта. По мнению Натальи Касперской, внедрение искусственного интеллекта в медицину и транспортную сферу может быть особенно чувствительным и влиять на безопасность людей, а популярный Chat GPT в руках школьников может грозить им деградацией.

«Под определение «искусственный интеллект» подходят любые системы, способные имитировать когнитивные способности людей — включая даже Т9, используемый в телефонах. При этом наиболее опасными являются решения, в которых применяется машинное обучение, поскольку именно в этом процессе внутри системы происходят события, которые скрыты от человека. И такое положение дел грозит непредсказуемыми последствиями — в частности, в медицине ИИ может назначить вам неправильную дозу медикаментов, что представляет опасность для здоровья. Есть тут опасность и для компаний – например, разработчик системы распознавания лиц может сделать в ней закладку в виде фотографий потенциальных грабителей, которые она не сможет детектировать. И самое неприятное в этом то, что выявить данные нарушения можно только после того, как произойдет инцидент. По этим причинам ИИ нельзя делегировать возможность самостоятельного принятия решений», — рассказала Наталья Касперская.

По мнению эксперта, в целях повышения безопасности есть смысл применять для обучения систем доверенные дата сеты и строить их на основе проверенных фреймворков. При этом функционирование ИИ все равно должно контролироваться человеком, ответственным за принятие важных решений.

«Также активное внедрение ИИ все чаще приводит к деградации человеческих способностей. Например, для того, чтобы стать пилотом в ряде авиакомпаний, уже не обязательно уметь вручную управлять посадкой самолета. И мне не хотелось бы попасть на рейс, который обслуживают такие специалисты. Искусственным интеллектом привыкают пользоваться и наши дети – многие из них не читают классическую литературу, а вместо этого берут в Chat GPT краткое содержание произведения, по которому нужно сдавать экзамен. Это опасная ситуация, которая грозит им деградацией», — подчеркнула Наталья Касперская. 

Заместитель министра цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов также высказался о необходимости увеличения безопасности решений на основе искусственного интеллекта. 

«Повышение мер безопасности нужно для исключения варианта, при котором решение работает неправильно — в частности, если имеются ошибки в его модели, возникли проблемы при обучении, либо на систему была произведена атака. Все это может привести к принятию неверных решений, грозящих опасными последствиями в целом ряде чувствительных сфер, включая транспорт, здравоохранение и объекты КИИ», — сказал чиновник. 

Также Шойтов предупредил об угрозе утечек конфиденциальной информации, которые могут возникать по вине искусственного интеллекта. 

«Чувствительные данные перед использованием в системе должны быть обезличены либо зашифрованы с помощью криптографии. Также обезопасить ИИ может его применение вместе с другими — верифицированными — программами, которые станут своеобразными предохранителями от принятия опасных решений. Но все эти меры будут неполными без принятия необходимых законов. В частности, в следующем году нами запланировано выпустить требования по безопасности искусственного интеллекта, которые положительно повлияют на защищенность граждан», — добавил Александр Шойтов.

В результате пленарной дискуссии форума GIS DAYS 2023 экспертное сообщество определило особенно чувствительные риски использования искусственного интеллекта. Также были анонсированы меры по увеличению безопасности систем на различных этапах их подготовки и работы. Их реализация призвана увеличить защищенность компаний и граждан в условиях повышенных угроз информационной безопасности. 

Подпишитесь на рассылку INFOWATCH
l.12-.057c.834-.407 1.663-.812 2.53-1.211a42.414 42.414 0 0 1 3.345-1.374c2.478-.867 5.078-1.427 7.788-1.427 2.715 0 5.318.56 7.786 1.427z" transform="translate(-128 -243)"/>