Наталья Касперская о цифровой гигиене при использовании гаджетов
Президент ГК «InfoWatch» Наталья Касперская приняла участие в популярной передаче «Жизнь и судьба», выходящей на телеканале «Россия». В числе основных тем эфира с участием Натальи Касперской прозвучала тема цифровой гигиены при использовании гаджетов, борьба с интернет зависимостью у детей и влияние, которое можно оказывать на человека, отслеживая его поведение в сети. Также Наталья Касперская поделилась своим мнением о развитии искусственного интеллекта, неограниченное использование которого может привести к множеству ошибок — в том числе, смертельно опасных. Вопросы эксперту задавал телеведущий Борис Корчевников.
Неавно я прочитал вадшу книгу «Информационная гигиена» и должен сказать, что в корне пересмотрел свои отношения с этой штукой (показывает на телефон, — прим. ред.) — отключил геолокацию и множество других функций, с помощью которых можно отслеживать поведение пользователей.
Действительно, современные гаджеты имеют возможность сбора личных данных. Более того, мы сами охотно предоставляем к ним доступ — например, храня свои фотографии и личную переписку в памяти смартфона. Поэтому он прекрасно знает, как выглядим мы и наши близкие, куда мы ходим, о чем разговариваем друг с другом, какие покупки совершаем. Ко всей этой информации имеете доступ не только вы, но и производители устройства, разработчики его операционной системы и установленных мобильных приложений.
Многие IT компании активно торгуют этими данными на специализированных биржах — причем, в огромных масштабах и под конкретные запросы клиентов. Например, если кому-то из потребителей нужны мужчины среднего возраста, предпочитающие носить спортивные кроссовки, то они с легкостью получат массив информации, который относится именно к данной целевой аудитории. Затем это используется для целей таргетированной рекламы и создания информационных пузырей, когда человеку постоянно подсовывается контент, который соответствует его взглядам. В результате людей разводят по разным идеологическим песочницам (либералов — к либералам, патриотов — к патриотам и т.д.), и им кажется, что все окружающие — их единомышленники. А это, как мы знаем, совсем не так.
Знание предпочтений человека может использоваться и злоумышленниками. С их помощью они могут узнать, на какой именно контент с большей вероятностью откликнется потенциальная жертва, после чего ей отправляются соответствующие фишинговые ссылки. В результате происходит кража конфиденциальных данных с устройства. Поэтому использовать гаджеты нужно с большой осторожностью — особенно тем людям, которые имеют доступ к важной коммерческой или государственной информации.
В первую очередь, я не храню на нем важную информацию и не веду через него конфиденциальных переговоров. В целом, тут должен использоваться следующий принцип — все, что ты загружаешь на смартфон, может быть опубликовано в открытом доступе. И если это правило всегда держать в голове, то вы получаете шанс избежать многих неприятностей.
Здесь важно не только ограничивать время, которое ребенок проводит за гаджетами, но и предложить ему достойную альтернативу этому занятию в виде offline активностей. Например, хорошо помогают спортивные секции и прогулки на природе. И, разумеется, дети должны все знать о рисках, с которыми они могут столкнуться в интернете — на том уровне, на котором они способны воспринять эту информацию.
В последний год мы действительно наблюдали значительный рывок в этой области — я говорю об успехах в машинном синтезе речи, благодаря которым реплики робота стала неотличимыми от человеческих. Другая важная инновация — это нашумевшая система «чат GPT», способная написать за человека университетскую дипломную работу.
Это, конечно, новый уровень. Однако здесь есть и значительные риски, поскольку на данной стадии развития машина стала черным ящиком даже для своих разработчиков, которые уже не в состоянии предугадать ее дальнейшие действия. И это приводит к неприятным последствиям. Например, недавно был случай, когда системы распознавания лиц, установленные в Москве и Петербурге, почти одновременно подали сигнал тревоги, в результате чего в этих городах были задержаны два человека, принятые ИИ за одного и того же преступника. Несмотря на то, что один из этих совершенно не причастных к преступлению людей был известным оперным певцом, а у другого был при себе паспорт, полиция задержала обоих, и ошибочность этого решения была осознана не сразу.
Таким образом, машины уже сейчас могут навязывать людям свое решение. Особенно критично это выглядит в медицине, когда с помощью ИИ определяется доза лекарства, которую необходимо вколоть пациенту. Из-за ошибок в этих расчетах уже погибли несколько человек. Разумеется, врачебные ошибки также случаются, однако здесь есть конкретное ответственное лицо, на котором лежит вина. А в случае, если смертельную дозу выдал алгоритм, то кого здесь винить? Этот вопрос пока не имеет ответа. Поэтому в настоящее время существуют инициативы по внедрению правил обращения с ИИ, согласно которым конечное решение всегда должен принимать человек.
Разные страшилки про внедрение микрочипов в человеческий организм — старая тема, которая неизменно нагоняет страх на аудиторию. Однако эти технолгии пока еще далеки от нас, в то время как прямо сейчас в наших карманах находятся смартфоны, которые фактически являются шпионскими устройствами двойного назначения. Нужно сказать, что и те и другие устройства подразумевают доступ к различным сервисам через систему биометрической идентификации, и если ее взломать, то злоумышленник получит доступ фактически ко всей нашей жизни. Поэтому я выступаю за сохранение бумажных аналогов документов, что позволит людям иметь надежную альтернативу и не быть частью того цифрового мира, где все находятся под колпаком и подвергаются манипуляциям третьих лиц.
Если мы не хотим превратить нашу страну в цифровой концлагерь, нам необходима будет система табу, которые позволят человеку оставаться человеком. А для того, чтобы к ней прийти, необходима широкая дискуссия общества и государства, результатом которой станут правильные критерии регулирования цифровой сферы с учетом тех рисков, с которыми мы сталкиваемся в сети.