Главная угроза, исходящая сейчас от искусственного интеллекта (ИИ), это не замена человека машиной и не использование нейросетей мошенниками, а собственно неистовый хайп на теме искусственного интеллекта, который не дает возможности понимать, что это, собственно говоря, такое. Актуальные риски, связанные с ИИ, представил журналистам директор департамента методологии информационной безопасности «Ростелекома» Михаил Савельев на вебинаре «Карта киберугроз: как ИИ меняет ландшафт атак на регионы России».
«На мой взгляд, тема искусственного интеллекта сейчас сильно перегрета. Понятно, что технология находится на пике своей популярности. Всем очень много обещают, очень много надежд с ней связывают. Я же смотрю аккуратно на этот вопрос. Когда тему начинают очень сильно перегревать, то начинают размываться границы понимания того, что нам предлагают под темой искусственного интеллекта, где он может быть полезен, а где с ним могут возникнуть сложности», – отметил Михаил Савельев.
Публичным размышлениям о том, может ли машина мыслить, уже почти сто лет – сначала этим занимались писатели-фантасты, затем ученые-футурологи. К 20-м годам XXI века мир наконец-то настолько ускорился, что ИИ вроде бы стал реальностью – созданы и дорабатываются человекоподобные роботы, умеющие танцевать, делать сальто и стрелять из автомата, нейросети генерируют контент, люди «оживляют» с помощью ИИ фотографии, «сочиняют» песни, «пишут» книги. Однако, по словам г-на Савельева, специалисты, в том числе и он, ожидают некоей «ямы» в этом процессе – уже, согласно исследованиям, 80% стартапов, связанных с ИИ, которые появляются на рынке, оказываются неуспешными. И это следствие именно отсутствия методологии.
«В первую очередь мы еще не договорились о том, что такое искусственный интеллект, но рассуждаем, что он заменит людей, строим прогнозы, какие профессии вымрут, когда внедрят повсеместно ИИ. В параллели к этому в искусственный интеллект вливают много инвестиций. Однако затраты на создание дата-центров, обеспечивающих работу нейросетей, которые несут компании, вдвое превышают те деньги, которые они планируют заработать. Это долго не продлится», – констатировал Михаил Савельев.
То же касается и замены людей машинами. Михаил Савельев привел пример с бухгалтерией. Раньше на крупных предприятиях в данном отделе трудилось в среднем 20 человек. Работали они вручную. Сейчас из-за автоматизации процесса, компьютеризации – два-три. Однако, напоминает специалист, появились и другие вакансии, которые обязаны обеспечивать рабочую схему функционирования той же бухгалтерии – программисты, дорабатывающие программы под нужды конкретного предприятия, администраторы и так далее.
«Мы не упразднили бухгалтерию, мы ее перераспределили. Бухгалтеров заменили на более дорогих программистов, которых нужно обучать, воспитывать. Поэтому предприятия не сильно сократили расходы на бухгалтерию», – отметил Михаил Савельев.
А вот «хайповое» внедрение ИИ в сфере медицины – это реальная опасность. Сейчас искусственный интеллект способен анализировать снимки, «читать» кардиограммы. По результатам анализа, проведенного ИИ, врачи ставят диагноз.
«С одной стороны, это классно, увеличивается скорость обработки информации. Врачу сразу выдается вердикт относительного пациента. Но есть и минусы. Меня пугает другое. Сначала врачи по инерции будут пересматривать снимки. Затем, если удастся хорошо обучить модель и она будет выдавать хорошую информацию, врачи начнут слепо доверять мнению ИИ и ставить диагнозы, выбирать пути лечения на основании данных искусственного интеллекта. А потом может возникнуть поколение врачей, которое никогда само не смотрело на снимок, соответственно, не умеет его трактовать, слепо доверяя только мнению ИИ. Нам придется потом переобучать модель. Однако мы столкнемся с тем, что нет врачей, которые смогут разметить снимки для обучения следующего поколения искусственного интеллекта», – отметил эксперт.
Мало кто говорит об этом, но уже существует проблема «ИИ в СМИ» – новое поколение журналистов, приходящих в редакции, не умеет самостоятельно писать, зато блестяще пользуются нейросетями. Схема «поисковик – компиляция – обработка ИИ» отлажена и отработана, результат – совершенно одинаковые тексты с совершенно одинаковыми героями, статданными и локациями, гуляющие по просторам Рунета. Во Владивостоке эта проблема также существует – есть целые «ИИ-редакции», специализирующиеся на создании и публикации «пятиминутных» текстов.
Как любой интеллект, ИИ должен постоянно совершенствоваться. Но на благодатной почве слепого доверия новому «богу из машины» человек ничего не сможет ему дать. По словам Михаила Савельева, уже сейчас наметился главный кризис – скоро машину будет некому обучать, и она займется самообучением, зацикливаясь в своем машинном мире. То есть – кончаются данные, на которых могут учиться нейросети, так как ту информацию, которой обладает человечество на сегодняшний день, ИИ уже усвоил, и теперь будет анализировать данные, сгенерированные им же самим. А это приводит к «галлюцинациям», когда ИИ, например, будет выдавать другой цвет неба, потому что пользователи задавали такой промпт нейросети, а она, в свою очередь, генерировала такие картинки.
«Когда нам нужно будет переобучить модель, поскольку она так или иначе начинает деградировать, мы столкнемся с отсутствием специалистов, которые смогут ее настроить. Как только мы начинаем отказываться от человека, теряем определенные компетенции и можем попасть в ловушку – некому будет обучать следующие поколения искусственного интеллекта», – подчеркнул г-н Савельев.
Возвращаясь к ИИ в медицине – можно слегка себе представить, к чему это приведет. А ведь сейчас в России зарегистрировано около 500 региональных систем, использующих нейросети. Они внедрены в самых разных сферах – от «умных» камер уличного видеонаблюдения до государственных сервисов. «Галлюцинации» в госсервисах – это отдельный кошмар прогнозистов.
Пока же кошмаром специалистов по кибербезопасности является использование ИИ киберпреступниками – как для ускорения самого процесса кибератак, так и для поиска уязвимостей и внедрения в атакуемый объект.
Нейросети, как пояснил эксперт, позволяют автоматизировать действия злоумышленников, поэтому количество и скорость атак растет. ИИ постоянно ищет уязвимые места и атакует их сразу же, в первые минуты после обнаружения. Причем вектор атак изменился. Если раньше чаще всего атакам подвергались компании финансового сектора, то теперь, после повышения уровня их безопасности, злоумышленники стали чаще угрожать подрядчикам таких организаций.
«Выросли скорости изготовления фейковых сайтов, фишинговых писем, которые вынудят человека кликнуть на ссылку и произвести заражение. Но управляет всем этим человеческий интеллект», – подчеркнул Михаил Савельев.
Нейросети используют и специалисты в сфере информационной безопасности – средства автоматизации позволяют оперативно предотвращать атаки. Таким образом, искусственный интеллект является алгоритмом как для нападения, так и отражения угроз. В конечном счете, пока еще за каждой цифровой моделью стоит человек как инициатор, создатель и тренер ИИ. Но – см. выше – это ненадолго
Эксперт отмечает, что на данный момент появление новых «нейронок» приостановлено. С рынка уходят мелкие игроки, остаются только крупные, чьи разработки требуют производительных ЦОДов (Центров обработки данных), которые не всем по карману. Возможно, это каким-то образом приостановит процесс и позволит разрешить главную методологическую проблему – определить, что же все-таки такое «искусственный интеллект».