На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Космос

8 383 подписчика

Свежие комментарии

  • Сергей Бороздин
    Мой алгоритм - в статье на Самиздат и дзен "Библия как научный источник истории Мира"Единый алгоритм э...
  • дмитрий Антонов
    прошу прощения, меня тут небыло давно. А где Юрий В Радюшин? с Новым 2023 годомБыл запущен первы...
  • дмитрий Антонов
    жаль, что тема постепенно потерялась. а ведь тут было так шумно и столько интересного можно было узнать, помимо самих...Запущен CAPSTONE ...

Эксперт сравнил кибератаки с использованием искусственного интеллекта с атомным оружием

В будущем технологии искусственного интеллекта (ИИ) и нейросети будут активно использоваться для проведения хакерских атак, считает главный технический директор группы QIWI Кирилл Ермаков. Такие нападения станут настолько же опасными, как и ядерное оружие, заявил корреспонденту Федерального агентства новостей эксперт в области информационной безопасности Александр Власов.

В последнее время крупные компании, банки и промышленные предприятия по всему миру фиксируют увеличение интенсивности кибератак — примером может служить запуск вирусов-шифровальщика WannaCry и ExPetr. Именно эти хакерские программы показали серьезную уязвимость большинства систем безопасности. Как следствие крупный бизнес все чаще задумывается о необходимости совершенствования инфраструктуры противодействия кибернетическим угрозам.

«С точки зрения трендов мы видим, к примеру, что искусственный интеллект начал успешно применяться для систем защиты. Что мы можем предсказать на будущее? Что скоро он начнет применяться для систем атаки», — утверждает технический директор группы QIWI.

Он отмечает, что при нынешнем уровне развития компьютерных технологий для крупной компании с хорошим уровнем информационной защиты приемлемым является одно нападение с серьезными экономическими потерями раз в три года.

«Искусственный интеллект, а также основанные на нейросетях технологии стремительно развиваются. С одной стороны, это безусловное благо, потому что самообучающиеся сети и самообучающиеся программы позволяют быстрее выполнять многие операции и создавать больше удобств для пользователей. Но с другой стороны, тот же мирный атом, дающий один из наиболее чистых источников энергии, может также использоваться в военных целях — как оружие нападения и убийства. Так и здесь: если технологиями нейросетей и ИИ начнут пользоваться злоумышленники, то многие самообучающиеся вирусы или трояны будут учиться обходить те заслоны, которое создают системы информационной защиты. Последствия могут быть схожими с применением атомного оружия. Начнется большая гонка между средствами защиты и средствами нападения», — подтверждает Власов заявление Ермакова.

Кроме того, эксперт в области информационной безопасности уверен, что кибератаки — это только одна из малых составляющих систем, основанных на искусственном интеллекте. Власов напоминает, что ИИ может быть использован в военных целях.

«Многие вещи, которыми мы с удовольствием используем в повседневной жизни, вроде мобильной связи, Интернета — были разработаны в военных лабораториях. Никого не должно удивлять, что пионерами в разработке подобных систем являются не гражданские, а военные специалисты. Сейчас, когда нейросети и ИИ начинают получать распространение — это всего лишь плоды рассекречивания и конверсии самых передовых военных разработок десяти, а может быть даже и двадцатилетней давности», — продолжает собеседник ФАН.

Тем не менее, вряд ли человечество допустит реализации одного из сценариев фантастических фильмов или романов.

«Не стоит забывать, что отцами и матерями искусственного интеллекта являются люди. И если разработчики обладают минимумом ответственности перед собой, перед обществом и перед человечеством, они будут закладывать в системы искусственного интеллекта некие ограничения, которые не позволят ИИ выйти из-под контроля и поработить человечество. Я надеюсь, что у разработчиков хватит ума и ответственности на то, чтобы закладывать физические ограничения», — заключил эксперт.

В настоящее время вся кибернетическая безопасность складывается из желания программистов зарабатывать деньги. Хорошие специалисты, как и хорошее программное обеспечение стоят дорого.

«Не стоит забывать, что внедрение усиленного контроля безопасности приводит к понижению эффективности бизнеса. Поэтому инвестиции надо рассчитывать очень и очень грамотно», — отметил в свою очередь Ермаков.

Напомним, руководство российской социальной сеть «ВКонтакте» начало использовать нейросети для определения содержимого картинок. На основе анализа изображения «обученный» алгоритм присваивает картинкам специальный рейтинг, позволяя бороться с так называемыми «группами смерти». Кроме того, технология также позволяет бороться с детской порнографией и педофилией.

Автор: Сергей Гагарин

https://riafan.ru/885691-ek...


Источник: cont.ws.

Картина дня

наверх