Что такое Deepfake и как это может повлиять на нашу кибербезопасность?
Мы приближаемся к концу года, а это значит, что пора экспертам по кибербезопасности начать записывать свои прогнозы на 2020 год. Вы можете быть совершенно уверены, что они попытаются предупредить людей обо всех очевидных вещах - вымогателях криптовалюта, безопасность IoT и т. д. Однако в последние несколько лет они стали свидетелями появления еще одной угрозы, которая может быть столь же зловещей. Их называют глубокими подделками, и последствия, которые они могут оказать на жизнь людей, абсолютно ужасны.
Что такое DeepFake?
По сути, DeepFake - это манипулированное видео. С помощью этой технологии вы можете взять лицо одного человека и изменить его выражение, в зависимости от того, что вам нравится. Вы также можете разместить его на теле другого человека.
По правде говоря, это не является действительно революционным. В течение многих лет у нас были эксперты, которые, имея достаточно времени и денег, могли выполнять те же самые уловки, и результаты были удивительно реалистичными. Ключевыми словами здесь, однако, являются «время», «деньги» и «эксперты». С технологией DeepFake любители могут достичь аналогичных результатов быстрее и при более ограниченном бюджете.
Термин «глубокий фальшивый» - это термин «глубокое обучение» и «фальшивый». Глубокое обучение является частью машинного обучения, которое, в свою очередь, является подмножеством искусственного интеллекта (ИИ). Эти слова очень модные, и многие люди используют и злоупотребляют ими, не понимая, что они в действительности влекут за собой. Давайте не будем попадать в эту ловушку и посмотрим, что на самом деле происходит.
В основе технологии, лежащей в основе Deepfakes, лежат алгоритмы, которые собирают тысячи различных точек данных, анализируют их и используют для манипулирования отснятым материалом, чтобы он выглядел убедительно. Другими словами, невероятно сложный процесс создания реалистичного поддельного видео в основном автоматизирован. И, как мы все знаем, когда вещи автоматизированы, они требуют меньше времени, денег и опыта.
Имейте в виду, это не так просто, как щелкнуть мышью пару раз. Некоторые инструменты для создания фальшивых видеороликов доступны совершенно бесплатно, но этот процесс чрезвычайно ресурсоемкий, и создание убедительного видео может занять до нескольких дней, а также дополнительное редактирование с помощью специализированного программного обеспечения. Однако по сравнению с традиционными методами манипулирования видео такого типа это детская игра, а быстрый поиск на YouTube покажет, что этим занимается множество людей. Но почему они беспокоятся?
Что вы можете сделать с DeepFake?
Deepfake видео можно использовать в развлекательных целях. Смена видео лица может часто вызывать улыбку, особенно если вы заменяете одну голливудскую звезду другой, что является довольно распространенной и в основном невинной практикой среди сообщества фальшивых фанатов.
Почему же тогда подразделение искусственного интеллекта Facebook пытается найти способ, который поможет более эффективно обнаруживать и удалять фальшивые видео? Потому что глубокие подделки не всегда используются для нанесения лица Сильвестра Сталоне на тело молодого Маколи Калкина.
Инструменты Deepfake стали широко доступны в конце 2017 года и в начале 2018 года, и злоупотребления начались практически сразу. Платформы, как Reddit и Twitter были вынуждены пойти после того, как пользователей, которые клали лицо знаменитостей на телах порнографических актрис. Хотя быстро стало ясно, что видео не являются подлинными, некоторые из них стали вирусными, и социальные сети поспешили запретить пользователям, которые ими делятся. Это, конечно, далеко не единственный проступок, для которого можно использовать глубокие подделки.
Технология может стать мощным оружием в руках людей, пытающихся распространять поддельные новости. Мы знаем, как быстро распространяются видео в эти дни, и вы можете только представить, какой хаос может вызвать, к примеру, глубокий фальшивый клип политика. То же самое касается других громких фигур. Глубокое фальшивое видео генерального директора крупной компании может привести указанное предприятие к серьезной суматохе и нанести серьезный материальный ущерб за чрезвычайно короткий период времени.
Вы можете подумать, что только богатые и знаменитые должны иметь подделок в своей модели угроз, но это не совсем верно. Как мы уже упоминали, хотя это трудоемкий процесс, и хотя он требует строгой настройки оборудования, можно создать глубокое поддельное видео с помощью доступных инструментов. Между тем, объем видеоматериалов, которыми мы делимся с миром, растет с постоянной скоростью, что является хорошей новостью для всех, кто пытается поставить нас в неловкое положение.
Следует признать, что за исключением видео для взрослых, которое было опубликовано в начале 2018 года, на самом деле серьезных инцидентов, связанных с фальшивкой, не было. Это не значит, что кто-то не за углом, поэтому убедитесь, что вы готовы к этому.