Благодаря стремительному развитию инноваций граница между реальностью и виртуальным миром становится все более размытой. Сегодня с помощью новейших технологий мы можем заставить любого человека «сказать» все, что угодно. В частности, речь идет о распространенных deepfake-видео.
Что такое «deepfake»?
Технология «deepfake» является методом синтеза изображения человека на основе искусственного интеллекта. Она позволяет создавать фальшивые ролики с помощью наложения нужных слов в уже существующее видео или наоборот. Такие видео выглядят очень реалистичными. Основными жертвами таких видеороликов становятся знаменитости и общественные деятели. Как правило, в поддельных видео известные личности якобы говорят что-то обидное или провокационное.
Популярность deepfake-видео растет с каждым днем, в частности за последний год их количество увеличилось почти вдвое. Кроме этого, совершенствуется и качество таких видео. Например, в Интернет-сети распространен видеоролик с актером Биллом Хейдером, который без особых усилий превращается в Тома Круза. При этом меняется не только внешность, но и голос актера. При поиске deepfake-видео на YouTube вы найдете множество роликов с публичными личностями на довольно разные темы..
В чем опасность deepfake-видео?
Технология «deepfake» набирает все большую популярность не только среди обычных пользователей, но и среди киберпреступников. Хотя этот тренд воспринимается больше как развлечение, но в дальнейшем такие фальшивые ролики могут стать причиной политических скандалов, а также быть использованы в кибератаках и в других преступных схемах.
Все чаще технология «deepfake» помогает злоумышленникам осуществлять различные мошеннические операции. Например, мошенники, выдавая себя за генерального директора, просили срочно перевести большие суммы якобы на счет поставщика, а на самом деле указывали свой счет. Стоит отметить, что подделать голоса личностей, которые занимают управляющие должности, достаточно легко, поскольку они часто выступают на различных конференциях, которые общедоступны в Интернет-сети.
Deepfake-видео представляют угрозу не только публичным личностям, но и обычным пользователям, даже вашим близким и коллегам. Например, «deepfake» могут использоваться для издевательств в школах или офисах.
Технология «deepfake» становится все более доступной для любого пользователя, а распознать фальшивку становится все труднее. И действительно, фейк-технологии совершенствуются с каждым днем, а вот развитие инструментов, способных распознать поддельный контент, пока находится на начальном уровне. Сегодня нет сервиса или технологии, которая смогла бы разоблачить «deepfake». Поэтому остается только полагаться на свою интуицию.
Кроме этого, избежать мошеннических схем с использованием этой технологии, нацеленных на предприятия, помогут следующие меры предосторожности:
- создайте совместное тайное слово с людьми, которым вам придется поручать определенные действия, например, руководитель, который может отдавать распоряжения сотрудникам переводить деньги, может использовать определенное слово, известное только ему и финансовому отделу.
- обсудите с персоналом действия, которые вы никогда не попросите их сделать, чтобы распознавать мошеннические запросы;
- для проверки любого запроса используйте различные способы коммуникации, например, если общение начинается текстовым сообщением, подтвердите, обратившись к собеседнику с помощью известных вам номера телефона или электронной почты.
Стоит отметить, что для создания максимально реалистического видеоролика нужно собрать большое количество видео- и аудиозаписей конкретного человека, даже для короткого клипа. Сейчас это не является большой проблемой, поскольку множество наших фото и видео общедоступно в популярных соцсетях. Однако, в погоне за виртуальной популярностью стоит не забывать, что вся опубликованная информация может быть использована киберпреступниками.