Какие дипфейки делают фейковые новости игрушечными?

От розового видео Скарлетт Йоханссон до попытки государственного переворота в Габоне - правда и ложь опасно смешаны.

001 shutterstock 1456783511 1312x819 1 ПОДДЕЛЬНЫЕ НОВОСТИ, Интернет, Youtube, Габон, Интернет, кибербезопасность, Нэнси Пелоси, Неа Фамагуста, Скарлетт Йоханссон, ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

Известно, что Интернет имеет свою хорошую сторону. Например, немедленная информация. Или возможность найти все, что угодно, за считанные секунды и даже больше. Однако также известно, что у Интернета есть и плохая, и темная сторона. Он может стать инструментом в руках любого мошенника и любого преступника.

Пока что одним из самых больших "шипов" в Интернете является поддельные новости. Есть такие, которые плохи и их легко понять, но есть и те, которые созданы таким мастерским образом, что вы с трудом понимаете, где ложь начинается и где заканчивается.

Поскольку, однако, интернет Он развивается по мере развития технологий, кажется, что с точки зрения информации трудности еще впереди. С начала прошлого года все чаще и чаще стали появляться дипфейки, которые сделали фейковые новости похожими на… игрушку.

На самом деле дипфейки были и до 2019 года, однако опытный глаз их легко различил. Фактически, впервые этот термин был идентифицирован в 2017 году.

Однако в последние месяцы ситуация кардинально изменилась: эксперты предупреждают, что, если все это не будет контролироваться и даже быстро, это явление может вскоре перерасти в бедствие, которое будет поднимать и опускать правительства в любом уголке земного шара!

shutterstock 1591720276 Ложные новости, Интернет, Youtube, Габон, Интернет, кибербезопасность, Нэнси Пелоси, Неа Фамагуста, Скарлетт Йоханссон, ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

По сути, это новая технологическая революция, которая не имеет ничего общего с простым способом создания фейковых новостей. Дипфейки даже используют область искусственного интеллекта. Мы в основном говорим об аудио или видео, когда кажется, что кто-то говорит или делает то, чего он никогда не говорил и не делал!

Производство глубоких фейков осуществляется, как уже упоминалось, с помощью искусственного интеллекта и способности этой технологии расшифровывать движения и речи человека. То есть «читать», как человек двигается, когда он говорит, тон его голоса зависит от того, когда он зол или счастлив, а затем превращается в мима настолько хорошо, что практически затрудняет различение между настоящим и фальшивым!shutterstock 1430571869 Ложные новости, Интернет, Youtube, Габон, Интернет, кибербезопасность, Нэнси Пелоси, Неа Фамагуста, Скарлетт Йоханссон, ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

Около года назад компания Deeptrace кибербезопасность Базирующаяся в Амстердаме компания, производящая инструменты для обнаружения поддельных видео, опубликовала исследование, направленное на количественную оценку развития феномена дипфейков. Согласно выводам, последние девять месяцев 2019 года увеличились вдвое по сравнению с аналогичным показателем 2018 года - 14.678 XNUMX человек!

shutterstock 1373765486 Ложные новости, Интернет, Youtube, Габон, Интернет, кибербезопасность, Нэнси Пелоси, Неа Фамагуста, Скарлетт Йоханссон, ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

Подавляющее большинство (96%) из этих видео порнографические. Гораздо меньшее количество видеороликов нацелено на политиков или известных бизнесменов. Показательно, что 2% дипфейк-видео, выявленных исследователями в YouTube показать личностей из делового мира.

Одной из первых, кто почувствовал на своей коже, какой вред могут нанести дипфейки, стала актриса. Скарлетт Йоханссон кто видел ее лицо звезды в порнофильмах, что она никогда не снимал. В аналогичном видео снялись также голландская телеведущая Дионн Стакс и индийский журналист Рана Айюб. Во всех трех случаях результат один и тот же. Видео посмотрели миллионы людей, и хотя они были загружены с платформ, которые теперь были размещены, большинство считает, что эти женщины действительно снимались в розовых видео.

Следует отметить, что в случае с индийским журналистом создание дипфейка видео было произведено как продукт шантажа с целью остановить расследование изнасилования и убийства восьмилетней девочки из Кашмира!

Однако, как вы легко видите, не все дипфейки… розовые. По данным Wall Street Journal, британский бизнес-менеджер стал жертвой фальшивой аудиозаписи и, решив, что разговаривал с директором венгерской компании, одобрил отправку 250.000 XNUMX единиц товара на указанный ему счет.

Президент американского парламента также стал жертвой дипфейка. Нэнси Пелоси (ее голос изменился, а жесты замедлились во время ее настоящих речей, так что она выглядела пьяной), но также бывшего и нынешнего президента США. Фейковые видео Обамы и Трампа можно легко найти в Интернете.

Однако самый возмутительный, возмутительный и опасный случай произошел в далеком Габоне, где долгое отсутствие президента в сочетании с потенциально глубоким фейковым видео убедило вооруженные силы в том, что президент мертв или не может выполнять свои обязанности. оф. Это привело к В начале января 2019 года армейские части займут общественное радио и телевидение.

Их старшие офицеры подробно остановились на ситуации, вызвавшей проблемы со здоровьем президента Али Бонго, и заявили, что они сами заботятся о судьбе страны. Спустя полтора года ни один эксперт не решил с уверенностью, было ли видео аутентичным или нет. Однако переворот не удался, и Бонго постепенно снова стал появляться на публике., остается президентом страны.

shutterstock 731926345 Ложные новости, Интернет, Youtube, Габон, Интернет, кибербезопасность, Нэнси Пелоси, Неа Фамагуста, Скарлетт Йоханссон, ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

Последствия дипфейков для экономики, политики, преступности и коммуникации потенциально огромны.

В действительности, однако, хотя до сих пор люди, оказавшиеся в центре внимания, являются известными (от журналистов и актеров до политических и экономических деятелей), обычные люди подвергаются гораздо большему риску, и это потому, что они, очевидно, не имеют того же риска. легкость поиска способов защиты от таких атак.

Некоторые исследователи уже разработали несколько систем обнаружения дипфейков, которые исследуют такие элементы, как освещение, тени, движения лица, для определения подлинности контента.

Эти исследователи считают, что, поскольку дипфейки основаны на его технологии, искусственный интеллект, некоторые считают, что искусственный интеллект может быть решением проблемы. Другое решение, которое также является предпочтительным на этом этапе, - это добавить к изображению изображения своего рода фильтр, чтобы его «блокировки» нельзя было использовать для создания дипфейк-контента.
Несомненно, однако, это еще одна серьезная проблема.

В своем недавнем отчете Институт Брукингса суммирует спектр политических и социальных рисков, связанных с дипфейками: «искажение демократического диалога, манипуляция избирательными процессами, отказ от доверия к институтам, коррупция журналистов. , подрывая общественную безопасность ".

источник