Астана
Сейчас
-11
Завтра
-3
USD
448
-1.49
EUR
478
-0.38
RUB
4.76
0.00

Мир захлестнет волна поддельных видео с политиками, созданных DeepFake

1518
gmbox.ru

Американский журналист выложил в Twitter видео с гибридом Стива Бушеми и Дженнифер Лоуренс. Скорее всего, он создал его сам, бесплатно используя доступную и на первый взгляд безобидную версию программы DeepFake.

Гибрид Стива Бушеми и Дженнифер Лоуренс ужаснул пользователей Сети

Deepfake — это фальсификация, подделка (fake), а глубокий (deep), потому что корнями растет из термина “deep learning” — глубокое, а скорее, глубинное обучение искусственного интеллекта (ИИ).

В рамках этого процесса наборы алгоритмов, заложенные в ИИ (СМИ называют «нейросетями»), обучаются до такого уровня, когда могут делать логические выводы. И на их основании способны прослеживать существование неких правил и закономерностей, а также повторно воспроизводить комбинации, шаблоны и образы посредством просеивания больших массивов данных.

Гибрид Стива Бушеми и Дженнифер Лоуренс ужаснул пользователей Сети

Google первым обучил нейросети для разработки алгоритмов классификации графических образов, которые затем подключил к своей системе поиска.

Дипфейки появляются в результате особого вида глубинного обучения нейросетей, в рамках которого два алгоритма «натравливаются» друг на друга. Процесс развивается в рамках «генеративно-состязательных сетей».

В такой сети первый алгоритм – генератор, который лепит контент, материал для него он находит в разных многочисленных источниках. Например, генерирует искусственные образы котят, на основании данных из доступных интернет-библиотек.

Второй алгоритм называется «дискриминатором», который должен найти искусственный контент — например, фейковые фото котят.

Опасные «игры»

В июне 2018 года американские ученые объявили о завершении разработки программы для выявления дипфейков, поскольку

открывается безграничный простор для фальшивок и дезинформации и грубой лжи, изощренно разбавленной правдой

В странах, где давно ведутся войны, никто не будет разбираться, насколько достоверны подобные материалы.

Представьте,

что будет, если в соцсетях кто-то выложит видео, где, к примеру, премьер-министр Израиля отдает команду убивать иранских ученых?

Или иранские лидеры отдают команды убивать лидеров суннитов в Ираке? Или американские солдаты в Афганистане сжигают Коран?

А если бы в процессе событий в Караганде кто-то создал дипфейк, используя фотографии или видео любого карагандинского чиновника, на котором он призывает казахов к погромам ресторанов, принадлежащих, допустим, русским или китайцам?

Подобрать физиономию, не сильно изувеченную интеллектом и болью за Родину, но любящую выкладывать каждый момент своей ничтожной жизни в сеть и раскачать образ казахстанского чиновничества, вынашивающего планы давить на не казахов, сегодня уже не составляет большого труда…

Скромнее надо быть

Подобные сети и алгоритмы могут жить бесконечно долго. И пока работает электричество, они будут непрерывно изобретать способы, чтобы обыграть друг друга. А поскольку заточены они на аудио- и видеоконтент, качество и реалистичность аудио- и видеофейков будет бесконечно долго улучшаться.

Программы уже имеют платные и бесплатные версии, и все они существуют официально. Значит, на черном рынке будут распространяться такие же программы, но со взломанной защитой от неправомерного использования. Следовательно,

растет вероятность использования ИИ для производства подрывных материалов – было бы сырье для обработки…

Вывод глобальный. Подобные программы особенно опасны для стран и регионов, где население доведено до состояния, исключающего возможность беспристрастного и объективного анализа информации. Причем в категорию таких стран и регионов можно отнести и развитые, и развивающиеся, и распадающиеся.

Вывод частный. Учитывая рост числа людей, одержимых желанием выкладывать фото- и видеоотчеты из своей повседневной жизни в интернет, такого сырья киберпространство копит в неограниченных террабайтах.

А значит, скромнее надо быть, иначе DeepFake любого доведет до Deep Shit.

© «365 Info», 2014–2024 info@365info.kz, +7 (771) 228-04-01
050013, Республика Казахстан г. Алматы, мкр. Керемет, дом 7, корпус 39, оф. 472
Заметили ошибку в тексте? Выделите ее и нажмите Ctrl+Enter