Технология редактирования видеороликов Deepfake, позволяющая минимальными усилиями подменять одно лицо другим, вызывает все больше беспокойства у политиков. Реалистичные цифровые подделки убедительных изображений людей, делающих или говорящих то, что они никогда не делали, могут быть использованы для шантажа и дезинформации. В худшем варианте — для призывов к войне.
Американский журналист выложил в Twitter видео с гибридом Стива Бушеми и Дженнифер Лоуренс. Скорее всего, он создал его сам, бесплатно используя доступную и на первый взгляд безобидную версию программы DeepFake.
Гибрид Стива Бушеми и Дженнифер Лоуренс ужаснул пользователей Сети
Deepfake — это фальсификация, подделка (fake), а глубокий (deep), потому что корнями растет из термина “deep learning” — глубокое, а скорее, глубинное обучение искусственного интеллекта (ИИ).
В рамках этого процесса наборы алгоритмов, заложенные в ИИ (СМИ называют «нейросетями»), обучаются до такого уровня, когда могут делать логические выводы. И на их основании способны прослеживать существование неких правил и закономерностей, а также повторно воспроизводить комбинации, шаблоны и образы посредством просеивания больших массивов данных.
Гибрид Стива Бушеми и Дженнифер Лоуренс ужаснул пользователей Сети
Google первым обучил нейросети для разработки алгоритмов классификации графических образов, которые затем подключил к своей системе поиска.
Дипфейки появляются в результате особого вида глубинного обучения нейросетей, в рамках которого два алгоритма «натравливаются» друг на друга. Процесс развивается в рамках «генеративно-состязательных сетей».
В такой сети первый алгоритм – генератор, который лепит контент, материал для него он находит в разных многочисленных источниках. Например, генерирует искусственные образы котят, на основании данных из доступных интернет-библиотек.
Второй алгоритм называется «дискриминатором», который должен найти искусственный контент — например, фейковые фото котят.
В июне 2018 года американские ученые объявили о завершении разработки программы для выявления дипфейков, поскольку
открывается безграничный простор для фальшивок и дезинформации и грубой лжи, изощренно разбавленной правдой
В странах, где давно ведутся войны, никто не будет разбираться, насколько достоверны подобные материалы.
Представьте,
что будет, если в соцсетях кто-то выложит видео, где, к примеру, премьер-министр Израиля отдает команду убивать иранских ученых?
Или иранские лидеры отдают команды убивать лидеров суннитов в Ираке? Или американские солдаты в Афганистане сжигают Коран?
А если бы в процессе событий в Караганде кто-то создал дипфейк, используя фотографии или видео любого карагандинского чиновника, на котором он призывает казахов к погромам ресторанов, принадлежащих, допустим, русским или китайцам?
Подобрать физиономию, не сильно изувеченную интеллектом и болью за Родину, но любящую выкладывать каждый момент своей ничтожной жизни в сеть и раскачать образ казахстанского чиновничества, вынашивающего планы давить на не казахов, сегодня уже не составляет большого труда…
Подобные сети и алгоритмы могут жить бесконечно долго. И пока работает электричество, они будут непрерывно изобретать способы, чтобы обыграть друг друга. А поскольку заточены они на аудио- и видеоконтент, качество и реалистичность аудио- и видеофейков будет бесконечно долго улучшаться.
Программы уже имеют платные и бесплатные версии, и все они существуют официально. Значит, на черном рынке будут распространяться такие же программы, но со взломанной защитой от неправомерного использования. Следовательно,
растет вероятность использования ИИ для производства подрывных материалов – было бы сырье для обработки…
Вывод глобальный. Подобные программы особенно опасны для стран и регионов, где население доведено до состояния, исключающего возможность беспристрастного и объективного анализа информации. Причем в категорию таких стран и регионов можно отнести и развитые, и развивающиеся, и распадающиеся.
Вывод частный. Учитывая рост числа людей, одержимых желанием выкладывать фото- и видеоотчеты из своей повседневной жизни в интернет, такого сырья киберпространство копит в неограниченных террабайтах.
А значит, скромнее надо быть, иначе DeepFake любого доведет до Deep Shit.