Нур-Султан
Сейчас
-23
Завтра
-18
USD
381
+0.65
EUR
420
+0.49
RUB
6.05
-0.03

Терминаторы появятся уже скоро — Илон Маск

899

116 экспертов, среди которых известный инженер и создатель компании Tesla Илон Маск, в письме ООН предупредили о возможной «третьей революции в вооружениях» и призывали предпринять меры для недопущения разработки «роботов-убийц». И такое письмо — не единственное.

Илон Маск

В числе прочих письмо подписали Мустафа Сулейман, один из создателей принадлежащей Google компании DeepMind, Игорь Кузнецов, основатель и глава российской компании NaviRobot, Алексей Южаков и Олег Кивокурцев — основатели российской компании Promobot.

Мордор нервно закурил в сторонке

Подписанты считают, что технология автономного оружия под управлением интеллектуальных машин — это «ящик Пандоры, который, раз открыв, невозможно будет закрыть». Причем

времени на его закрытие немного, и оно уже истекает

— Если такое оружие будет разработано, это позволит вести гораздо более масштабные, чем когда-либо, вооруженные конфликты в такие сроки, которые людям невозможно представить, — говорится в обращении, — это может стать оружием террора; оружием, которое деспоты и террористы смогут использовать против ни в чем неповинного населения; оружием, взломанным с ужасающими намерениями.

Несколькими днями ранее Илон Маск написал в твиттере, что развитие искусственного интеллекта опаснее конфликта с Северной Кореей.

Твит он сопроводил иллюстрацией с надписью «В итоге машины победят»

Эксперты призывают ООН отнести эти технологии к разряду вооружений, запрещенных Конвенцией ООН о конкретных видах обычного оружия.

Если завтра война: 5 мест, где вспыхнет в любой момент

Потенциальный запрет на разработку технологии «роботов-убийц» ранее уже обсуждался в различных комитетах ООН. 21 августа 2017 должно было состояться заседание специальной группы правительственных экспертов при ООН по проблемам автономного оружия, но его перенесли на ноябрь. Подписанты заявили, что «очень сожалеют» по этому поводу и призвали «удвоить усилия на встрече», если она все-таки состоится в указанные сроки.

Люди — тупиковая ветвь эволюции

Робот-убийца — это совершенно автономный вид оружия, который может выбирать и преследовать цели без руководства со стороны человека. Пока таковых не существует, но технологии неуклонно развиваются и

скоро «терминаторы» из знаменитой франшизы могут стать реальностью

Сторонников создания таких машин достаточно, они считают, что можно справиться с любой проблемой, которая возникнет при использовании этого типа вооружений. А запреты и моратории следует вводить тогда, когда ситуация начнет выходить из-под контроля или даже выйдет совершенно. Однако оппоненты говорят, что подобное оружие является угрозой человечеству уже сейчас, и

любая автономно существующая система, способная убивать, должна быть запрещена

Илон Маск и раньше высказывался по этому поводу. «Величайшей угрозой человечеству» он назвал искусственный интеллект еще в 2014 году. Правда, именно с этого времени он начал инвестировать в компании, занимающиеся изучением ИИ. Некоторые объясняют поступок тем, что Маск хотел быть в курсе происходящего.

В том же 2014 году Маска поддержал другой мировой авторитет — профессор Стивен Хокинг.

Стивен Хокинг

Ученый давал интервью BBC, и журналист заинтересовался новыми технологиями, которой Хокинг пользуется для общения с внешним миром.

Профессор Хокинг, страдающий латеральным амиотрофическим склерозом, для передачи речи пользуется специальной системой, разработанной американской компанией Intel. Технология, уже применяемая в клавиатуре смартфонов, «изучает» ход мыслей профессора и предлагает слова, которые тот мог бы употребить в следующей фразе.

И вот тут-то профессор и заявил, что «появление полноценного искусственного интеллекта может стать концом человеческой расы». И добавил, что хотя уже существующие примитивные формы ИИ доказали свою полезность, он опасается, что очередное детище человечества превзойдет своего создателя.

— Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью.

Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем,

— сказал Хокинг.

 

В 2015 году более тысячи ученых, экспертов и изобретателей написали письмо, в котором тоже предупреждали об опасности автономного оружия. Свои подписи тогда поставили все те же Стивен Хокинг и Илон Маск. К ним присоединился и один из основателей компании Apple Стив Возняк.

Зачем вообще Скайнету мировое господство?

Вернемся в 2017 год. В июле руководство социальной сети Facebook вынуждено было отключить свою систему искусственного интеллекта, после того как боты начали общаться на собственном языке, который люди не понимали. Чат-боты изначально создавались для общения с живыми людьми, но потом начали общаться между собой. Сначала на английском, но

в какой-то момент перешли на язык, который сами же и создали

Однако сам глава Facebook Марк Цукерберг с Маском несогласен и даже называл его заявления «довольно безответственными».

— В ближайшие пять или десять лет искусственный интеллект будет делать жизнь только лучше, — сказал Цукерберг.

Синдром Терминатора: какие изобретения угрожают человечеству?

Профессор Вашингтонского университета Райан Кало в ответ Маску написал целый очерк под названием «Принципы искусственного интеллекта: сценарий действий». Во-первых, Кало заявил, что ни одно из существующих исследований не подтвердило возможность создания ИИ хотя бы на уровне примитивных млекопитающих, не говоря уже о человеческом разуме. Во-вторых, полагает эксперт, даже если когда-нибудь удастся создать суперинтеллект,

ему просто незачем захватывать мир (если только это желание не заложат программно)

Профессор также намекнул, что время и ресурсы, которые тратят на изучение вероятности машинного апокалипсиса, можно было употребить с большей пользой. Например, изучать то, как ИИ может служить на благо общества.

Глобализация наступает: даже из мировых языков могут выжить не все

Тем временем Маск говорит:

«Я продолжаю бить тревогу, но пока люди сами не увидят роботов, которые ходят по улицам и убивают людей, они не узнают, как реагировать на искусственный интеллект»

© «365 Info», 2014–2020 [email protected], +7 (727) 350-61-36
050013, Республика Казахстан г. Алматы, мкр. Керемет, дом 7, корпус 39, оф. 472
Заметили ошибку в тексте? Выделите ее и нажмите Ctrl+Enter