ИИ как синтез 2го Пришествия и Апокалипсиса

Выбор между ИИ-Добром и ИИ-Злом не однозначен для человечества

В будущем о нашем времени будут говорить, как о времени «Пришествия ИИ»:

  • поворотном моменте, определившем все последующие важнейшие события в истории человечества 21 века;
  • воплотившем в себе одновременно и 2е Пришествие и Апокалипсис и переведшим стрелку дальнейшего пути человечества то ли на путь к немыслимым ранее высотам ИИ-Добра, то ли в эсхатологическую бездну ИИ-Зла.

60+ лет назад математик и философ Норберт Винер опубликовал книгу о месте машин в обществе, которая заканчивалась предупреждением: “Мы никогда не получим правильные ответы, если не будем ставить правильные вопросы…. 
В конце 2го десятилетия 21 века пришёл час поставить главный вопрос современности, поскольку выбор между дальнейшим движением в сторону ИИ-Добра или ИИ-Зла нужно делать сейчас, и этот выбор уже нельзя отложить.

Но разве выбор между ИИ-Добром и ИИ-Злом не однозначен для человечества?

Известный энтузиаст просвещения и основатель Edge Джон Брокман убедительно показывает нам:
✔️ выбор не просто неоднозначен, а в принципе неопределен;
✔️ траектория дальнейшего движения — это не выбор из 2х альтернатив;
✔️ это выбор в, как минимум, 25-мерном пространстве возможных вариантов, в чем-то похожих, а в чем-то принципиально разных.

Каждый из этих 25 вариантов — это видение одного из важных научных умов, посвятивших десятки лет изучению всевозможных аспектов ИИ: от математики до философии.

Они собрались вместе на импровизированный круглый стол не затем, чтобы найти единый правильный ответ, — такого ответа просто нет.
А затем, чтобы, как писал Винер, поставить правильные вопросы.

Вопросы о том:

  • почему в распространении кибернетической идеи на людей концепции Винера не достигли своей цели?
  • пора ли вводить законы против незаконно обучаемых машин?
  • как человечеству ограничиться разработкой интеллектуальных инструментов, не ввергаясь в экзистенциальные риски разработки искусственных сознательных агентов?
  • как ограничивать сверхускорение прогресса за счет широкого внедрения ИИ, чтобы этот безудержный процесс не достиг столь космических масштабов, что человечество просто не вынесет биологически?
  • может ли развитие ИИ, подобно развитию человеческого разума, застрять в локальном минимуме?

И еще один, возможно, наиболее общий из вопросов, не формулируемый одним предложением.

  • вот уже десятки веков человечество экспериментирует с гибридным суперинтеллектом в форме национальных государств и корпораций;
  • этот опыт показывает, что все формы таких гибридных суперинтеллектов обладают свойством генерации собственных целей, не всегда соответствующих интересам людей, которые их создали;
  • так неужели же этот вполне осязаемый и доступный для изучения опыт не останавливает нас от создания гибридного суперинтеллекта нового типа?

Через 6 дней книга «Possible Minds: Twenty-Five Ways of Looking at AI» будет опубликована.

Прочтя многие из её рабочих заготовок по текстам участвовавших в книге авторов, смело рекомендую вам книгу в качестве бестселлера ближайшего будущего.

________________________________

Если вам понравился этот пост — не забудьте:

- нажать “палец вверх”;

- подписаться на обновления канала на платформе Medium;

- оставить комментарий.

Еще больше материалов на моем Телеграм канале «Малоизвестное интересное». Подпишитесь