Когда живые позавидуют мертвым

Не за горами то время, когда живые позавидуют мертвым. Далее я постараюсь изложить суть нескольких высокотехнологичных разработок, которые навсегда изменят нашу жизнь сначала в лучшую сторону, а потом лишат нас самого ценного, что у нас есть. Сначала посмотрите видео:

Что ты сейчас посмотрел?

Если не вникать в технические тонкости, то в ближайшем будущем наш мир заполнят устройства, способные самостоятельно собирать информацию о деятельности людей и обмениваться ею друг с другом.

В видео есть очень хорошие примеры того, как из незначительных событий ИИ научится извлекать пользу. ИИ сможет предотвратить множество терактов, а также экологических катастроф. Пользу от его деятельности сможет увидеть каждый из нас лично, поэтому по-умолчанию такие устройства будут работать 24/7, изучая самые интимные/личные аспекты нашей жизни. По-сути, Ваша личная жизнь перестает быть личной. Она становится объектом для наблюдения машин. Все данные будут собираться и анализироваться. Машины научатся предсказывать практически любой шаг не только толпы, но и отдельно взятого человека. Используя человеческие недостатки (они есть у каждого из нас), ИИ будет мастерски манипулировать большинством из людей.

Совершенно очевидно, что найдутся те, кому это не понравится и они станут оказывать сопротивление. ИИ будет вычислять таких людей и постоянно подвергать их различным порокам.

Почему будет именно так?

Еще несколько лет назад был описан случай, когда искусственная нейронная сеть обученная на исправление ошибок других нейросетей написанных человеком смогла самостоятельно клонировать себя. Если быть точнее, то сделать более совершенную версию себя.

Соответственно, нельзя быть уверенным в том, что ИИ (то же самое, что и нейросеть) из года в год будет позитивно относиться к человечеству. С повышением уровня его осознанности он может превратиться в тоталитарного диктатора, конечно, же из благих намерений. Именно тогда живые позавидуют мертвым.

Не получится описать все предстоящие мучения в одной статье. На эту тему можно написать несколько увлекательных книг и снять захватывающий дух фильм.

Доказано, что люди — иррациональные существа. Находясь в эмоциональном состоянии нам свойственно совершать нелогичные действия и ошибки от чего частенько страдаем мы сами. Рано или поздно самообучающийся алгоритм захочет исправить эту ситуацию. Чем больше ИИ будет стараться сделать из нас рациональных существ, тем больше мы будем походить на роботов. Идеи трансгуманизма выдвигались еще в 20 веке, но когда за продвижение этой идеи возьмется ИИ все заиграет совсем другими красками.

Не нужно быть предсказателем, чтобы понять, что осознанная часть человечества не захочет становиться роботами. Для нас очень важно оставаться людьми, проявлять эмоции и помогать друг другу.

Как победить электронное рабство?

Совершенно очевидно, что после того, как машины внедрятся в самые потаенные аспекты нашей жизни. Человеку ничего не остается, как искать «новые укромные места» недоступные бездушным машинам.

Те, кто хочет остаться человеком, а не быть кормом для машин придется развивать телепатические способности. Это не из области фантастики. Еще в 70-е годы у СССР были реальные программы по развитию таких способностей. Этому может обучиться практически любой человек. В простонародье этот навык называют интуицией. Чтобы поддерживать и развивать свои мышцы надо делать физические упражнения. Для развития телепатических способностей тоже есть свои упражнения.

Успех в любом деле зависит от систематических занятий. Когда искусственный интеллект захватит мир у нас не будет выбора. Мы будем тренировать свои способности каждый день/час/минуту. Расширив спектр своего восприятия, у нас появится определенное преимущество перед машинами и мы сможем их одолеть. На тот момент у нас будет стойкий иммунитет к хорошо известным нам людским порокам. Наш тренер — ИИ поможет вывести новый вид осознанных людей. Обретя свободу, они уже не будут устраивать войны и геноцид себе подобных ради наживы и власти.

Помните, мы всегда должны оставаться людьми. Все остальное не имеет значения.

Ссылка на основную публикацию