24.12.2018      109      0
 

Опасные технологии будущего, которые не следует создавать.

Мы живем в невероятные времена, когда технологии развиваются широкими темпами и начинают проникать во все…


Мы живем в невероятные времена, когда технологии развиваются широкими темпами и начинают проникать во все аспекты современной жизни. Одновременно с фантастическим потенциалом улучшения качества жизни, который представляют технологии, существует и ужасный потенциал для угрозы и рисков. Некоторые ученые полагают, что мы вступили в эру, когда появляются опасные технологии будущего, и нам надо крепко подумать о дальнейшем развитии этих направлений.

Опасные технологии будущего, которые не следует создавать.

Опасные технологии будущего, которые не следует создавать.

Мы говорим не о тех технологиях, которые специально созданы для злых целей, таких как газовые камеры или устрашающие инструменты пыток средневековья. По существу, речь идет о нейтральных технологиях, которые можно использовать как для добра, так и для зла. Это необходимые инструменты, которые безусловно, могут привести к очень большим опасностям если они попадут в чужие руки.

Опасность нанотехнологий.

Нанотехнологии могут быть использованы в благотворительных целях. Например, маленькие самореплицирующиеся нанороботы со способностью вмешиваться в окружающую среду могут быть использованы для очистки нашей атмосферы. Они же могут быть внедрены в кровь человека и принимать активное участие в контролировании нашего здоровья и продлевая молодость вести гораздо дольше по жизни.

Но если эта технология попадет в плохие руки, кто решит преднамеренно освободить нанороботов без ограничения роста, то вся планета может быть поглощена. Мы можем получить планету, покрытую серой поверхностью, состоящей из наномашин, которые размножались, пока не поглотили всю биосферу, — катастрофа, известная как экофагия.

Машины с сознанием.

Многие сегодня ожидают в ближайшие десятки лет появления машины с искусственным сознанием, но это может стать пугающим событием для машины и плохо кончится для людей. Многие футурологи называют создание машины с искусственным интеллектом являющейся рабом жестоким творением.

машинный суперинтеллект угрожает нашей расе

машинный суперинтеллект угрожает нашей расе

Лучший способ контролировать искусственный интеллект назван в «Трех законах робототехники» Исаака Азимова, но аморально заставлять раба иметь совесть. К тому же ошибка программирования может привести к появлению компьютера с синдромом Дауна, шизофренией, аутизмом или эпилепсией. Попробуйте представить себе раба-робота, который не знает, что он раб, но страдает, потому что он раб и не может освободиться.

Стивен Хокинг и многие другие опасались, что создание искусственного интеллекта может обернуться худшей ошибкой человечества. Быстрая и умная экспертная система, обладающая сознанием, которая будет у нас на ладони это очень здорово. Однако нет никакого способа предсказать, будет ли искусственный интеллект дружественным.

Роботы, предназначенные для убийства людей.

Искусственный интеллект — точка развития с ужасающим потенциалом, которая сегодня является предметом обсуждения. Роботы-убийцы не потребуют участия человеческого интеллекта для функционирования и выполнения поставленных задач. Будь то военная техника или человекоподобные солдаты, они автоматически опознают людей вражеской армии и начнут уничтожение противника.

Самая большая проблема заключалась бы не в ошибках идентификации, которая закончилась бы «дружеским огнем» или гибелью ни в чем не повинных гражданских лиц.

Большая опасность выглядывает в гонке вооружений и развития самой могущественной армии — роботов.

Со временем роботы станут настолько мощными (как свои, так и чужие), что мы не сможем с ними конкурировать. Если роботы смогут договориться между собой – для нас это будет рабство или смерть. Возможно, это утопические идеи, и на самом деле машинный интеллект станет человеку добрым другом, но мы не можем знать этого наверняка.


НОВОСТИ ПАРТНЕРОВ:

Ваш комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

новости нашего интернета: