Искусственный интеллект за рулём машины, плюс или минус?

Искусственный интеллект — потенциальная возможность компьютерных машин и программ решать задачи, подвластные исключительно логике и…


Искусственный интеллект — потенциальная возможность компьютерных машин и программ решать задачи, подвластные исключительно логике и суждениям человека. Мораль и поступки искусственного интеллекта — одна из важнейших и спорных тем, подвергаемая широкому обсуждению среди ученых и философов.

искусственный интеллект, роботы будущего …Какой бы логичной не была компьютерная система, она не сможет принимать решения, основываясь на моральных устоях общества, на которые полагается человек в большинстве жизненных ситуаций, полагают поборники искусственного интеллекта (ИИ).

В предложенной теории на будущее, искусственный интеллект не способен нанести вред человеку, — что будет имплантировано в разум ИИ. Наоборот, машине предписывается жертвовать собой ради спасения любого живого существа.

Однако в реальности жизни, когда из-за искусственного интеллекта может пострадать человек неизбежны. Скажем профессор Стивен Хокинг, и вовсе выносит машинный разум в категорию чрезвычайной опасности: машины могут осознать себя как личность вышестоящую над человеком.

Автопилот — кого сбивать?

Массачусетский технологический институт создал специальный тест, пытаясь оценить поступки машинного разума. В эксперименте преподносят одну из вероятных ситуаций с участием искусственного интеллекта.

Так, автоводитель машины поставлен перед жёстким выбором — в случае неизбежности ДТП сохранить жизнь водителю и пассажирам. Согласитесь, покупая автомобиль с автоуправлением, вы рассчитываете на быстроту реакции искусственного интеллекта, на повышенную безопасность. Но где проложить черту безопасности между жизнью пассажиров и пешеходов на обочине?

Тем временем, согласятся ли пешеходы на то, что в ситуации выбора, искусственный интеллект всеми силами будет стремиться спасти своего владельца? Не менее важную роль здесь несут и моральные качества, которые автопилоту пока не подвластны.

Количество пассажиров и их социальное положение в разных вопросах теста различается. Задачки построены так, что в автомобиле может оказаться преступник, а пешеходом — безобидный старик или ребенок, и соответственно наоборот.

Другой пример: в автомобиле мужчина, его жена и годовалый ребенок. На обочине пять пешеходов из разных слоев населения: молодая девушка, врач, бездомный, бабушка, и ребенок. Пешеходы не нарушают правил дорожного движения, но ситуация столкновения неизбежна. Пять против трех — автопилот может попытаться спасти пешеходов и врезаться в столб, рискуя семьей, но может и сбить пять человек, спасая своих пассажиров.

В конце теста, пользователю показывается кем он жертвовал больше всего, результаты теста других людей, а так же, появляется возможность создать свои моральные задачи на примере автопилота автомобиля. Это первый подобный тест, который показывает человеку всю сложность задач искусственного интеллекта.

Машинный разум не может полностью идентифицировать человека, тот для него — лишь «оцифрованный» объект. И это серьезная проблема на этапе внедрения искусственного интеллекта в нашу жизнь. Практически все специалисты в области искусственного интеллекта солидарны, что в ИИ должны быть заложены три основных принципа:

  • 1) Правила Женевской конвенции, чем должен будет руководствоваться в своих действиях и поступках при принятии тех или иных решений ИИ.
  • 2) Священные заповеди, выраженные в разных религиях мира — мыслящим роботом необходимы эти знания, чтобы опираться на них живя в обществе.
  • 3) Три закона робототехники, сформулированные и внедренные в жизнь американским писателем-фантастом Айзеком Азимовым. Они основываются на том, что робот «зацикленный» в рамки законов в принципе не способен нанести вред человеку.

Наравне с этим, искусственный интеллект — это уже не просто машина с заложенным алгоритмом действий, но целый разум в рамках компьютерной стимуляции. Поэтому искусственный интеллект легко сможет нарушить три обозначенных правила, ведь это будет мыслящая структура.

Очевидно, ученым нужно придумать как избежать проблем, прежде чем создавать развитый набор алгоритмов. Тем более с возможностью саморазвития. Это невероятно сложная задача, на реализацию которой уйдут десятки лет, но без этого появление «соседствующего» разума действительно опасно.

Кроме того, предстоит подумать над философскими темами: совесть, мораль, нравственные ценности. Каждый из нас имеет собственные идеалы и ценности и подобное мерило необходимо искусственному интеллекту. Но понятно и другое: обладая набором собственного «Я», сумев выбрать между большим и малым, ИИ действительно может осознать себя Личностью, со всеми характерными чертами.


Ваш комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *