Источник: Setters Media
Директор «Яндекса» по стратегическому маркетингу Андрей Себрант и замдиректора Центра компетенций НТИ «Технологии доверенного взаимодействия» Руслан Пермяков предлагают свои сценарии жизни с ИИ — при политике развития и сдерживания.
Руслан Пермяков, заместитель директора Центра компетенций НТИ «Технологии доверенного взаимодействия» на базе ТУСУР:
Решить подобные дилеммы компьютер (даже квантовый) не поможет. Человечеству надо разбираться в этических вопросах самому, а на это может уйти много времени, вплоть до нескольких десятилетий. Без проработки этики ИИ можно дать свободу лишь там, где человек не пострадает физически, юридически и нравственно. Но, к сожалению, мы с этим тоже не разобрались.
Развитие нейросетей стоит сдерживать до тех пор, пока мы не разберемся с этическими вопросами применения ИИ. Здесь есть два уровня:
1. Очевидный, когда ИИ в некой неоптический ситуации должен решать, кого убить (если варианта не убивать нет).
2. Неочевидный, когда ИИ принимает решения, приносящие негативные последствия в будущем, но сейчас улучшающие ситуацию.
Сейчас, насколько мне известно, проработкой спорных этических вопросов вплотную никто не занимается. Несколько лет назад Массачусетский технологический университет проводил опрос на тему ИИ и этики, было приведено множество ситуаций. Например, кого должен в безвыходной ситуации сбить беспилотный автомобиль: престарелую женщину или мать с грудным ребенком? Результаты исследования вызвали негативную реакцию в обществе. Это очевидный уровень этических вопросов.
Неочевидный уровень: к примеру, ИИ из медицинской организации может решить опубликовать в сети данные заболевшего, чтобы найти для него доноров (в том числе родственников). Но при этом, возможно, будет раскрыта тайна усыновления этого человека. Нейросеть таким образом помогает ему вылечиться прямо сейчас, но как раскрытие такой информации отразится на будущем человека и его семьи — неясно.
Свежие комментарии