Фото: ИЗВЕСТИЯ/Юлия Майорова
Источник: Известия
В России законодательно закрепят решающую роль человека при принятии решений с использованием искусственного интеллекта в образовании, медицине, юриспруденции и общественной безопасности. Норму о роли человека в этих сферах правительство намерено внести в готовящийся закон о регулировании нейросетей.
Проблемы с ними уже есть: пациенты сталкиваются с ошибками «интеллектуального» медицинского оборудования, в судах стороны разбирательств опираются на вымышленные нормы права, а преподаватели небрежно проверяют домашние задания учеников, отмечают участники рынка. Контролировать ИИ необходимо, однако вводить полный запрет на принятие им решений или требовать их тотальную проверку нецелесообразно, считают эксперты.
Главный побочный эффект ИИ, по мнению советника ректора «Университета 2035» Екатерины Любимовой, заключается в том, что широкая доступность знаний снижает когнитивные усилия. Когда ответы всегда под рукой, у студентов ослабевает привычка критически мыслить и проверять информацию, отметила она. По мере увеличения объемов генерируемого контента возрастает риск ошибок и так называемых галлюцинаций, при этом пользователи нередко воспринимают выводы ИИ как достоверные, подчеркнула она.
Искусственный интеллект охватывает всё больше общественных и государственных институтов, отмечают участники рынка. Так, в аппарате правительства РФ стартовал эксперимент по внедрению ИИ, сообщили «Известиям» его представители. Его участники получают возможность генерировать документы на основе шаблонов, готовить проекты презентаций, проводить комплексный анализ данных из разных источников и осуществлять семантический разбор нормативно-правовых актов. В дальнейшем планируется протестировать использование нейросетей для классификации входящей документации и ее распределения по исполнителям, подготовки кратких справок, поиска информации по архивам с учетом контекста и выполнения других задач, отметили представители кабмина.
Закрепление правила сохранения решающей роли человека нужно, чтобы избежать ошибок ИИ, которые могут серьезно повлиять на жизнь людей, рассуждает гендиректор группы компаний ST IT эксперт рынка TechNet НТИ Антон Аверьянов. Он отметил, что алгоритмы пока не умеют учитывать мораль, индивидуальный контекст и этику так, как это делает человек.
Необходимость законодательного закрепления решающей роли человека продиктована прежде всего технологической незрелостью систем искусственного интеллекта, считает ведущий эксперт в области ИИ «Университета 2035» Ярослав Селиверстов. Современные алгоритмы, даже самые совершенные, функционируют на основе корреляций, а не понимания причинно-следственных связей, рассказал он.
— В сфере безопасности требование о контроле человеком предотвращает ошибочную идентификацию граждан системами распознавания лиц в общественных местах, позволяя оператору учесть расовую или возрастную специфику, с которой алгоритм мог не справиться, — привел он пример.
ИИ не стоит предоставлять слишком широкие полномочия, считает директор ассоциации «Национальная база медицинских знаний» Борис Зингерман. Пока в медицине практически отсутствуют решения, обладающие «правом голоса», отметил он. В России действует лишь одна подобная модель — она отсекает «норму» при рентгенографии легких, что освобождает врачей от рутинной работы по просмотру множества снимков, пояснил эксперт.
Свежие комментарии