
Фото: ИЗВЕСТИЯ/Павел Волков
Россиян будут информировать об общении с роботом, а не с живыми сотрудниками контакт-центров компаний и банков. Это предусматривает законопроект о регулировании искусственного интеллекта (ИИ), с которым ознакомились «Известия».
Бизнес злоупотребляет применением ИИ — граждане, не осознающие, что общаются с роботом, не могут оперативно решить свои проблемы и становятся жертвами мошенников, отмечают эксперты. Взаимодействие с искусственным разумом без понимания, что робот технически не может ответить на все вопросы, может привести к непоправимым последствиям, добавляют они.
Если клиент или пользователь услуг общается с их поставщиком по телефону, ему следует предоставить возможность взаимодействия с оператором — человеком, а если через чат-бот в интернете — должно быть указание на автоматизированный характер формирования ответов и сообщений, говорится в документе. В любом случае следует обозначить порядок направления претензий и обращений в структуру, применяющую ИИ.
Компании всё чаще стали подключать нейросети в систему поддержки пользователей и зацикливать всю платформу на ИИ, чтобы сэкономить на операторах, добавил гендиректор группы компаний ST IT, эксперт рынка TechNet НТИ Антон Аверьянов. Это приводит к тому, что пользователи не могут достучаться до консультанта и получить поддержку от искусственного интеллекта в ряде случаев, утверждает он.
— Были случаи, когда ИИ давал неправильные рекомендации, которым следовал человек. Также нужно обязательно указывать, какая система ИИ применяется, потому что если дело касается какой-то системы поддержки, человек может передавать в нее свои персональные данные. А если это так, то они не должны уходить за границу, — добавил эксперт.
Пользователь может полагать, что взаимодействует с реальным человеком, вести себя с ним как с человеком, в том числе провокационно: например, манипулируя давлением на жалость или просто действуя иррационально, указывает эксперт центра компетенций НТИ «Технологии машинного обучения и когнитивные технологии» на базе ИТМО Александр Бухановский.
Сложная генеративная система ИИ может отреагировать по-своему, как это делает человек в силу особенностей эмоционального интеллекта, утверждает он. Пользователь, сможет «спровоцировать» ИИ на неадекватную (в его понимании) реакцию: в лучшем случае это вызовет разочарование, в худшем — может быть воспринято как оскорбление, рассказал эксперт.
Источник: Известия