Развитие чат-ботов GPT потребует нового уровня фактчекинга для защиты от мошенников

Заместитель руководителя Центра компетенций Национальной технологической инициативы по технологиям беспроводной связи и интернета вещей на базе Сколковского института науки и технологий Александр Сиволобов считает, что технологии ИИ позволяют ускорить процесс подготовки текстов, а также улучшить их качество.

Использование языковых моделей типа ChatGPT для обмана людей потребует развития методов быстрого фактчекинга. При этом сами чат-боты пока не избавились от “галлюцинаций” – свойства выдумывать факты при ответе на вопрос пользователя, считает заместитель руководителя Центра компетенций Национальной технологической инициативы (НТИ) по технологиям беспроводной связи и интернета вещей на базе Сколковского института науки и технологий (Сколтеха) Александр Сиволобов.

Чат-боты типа ChatGPT (OpenAI) сегодня используются в качестве помощников в поиске ответов на вопросы или ассистентов по написанию текстов и их переводу на другой язык. Пользователи уже создают с их помощью изображения и видеоролики и даже применяют такой чат-бот в качестве ассистента для людей с ограниченными возможностями: он, например, может определять объект при наведении на него смартфона и озвучивать его характеристики для незрячего человека. Но эти технологии могут приносить не только пользу, но и вред, уверен эксперт.

“Некоторые люди уже используют возможности ИИ для различных мошеннических действий, например, притворяясь известными собеседниками. Поэтому со временем нам придется еще больше проверять и фильтровать информацию, которую мы читаем, видим или слышим”, – рассказал ТАСС Сиволобов, указав на необходимость развития методов быстрого фактчекинга для защиты от обмана.

Технологии искусственного интеллекта (ИИ) позволяют ускорить процесс подготовки текстов и улучшить их качество, считает ученый. В то же время разработчики и пользователи отмечают у чат-ботов на основе больших языковых моделей способность уверенно преподносить выдуманные факты (“галлюцинации”). В связи с этим использование таких сервисов для генерации текстов без проверки фактов выглядит рискованным, считает Сиволобов.

“[Такая модель] иногда придумывает факты или отходит от заданного ей текста. Это может быть как хорошо, так и плохо. Опыт показывает, что количество таких ошибок варьируется от одной до трех на небольшой текст. Все утверждения следует проверять. Иногда достаточно переспросить ChatGPT, чтобы он извинился за свою ошибку и объяснил, почему он что-то выдумал”, – пояснил он, добавив, что само слово “галлюцинации” слишком упрощает описание этого явления, так как способность фантазировать может приносить и пользу – в написании сценариев, например.

Детская ложь

Авторы чат-ботов работают над тем, чтобы они реже “галлюцинировали”. К примеру, модель GPT-4 компании OpenAI на 40% реже додумывает факты, чем предыдущая GPT-3,5, добавляет Сиволобов, приводя в пример этапы развития психологии ребенка.

“После того, как маленький человек научился говорить, начинается этап, когда малыш совершенно честно рассказывает вам истории, в которых смешаны правда и фантазии. Обычно это происходит в возрасте 3-4 лет. Более взрослые дети учатся отличать воображаемое от реального. Так, ChatGPT сейчас находится в этом возрасте. Это говорит нам о том, насколько вдохновляющее будущее ждет технологии ИИ по мере взросления этого “малыша”, – отмечает представитель Центра компетенций НТИ на базе Сколтеха.

О языковых моделях

Чат-бот ChatGPT от американской компании OpenAI был запущен в конце ноября 2022 года. Сервис взаимодействует с пользователем в диалоговом режиме. Искусственный интеллект на основе языковой модели GPT-3.5 может отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять неуместные запросы. В середине марта компания представила следующую модель – GPT-4. Возможности сервиса привлекли широкое общественное внимание, в том числе в России.

В марте более тысячи экспертов в области искусственного интеллекта, в том числе Илон Маск, опубликовали открытое письмо, в котором призвали ввести мораторий на обучение систем мощнее GPT-4 минимум на полгода в связи с тем, что неконтролируемый процесс в этой сфере может представлять угрозу для человечества. Позже в апреле Маск высказался за государственное регулирование этой области, а также сообщил о планах по созданию чат-бота под названием TruthGPT или “максимально ищущий правду ИИ, который пытается понять природу Вселенной”, уточнил он.

“Сбер” на этой неделе выпустил собственную версию мультимодальной нейросети GigaChat. Нейросеть может решать множество интеллектуальных задач: поддерживать беседу, писать тексты, отвечать на фактологические вопросы. А включение в ансамбль модели Kandinsky 2.1 дает нейросети навык создания изображений.

Источник: ТАСС

Автор: Mariam