“Умные” чат-боты учатся на субъективных данных, что влияет на их объективность – ученый

Библиотеки данных, на которых обучаются языковые модели GPT, содержат тексты с искажениями, предрассудками и агрессией, что отражается на объективности ответа чат-бота на конкретный вопрос. Разработчики уже начали решать проблему субъективности, корректируя используемые базы, сказал ТАСС в понедельник заместитель руководителя Центра компетенций Национальной технологической инициативы (НТИ) по технологиям беспроводной связи и интернета вещей на базе Сколковского института науки и технологий (Сколтеха) Александр Сиволобов.

Ученый напомнил, что в отличие от таких поисковых сервисов как “Яндекс” или Google, чат-боты типа ChatGPT являются языковыми моделями, у которых нет таких приоритетов выдачи как свежесть и популярность информации. Однако наряду с вопросами распространения в сети фейков существует и проблема предвзятости GPT.

“ChatGPT обучается на огромном объеме текста, поэтому становится зеркалом современного общества. Как результат, его интеллектуальные искажения происходят не от фейков, а скорее являются продуктом укоренившихся в западном обществе предрассудков, мифов, активизмов и долгосрочных повесток, а также агрессии, нетерпимости и предвзятости, которые широко распространены во многих интернет-чатах и на сайтах. Например, он часто добавляет вопросы экологии туда, где их в оригинале не было. Или иногда пытается выставить США в хорошем свете (то есть так, как это написано в подавляющем большинстве статей, журналов и книг), в то время как запрос предполагает скорее негативную оценку”, – уточнил исследователь.

В таких случаях для уточнения ответа чат-бот можно переспросить, и он даст более объективную оценку, продолжил Сиволобов.

“К счастью, большая часть таких проблем исправляется специальной командой модерации”, – пояснил ученый, добавив, что следующие нейросетевые модели за счет этого будут значительно реже допускать в ответах подобные отклонения.

Источник: ТАСС

Автор: Mariam