Возможность выдавать ложные данные, так называемые «галлюцинации», заложена в принцип работы искусственного интеллекта, пишет «Коммерсантъ» со ссылкой на экспертов.
«“Галлюцинации” заложены в принцип работы моделей, иначе невозможно будет создавать ничего нового. Они являются компромиссом между креативностью и точностью работы модели. Модели генерируют ответы, предсказывая максимально вероятную последовательность токенов, и в случае недостаточной информации или редкости фактов они могут “придумать” данные, которые звучат уверенно, но являются вымышленными», — отмечает генеральный директор Dbrain Алексей Хахунов.
По мнению специалистов, это может быть проблемой для бизнеса и тех сфер деятельности, где важны точность и достоверность. Известны эпизоды, когда такое поведение нейросетей привело к многомиллионным убыткам на Нью-Йоркской фондовой бирже, потому что ИИ неправильно оценили финансовые активы. В другом случае американский адвокат использовал ChatGPT для подготовки иска, но модель сгенерировала несуществующие судебные прецеденты, что едва не привело к его дисциплинарному выговору.
«Эти примеры подтверждают, что для принятия ответственных решений необходимо применять более надежные подходы, такие как использование ансамблей моделей, которые объединяют генеративные модели с проверенными базами данных и логическими диспетчерами», — отмечает директор по ИИ корпорации «Синергия» и эксперт Альянса в сфере искусственного интеллекта Андрей Комиссаров.
Напомним, согласно данным опроса, проведённого исследовательской группой Russian Field, 38% россиян считают, что искусственный интеллект может быть эффективнее государственных и муниципальных служащих. При этом 49% опрошенных уверены, что ИИ пока уступает живым чиновникам в эффективности.