НОВОСТИ НЕЙРОСЕТЕЙ НОВИНКИ

Как Сбер борется с галлюцинациями больших языковых моделей

В России предложили эффективное решение для поиска галлюцинаций больших языковых моделей

Учёные из Сбера разработали метод, который на 30% точнее среди локальных SOTA решений выявляет галлюцинации в ответах LLM и использует малое количество данных для обучения. Вместо тонны размеченных данных — всего 250 примеров. Всё за счёт метамоделей и хитрой работы с внутренними состояниями ИИ.

Под капотом — классика ML и быстрые трансформеры вроде TabPFNv2. Метод отслеживает, как нейросеть меняется внутри, когда отвечает правильно или начинает галлюцинировать.

Инструмент можно использовать как для отладки LLM, так и для снижения риска дезинформации.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *