Как Сбер борется с галлюцинациями больших языковых моделей

13.11.2025 От 0

В России предложили эффективное решение для поиска галлюцинаций больших языковых моделей

Учёные из Сбера разработали метод, который на 30% точнее среди локальных SOTA решений выявляет галлюцинации в ответах LLM и использует малое количество данных для обучения. Вместо тонны размеченных данных — всего 250 примеров. Всё за счёт метамоделей и хитрой работы с внутренними состояниями ИИ.

Под капотом — классика ML и быстрые трансформеры вроде TabPFNv2. Метод отслеживает, как нейросеть меняется внутри, когда отвечает правильно или начинает галлюцинировать.

Инструмент можно использовать как для отладки LLM, так и для снижения риска дезинформации.