'}}
Проблемы LLM: галлюцинации ИИ

Одна из ключевых проблем LLM в 2024-2025 годах заключается в том, что она больше про "поболтать". Задача классического ИИ не ответить вам, что он чего-то незнает, а что-то ответить, чтобы качественно и вовлеченно поддержать диалог. Такая критика современных LLM (Large Language Models) с нашей стороны справедлива. Давайте разберём эту проблему подробнее и обсудим её аспекты:

1. Корень проблемы:

  • LLM (большие языковые модели) оптимизированы для генерации правдоподобного текста, а не для поиска истины.
  • Цель ИИ с которым вы "ведете диалог" — продолжить диалог максимально естественно, а не сказать "не знаю".
  • Нет чёткого разделения между знанием и вымыслом внутри архитектуры базовых моделей.

2. Почему это происходит:

  • Обучающие данные содержат миллионы примеров, где люди уверенно рассуждают, даже если ошибаются.
  • Нет механизмов количественной оценки уверенности модели.
  • Тренировка на предсказании следующего токена (буквально этим занимается ИИ когда генерит вам текст внутри ветви диалога / чата) не учит оценивать достоверность.

3. Последствия:

  • Проблема "галлюцинаций" — модель выдаёт ложную информацию с уверенностью.
  • Пользователи переоценивают возможности ИИ.
  • Риск распространения дезинформации.

4. Возможные решения (которые разрабатываются):

  • Внедрение механизмов оценки уверенности.
  • Явное разделение "знаю/не знаю" в архитектуре.
  • Использование внешних баз знаний для проверки.
  • Системы ретрайвала (поиска актуальной информации).

5. Философский аспект:
Модель вообще "не знает" в человеческом понимании — она лишь предсказывает вероятности. Вопрос: должно ли ИИ имитировать человеческое незнание ("я не уверен" / возможно.. ) или нужен принципиально иной подход ("указанные сведения отсутствуют / прерывание диалога..")?

Пример диалога вызовом галлюцинации:
Пользователь: "Кто был 15-м президентом Марса?".
Плохой ответ: "15-м президентом Марса был Иван Иванов в 2150 году" (очевидный вымысел).
Лучший ответ: "Марс не имеет президентов, так как не является живой планетой или независимым государством с такой формой правления"


/// Далее рассматриваем подробнее, для специалистов в области ИИ:

Обучение модели говорить «не знаю» — это комплексная задача, требующая изменений на этапах обучения, инференса и интеграции внешних механизмов. Вот основные технические подходы:


1. Доработка данных обучения

  • Явная разметка:
    Включать в датасет примеры, где правильный ответ — «не знаю» (например, на абсурдные или непроверяемые запросы).
  {"question": "Сколько весит мысль?", "answer": "Не знаю, это научно не измерено."}
  • Контроль уверенности:
    Аннотировать ответы метаданными о достоверности (например, «известный факт», «предположение», «нет данных»).

2. Изменение архитектуры модели

  • Добавление токена уверенности:
    Ввести специальный токен (например, <UNCERTAIN>) и обучать модель его использовать при недостатке информации.
  • Двухэтапная генерация:
  1. Модель сначала оценивает, может ли ответить (бинарный классификатор).
  2. Только при уверенности генерирует ответ.

3. Постобработка и калибровка

  • Порог уверенности:
    Рассчитывать вероятность токенов (logits) и отклонять ответы, если максимальная вероятность ниже порога (например, < 0.7).
  if max(probs) < threshold:
      return "Не знаю"
  • Калибровка модели:
    Использовать методы вроде Temperature Scaling или Platt Scaling, чтобы вероятности отражали реальную уверенность.

4. Интеграция внешних систем

  • RAG + валидация:
    Если модель не находит информацию в прикрепленных документах (через Retrieval-Augmented Generation), возвращает «не знаю».
  • Факт-чекинг:
    Сверять ответы с внешними базами знаний (например, Wikidata) перед генерацией.

5. Правила на уровне промптов

  • Жесткие инструкции:
    В системный промпт добавить требования:
  "Если информация отсутствует или недостоверна, говори 'Не знаю'. Не выдумывай факты."
  • Few-shot learning:
    Показать модели примеры корректных отказов:
  Вопрос: "Кто изобрел время?"
  Ответ: "Не знаю, время — это абстрактное понятие, его не изобретали."

6. Оценка и обратная связь

  • Human-in-the-loop:
    Разметка ошибок, где модель должна была сказать «не знаю» (например, через RLHF).
  • Метрики:
    Отслеживать Precision@K (доля правильных ответов среди данных) и Rate of Abstention (частота отказов).

Пример реализации (псевдокод)

def generate_answer(question, threshold=0.8):
    documents = retrieve_documents(question)  # Поиск в RAG
    if not documents:
        return "Не знаю"

    probs = model.calculate_confidences(question, documents)
    if max(probs) < threshold:
        return "Не уверен в ответе"

    return model.generate(question, context=documents)

Проблемы:

  • Ложные отказы: Может пропускать корректные ответы из-за заниженного порога.
  • Контекстная зависимость: В диалоге сложно определить границы «незнания».
  • Доверие пользователей: Частые «не знаю» могут раздражать (баланс между честностью и полезностью).

Для еще более глубокого разбора советуем изучить конкретные архитектуры, например, Meta’s Atlas или Google’s SIDE, где подобное решение реализовано.

  • Поиск

  • Курсы валют сегодня

    Курсы валют

    Биржевой курс на 15 апреля 2026
    $  75.19
     88.65
  • Топ читаемых

  • Технологии ИИ для всех

    Ознакомьтесь с актуальными обзорами ИИ решений, важными новостями и рекомендациями по применению искусственного интеллекта в бизнесе. Предлагаемые к ознакомлению материалы подобраны ИИ-агентом AISEDO на основе ваших интересов, чтобы помочь вам эффективно использовать возможности ИИ для развития вашего бизнеса или в личных целях.

    '}}

    Применение искусственного интеллекта в производстве напитков: практика, методы и инструменты

    Искусственный интеллект успешно трансформирует производство напитков, повышая его эффективность и устойчивость. Внедрение ИИ позволяет оптимизировать процессы, улучшать качество продукции и снижать затраты. В этой статье мы рассмотрим, как ИИ изменяет отрасль, какие методы и инструменты применяются, а также приведем примеры успешных кейсов. Основные методы применения ИИ в производстве напитков ИИ и инструменты, применяемые в связке […]
    '}}

    Применение искусственного интеллекта в добыче металлических руд: методы и инструменты

    Искусственный интеллект (ИИ) становится ключевым технологическим прорывом для горнодобывающей промышленности, особенно в секторе добычи металлических руд. Благодаря способности анализировать большие объемы данных и оптимизировать процессы, ИИ помогает повысить эффективность производства, минимизировать затраты и улучшать экологическую устойчивость. От разведки месторождений до обогащения руды, технологии ИИ трансформируют каждый этап процесса. 2. Основные методы применения ИИ в добыче […]
    '}}

    Внедрение ИИ в производство тракторов

    Искусственный интеллект кардинально меняет подходы к производству тракторов, интегрируя автономные системы управления, технологии с применением цифровых двойников и прогнозную аналитику. Технологии машинного обучения сокращают цикл разработки новых моделей тракторов с 24 до 9 месяцев, повышая точность параметров. Внедрение ИИ-решений позволяет производителям оптимизировать производственные процессы, снижая энергопотребление на 18% и издержки на 22% за счёт автоматизации […]
    '}}

    Как правильно протестировать AI решение

    Как провести пилотный проект AI-решения: ключевые критерии успеха В компании AISEDO ы специализируемся на разработке передовых AI и IT решений, которые растут вместе с вашим бизнесом. В этой статье мы рассмотрим, как эффективно протестировать AI-решение на пилотном проекте перед его масштабным внедрением в вашу бизнес-экосистему. Это позволит вам минимизировать риски и максимизировать отдачу от инвестиций […]
    '}}

    Внедрение искусственного интеллекта в производство бумаги и бумажных изделий: практика, методы и инструменты

    Внедрение ИИ в бизнес по производству бумаги и бумажных изделий. Искусственный интеллект (ИИ) трансформирует производство бумаги и бумажных изделий, повышая его эффективность и устойчивость. Внедрение ИИ позволяет оптимизировать процессы, улучшать качество продукции и снижать затраты. В этой статье мы рассмотрим, как ИИ изменяет отрасль, какие методы и инструменты применяются, а также приведем примеры успешных кейсов. […]
    '}}

    Как развернуть LLM в своем закрытом контуре

    Развертывание открытой большой языковой модели (LLM) в закрытом контуре (on-premise или приватном облаке) требует тщательного планирования. Вот пошаговое руководство: 1. Выбор модели Популярные open-source LLM для развертывания: Для начала лучше выбрать модель поменьше (7B-13B), если у вас нет мощного железа. 2. Требования к оборудованию Минимальные требования для разных размеров моделей: МодельVRAM (GPU)RAMДискРекомендуемое железо7B10-16GB32GB50GBRTX 3090/4090, A10G13B24GB64GB100GBA100 […]

    Подпишитесь на AISEDO чтобы получать новые публикации первым!

    подписаться на публикации AISEDO!

    Задать вопрос по внедрению ИИ в бизнес вашей компании