Слоение нейронных сетей с перекрёстной проверкой

Вопрос или проблема

Я пытаюсь реализовать модель стекинга для задачи машинного обучения и испытываю трудности с определением стратегии кросс-валидации. До сих пор я использовал кросс-валидацию с 10 разбиениями для всех моих моделей и хотел бы продолжить использовать это в стекинге. Вот что я придумал, но не уверен, имеет ли это смысл,

  1. На каждой итерации кросс-валидации с 10 разбиениями у вас будет 9 разбиений для обучения (обучающая выборка) и 1 разбиение для тестирования (тестовая выборка).

  2. Разделите обучающую выборку на 3 части – F1, F2 и F3.

  3. Обучите базовые классификаторы на F1, используйте F2 для ранней остановки и получите предсказания на F3 -> F3′ (F3′ – это набор предсказаний, сделанных базовыми классификаторами на F3)

  4. Обучите базовые классификаторы на F2, используйте F3 для ранней остановки и получите предсказания на F1 -> F1′

  5. Обучите базовые классификаторы на F3, используйте F1 для ранней остановки и получите предсказания на F2 -> F2′

  6. Обучите мета-классификатор на (F1′ + F2′ + F3′), обучите базовые классификаторы на любых двух разбиениях и используйте остающееся для ранней остановки.

  7. Проверьте мета-классификатор на тестовой выборке

Повторите эти шаги для каждого разбиения в кросс-валидации с 10 разбиениями.

На диаграмме ниже, которую можно найти здесь, показан общий подход к обучению модели стекинга:

Этапы:

Дано $T$ – обучающая выборка размером $mxp$

  1. Разделите $T$ на $k$ разбиений
  2. Обучите классификаторы $M_1$, $M_2$,…,$M_n$ на $k-1$ и предскажите на разбиении $k$
  3. Сохраните предсказания классификаторов $M$ на разбиении $k$ (предсказания на шаге 2)
  4. Повторите шаги 2 и 3 $k$ раз

После этих шагов у вас будет набор данных $D$ размером $mxn$

  1. Обучите модель $\Phi$ (мета-модель) на $D$ и переобучите $M$ классификаторы на $T$

Затем вы можете использовать $\Phi$ для предсказаний на невидимых данных

enter image description here

Надеюсь, это поможет!

Ответ или решение

Стеккинг нейронных сетей с кросс-валидацией: пошаговое руководство

Стеккинг моделей машинного обучения представляет собой мощный инструмент, позволяющий улучшить точность предсказаний за счет комбинирования нескольких базовых моделей. Однако реализация этой техники, особенно в сочетании с кросс-валидацией, может вызывать трудности. Давайте разберем ваш подход и предложим улучшения в соответствии с приложенной информацией.

  1. Деление данных на обучающие и тестовые фолды:
    Ваша стратегия деления выборки на 10 фолдов (9 для обучения и 1 для тестирования) является правильной. Это обеспечивает надежную оценку модели и снижает риск переобучения.

  2. Обучение базовых моделей:
    Раздел ваших данных для обучения на три части (F1, F2 и F3) является ключевым элементом, позволяющим избежать утечки данных.

  3. Получение предсказаний вне фолда:
    Используйте каждую часть (F1, F2, F3) для тренировки, применения "ранней остановки" и получения предсказаний вне выборки.

    • На F1 обучаем модели, используем F2 для ранней остановки и получаем предсказания на F3, которые обозначаются как F3′.
    • Повторяем аналогичный процесс для F2 и F3, получая F1′ и F2′.
  4. Формирование мета-модели:
    После сбора всех предсказаний вне фолда (F1′, F2′, F3′), обучаем мета-классификатор на этих данных. Это создает надежную модель второго уровня, способную обобщать предсказания нескольких базовых моделей.

  5. Валидация мета-модели:
    После завершения обучения мета-классификатора протестируйте его на тестовом фолде, чтобы убедиться в его производительности.

  6. Повторение шагов для каждого фолда:
    Дублируйте весь процесс для каждой итерации 10-фолдовой кросс-валидации, чтобы гарантировать целостность и надежность финальной модели.

Эта стратегия дает возможность оптимального объединения предсказательных возможностей нескольких алгоритмов посредством кросс-валидации, создавая тем самым более сильную и универсальную модель. Важно, чтобы между обучением базовых и мета-моделей не происходило утечки данных, что может существенно исказить результаты.

SEO-оптимизация:

Для улучшенного SEO, уместными будут ключевые фразы: "стеккинг моделей машинного обучения", "кросс-валидация нейронных сетей", "предсказания на основе стеккинга", что поможет привлечь заинтересованных пользователей, ищущих информацию по данным аспектам машинного обучения.

Подобный подход позволит вам максимально эффективно использовать потенциал стеккинга и кросс-валидации, настраивая модели для достижения высоких результатов.

Оцените материал
Добавить комментарий

Капча загружается...