Объединение результатов двух отдельных матриц смешивания от различных моделей машинного обучения для общего увеличения точности истинно положительных результатов.

Вопрос или проблема

Каковы шаги, если возможно объединить результаты двух матриц путаницы, чтобы получить более точный конечный прогноз. Мы рассчитали две матрицы путаницы, как показано ниже, для наивного байеса и дерева решений, увеличив количество истинных положительных и уменьшив ложные отрицательные результаты.

скриншот 1

самая точная модель

Нет способа объединить две модели на основе их матриц путаницы. Единственное, что можно сделать на этом уровне, это выбрать лучшую модель в качестве окончательной модели.

Объединение моделей возможно на уровне отдельных прогнозов. Это называется ансамблевым обучением. Самый простой метод – присвоить метку большинства с использованием нечётного числа моделей. Например, если три модели прогнозируют 1, 0 и 1, мы выбираем 1, потому что у этого ответа больше “голосов”. Существуют также более сложные методы.

Обратите внимание, что классы в ваших данных не сбалансированы, класс 1 занимает 35% экземпляров. Лучше использовать точность/полноту/F-меру вместо точности как меру производительности.

Ответ или решение

Объединение результатов двух отдельных матриц путаницы для повышения точности истинных положительных исходов в контексте машинного обучения — задача, требующая осторожного подхода. Рассмотрим шаги, которые могут помочь в этом процессе.

Шаги для улучшения точности истинных положительных исходов

  1. Анализ матриц путаницы:
    Прежде всего, изучите отдельные матрицы путаницы, полученные от модели наивного байеса и дерева решений. Обратите внимание на значения истинных положительных (TP), ложных отрицательных (FN), истинных отрицательных (TN) и ложных положительных (FP). Это поможет вам понять, какие модели работают лучше в различных сценариях.

  2. Определение цели:
    Уточните, что именно вы хотите улучшить. Если ваша цель — увеличить количество истинных положительных результатов, сосредоточьтесь на уменьшении числа ложных отрицательных исходов.

  3. Выбор метода ансамблирования:
    Вместо простого объединения матриц путаницы логичнее рассмотреть методы ансамблирования моделей. Самые распространенные методы включают:

    • ВVoting: Применение большинства голосов для прогнозирования. Например, если одна модель предсказывает класс 1, а другая — класс 0, выбираем класс 1, если необходимо увеличить TP.
    • Стеккинг: Использование одной модели для комбинации предсказаний других моделей. Обучите мета-модель на предсказаниях двух предыдущих моделей.
    • Бэггинг/Бустинг: Надстройка одной модели на результатах других, улучшая выступление в сложных случаях.
  4. Сбалансированность данных:
    Учитывая, что в ваших данных классы несбалансированы (один класс имеет всего 35% случаев), это может повлиять на эффективность моделей. Используйте метрики, такие как прецизионность, полнота и F-мера, вместо просто точности, чтобы лучше оценить производительность моделей.

  5. Кросс-валидация:
    Применяйте кросс-валидацию для оценки производительности объединенной модели. Это позволит вам убедиться, что использование ансамбля и последующая комбинация не приводят к переобучению.

  6. Использование настраиваемых порогов:
    Рассмотрите возможность изменения порога классификации для каждой из моделей. Уменьшая порог для положительного класса, вы можете увеличить количество истинных положительных исходов, хотя это может привести к повышению числа ложных положительных результатов.

  7. Тестирование и оценка:
    После объединения моделей обязательно протестируйте финальную модель на валидационном наборе данных. Сравните полученные матрицы путаницы, чтобы проверить, улучшилась ли точность истинных положительных исходов по сравнению с индивидуальными моделями.

Заключение

Тем самым, объединение результатов двух моделей с целью повышения истинных положительных исходов требует применения методов ансамблирования и осмысленного анализа метрик производительности. Постоянная переоценка моделей и использование различных подходов к агрегированию результатов поможет достигнуть ваших целей в области предсказаний.

Оцените материал
Добавить комментарий

Капча загружается...