cross-validation
Data Science
Вопрос или проблема Я настраиваю гиперпараметры модели XGBoost и обнаруживаю, что в зависимости от того, тренирую ли я модель локально на своем компьютере или на AWS SageMaker, я получаю довольно разные результаты. Запуск перекрестной проверки локально
Data Science
Вопрос или проблема Мне нужно сгенерировать матрицу путаницы для классификации фруктов, зараженных бактериями, грибами и вирусами, как для трехклассовой классификации. Для этого я использовал модель CNN. Для этой модели CNN я отправил изображения R, G
Data Science
Вопрос или проблема В моем проекте мне нужно сгенерировать матрицу путаницы для классификации фруктов, зараженных бактериями, грибами и вирусами, в рамках трехклассовой классификации. Для этого я использовал модель CNN. Для этой модели CNN я отправил
Data Science
Вопрос или проблема Этот вопрос относится в целом ко всем автоматизированным методам выбора признаков. В моем конкретном случае у нас есть Python-пакет под названием tsfresh и задача многоклассовой классификации. Что было сделано до сих пор?
Data Science
Вопрос или проблема Насколько я видел, мнения по этому вопросу сильно различаются. Наилучшей практикой было бы использовать кросс-валидацию (особенно если сравнивать случайные леса с другими алгоритмами на одном и том же наборе данных).
Data Science
Вопрос или проблема Сначала я разделил набор данных на обучающую и валидационную выборки, откалибровав скрытые параметры для достижения хороших результатов на валидационных данных (все остальные параметры были откалиброваны во время обучения).
Data Science
Вопрос или проблема Я имею в виду этот вопрос: Вложенная кросс-валидация и выбор лучшей модели регрессии – является ли это правильным процессом SKLearn? В ответах говорится, что вложенная кросс-валидация может оценивать ошибку обобщения оптимизации
Data Science
Вопрос или проблема Я тестирую многомерный наивный байесовский классификатор и бернуллиевский наивный байесовский классификатор на своем наборе данных и использую оценку кросс-валидации, чтобы лучше понять, какой из двух алгоритмов работает лучше.
Data Science
Вопрос или проблема У меня имеется сильно несбалансированный набор данных (± 5% положительных экземпляров), для которого я обучаю бинарные классификаторы. Я использую вложенную 5-кратную кросс-валидацию с поиском по сетке для настройки гиперпараметров.
Data Science
Вопрос или проблема Я использую RandomizedSearchCV для оптимизации гиперпараметров. Когда я запускаю модель, она показывает оценки для каждой тренировки модели. Проблема в том, что она обучает гораздо больше 10 моделей, в то время как я ожидаю, что будет