hyperparameter-tuning
Data Science
Вопрос или проблема Я создаю класс, который следует следующему рабочему процессу: Выбор модели и подгонка Класс принимает список моделей и соответствующие им сетки гиперпараметров. Затем он выполняет стандартный процесс подгонки для каждой модели, используя
Data Science
Вопрос или проблема Я реализую модель дистилляции знаний. Однако баланс и соотношение между разными компонентами потерь сильно влияют на дистилляцию знаний. Есть ли какие-то хорошие практики для нахождения оптимальных весов потерь и существуют ли соответствующие
Data Science
Вопрос или проблема В настоящее время я пытаюсь построить модель с использованием CatBoost. Для настройки параметров я использую optuna и кросс-валидацию, а также подрезаю испытания, проверяя промежуточные оценки кросс-валидации.
Data Science
Вопрос или проблема Я хочу настроить параметры классификатора MLP из sklearn, но не знаю, какие из них настраивать и сколько вариантов предложить? Например, это скорость обучения. Должен ли я указать значения [.0001, .001, .01, .1, .2, .3]?
Data Science
Вопрос или проблема Я пробую пример, над которым я тренируюсь на огромном наборе данных в 5 миллионов (только 4 признака) строк с помощью Cudf и CUml, и я использую SGD логистическую регрессию, потому что я должен предсказать, болен ли пациент или нет.
Data Science
Вопрос или проблема Существует довольно много библиотек для оптимизации гиперпараметров, которые специфичны для Keras или других библиотек глубокого обучения, таких как Hyperas или Talos. Мой вопрос: в чем основное преимущество использования этих библиотек
Data Science
Вопрос или проблема Когда вы планируете обучать модель, имеет ли смысл разделение данных на 60-20-20 для обучения, валидации и тестирования, сначала настраивая гиперпараметры на обучающем наборе данных, используя валидационный набор, и выбирая лучшую модель.