Почему кодировщик VAE выдает логарифм дисперсии, а не стандартное отклонение?

Вопрос или проблема

Говоря о VAE (и рассматривая реализации VAE), выходы Кодировщика:

μ, log(дисперсия)

Когда мы обучаем модель (часть декодирующей модели), мы преобразуем log(дисперсия) в стандартное отклонение:

std = exp(0.5 * logvar)

(Я взял пример отсюда: https://github.com/AntixK/PyTorch-VAE/blob/master/models/vanilla_vae.py)

Если нам нужно преобразовать log(дисперсия) в стандартное отклонение, почему мы не выводим стандартное отклонение из кодировщика вместо того, чтобы производить вычисления для его преобразования в стандартное отклонение?

Логарифм дисперсии необходим для вычисления термина дивергенции KL в функции потерь.

Во время обучения VAE минимизирует функцию потерь, которая включает в себя потерю реконструкции и термин дивергенции KL. Потеря реконструкции измеряет ошибку между входными данными и их реконструкцией, в то время как термин дивергенции KL измеряет расстояние между распределением кодировщика и априорным распределением в латентном пространстве.

Смотрите также: математические детали из этой статьи.

Тем не менее, в упомянутом вами репозитории стандартное отклонение — это трюк для генерации изображений из модели.

Оно используется в функции generate, которая применяется для получения изображений из модели в experiment.py:

    def sample_images(self):
        # Получить изображение образца реконструкции            
        test_input, test_label = next(iter(self.trainer.datamodule.test_dataloader()))
        test_input = test_input.to(self.curr_device)
        test_label = test_label.to(self.curr_device)

#         test_input, test_label = batch
        recons = self.model.generate(test_input, labels = test_label)
        vutils.save_image(recons.data,
                          os.path.join(self.logger.log_dir , 
                                       "Reconstructions", 
                                       f"recons_{self.logger.name}_Epoch_{self.current_epoch}.png"),
                          normalize=True,
                          nrow=12)

.

Ответ или решение

Вопрос о том, почему кодировщик (Encoder) вариационного автокодировщика (VAE) выводит логарифм дисперсии (лог варианта), а не стандартное отклонение, является важным аспектом понимания внутренней работы VAE и его эффективной реализации в задачах машинного обучения.

Основные положения VAE

Вариационные автокодировщики нацелены на моделирование сложных распределений данных через вероятностные подходы. Они учат представлять входные данные в форме латентного пространства, где кодировщик выдает два параметра для каждой точки — среднее значение (μ) и логарифм дисперсии (log(σ^2)), который пото́м преобразуется в стандартное отклонение (σ) для генерации данных.

Зачем нужен логарифм дисперсии?

  1. Стабильность численного вычисления: Прямое вычисление стандартного отклонения может привести к численным проблемам, особенно если дисперсия близка к нулю. Использование логарифма помогает избежать операций с очень малыми числами и, таким образом, уменьшает вероятность возникновения ошибок округления и повышения стабильности вычислений.

  2. Проще оптимизировать: В некоторых задачах, когда модель обучается с помощью градиентного спуска, использование логарифмической функции позволяет производить более гладкие и устойчивые градиенты по сравнению с использованием стандартного отклонения. Это объясняется тем, что производная логарифма меняется медленнее, чем производная стандартного отклонения, что может упростить обучение.

  3. Интерпретация KL-дивергенции: В процессе обучения VAE важным аспектом является нахождение КЛ-дивергенции между индуктивным распределением, сгенерированным кодировщиком, и приоритетным, которое обычно задается нормальным распределением (среднее 0 и дисперсия 1). КЛ-дивергенция для нормальных распределений зависит от дисперсии, и выражение логарифма дисперсии позволяет упростить эту форму. Это делает вычисления более удобными и эффективными.

  4. Избежание ограничений: Используя логарифм дисперсии, мы устраняем ограничения на форму распределения. Например, стандартное отклонение не может быть отрицательным, в то время как логарифм дисперсии может принимать любые значения, что позволяет модели быть более гибкой.

Преобразование к стандартному отклонению

Для генерации данных из латентного пространства кодировщик выдает стандартное отклонение, которое, как упоминалось, вычисляется как:

std = exp(0.5 * logvar)

Эта операция эквивалентна трансформации логарифма дисперсии обратно в естественные параметры, которые необходимы для генерации новых данных через декодировщик. Нужно отметить, что такое преобразование всё же требует дополнительных вычислительных усилий, но значительно упрощает рабочий процесс на этапе тренировки модели, особенно для сложных архитектур.

Заключение

Можно сделать вывод, что вывод логарифма дисперсии кодировщиком в VAE — это не просто вопрос удобства, а стратегический выбор, обусловленный различными факторами, включая стабильность вычислений, простоту оптимизации и гибкость модели. Логарифмическая форма параллельно обеспечивает математически удобные вычисления КЛ-дивергенции и позволяет избежать ограничений, возникающих при использовании стандартного отклонения. В результате, это способствует более эффективной реализации VAE в различных областях, что в конечном итоге приводит к качественному улучшению получаемых результатов.

Оцените материал
Добавить комментарий

Капча загружается...