Data Science
При обучении нейронной сети зачем мы не берем производную по отношению к шагу метода градиентного спуска?
00
Вопрос или проблема Это один из тех вопросов, где я знаю, что ошибаюсь, но не знаю, как. Я понимаю, что при обучении нейронной сети мы вычисляем производные функции потерь по отношению к параметрам. Я также понимаю, что эти производные указывают на мгновенную
Data Science
Вывод производной первого порядка для рядов Тейлора в авторегрессионной модели.
00
Вопрос или проблема Я написал пост в блоге, в котором я вычислил ряд Тейлора авторегрессионной функции. Это не строго ряд Тейлора, а какая-то его вариация (как я полагаю). Меня больше всего беспокоит, выглядят ли производные нормально.