Почему стохастический градиентный спуск?

Почему стохастический градиентный спуск?
Почему стохастический градиентный спуск?
Anonim

По словам старшего специалиста по данным, одним из явных преимуществ использования стохастического градиентного спуска является то, что он выполняет вычисления быстрее, чем градиентный спуск и пакетный градиентный спуск … Кроме того, на массивные наборы данных, стохастический градиентный спуск может сходится быстрее, потому что он выполняет обновления чаще.

Для чего используется стохастический градиентный спуск?

Стохастический градиентный спуск - это алгоритм оптимизации, который часто используется в приложениях машинного обучения для поиска параметров модели, которые наилучшим образом соответствуют прогнозируемым и фактическим результатам Это неточный, но мощный метод. Стохастический градиентный спуск широко используется в приложениях машинного обучения.

Почему нам нужно использовать стохастический градиентный спуск, а не стандартный градиентный спуск для обучения сверточной нейронной сети?

Стохастический градиентный спуск обновляет параметры для каждого наблюдения, что приводит к большему количеству обновлений. Таким образом, это более быстрый подход, который помогает быстрее принимать решения. В этой анимации можно заметить более быстрые обновления в разных направлениях.

Почему мы предпочитаем градиентный спуск?

Основной причиной, по которой градиентный спуск используется для линейной регрессии, является вычислительная сложность: в вычислительном отношении дешевле (быстрее) найти решение с использованием градиентного спуска в некоторых случаях. Здесь вам нужно вычислить матрицу X′X, а затем инвертировать ее (см. примечание ниже). Это дорогой расчет.

Почему используется SGD?

Стохастический градиентный спуск (часто сокращенно SGD) - это итеративный метод оптимизации целевой функции с подходящими свойствами гладкости (например, дифференцируемой или субдифференцируемой).

Рекомендуемые: