Logo ru.boatexistence.com

Почему стохастический градиентный спуск?

Оглавление:

Почему стохастический градиентный спуск?
Почему стохастический градиентный спуск?

Видео: Почему стохастический градиентный спуск?

Видео: Почему стохастический градиентный спуск?
Видео: #8. Стохастический градиентный спуск SGD и алгоритм SAG | Машинное обучение 2024, Май
Anonim

По словам старшего специалиста по данным, одним из явных преимуществ использования стохастического градиентного спуска является то, что он выполняет вычисления быстрее, чем градиентный спуск и пакетный градиентный спуск … Кроме того, на массивные наборы данных, стохастический градиентный спуск может сходится быстрее, потому что он выполняет обновления чаще.

Для чего используется стохастический градиентный спуск?

Стохастический градиентный спуск - это алгоритм оптимизации, который часто используется в приложениях машинного обучения для поиска параметров модели, которые наилучшим образом соответствуют прогнозируемым и фактическим результатам Это неточный, но мощный метод. Стохастический градиентный спуск широко используется в приложениях машинного обучения.

Почему нам нужно использовать стохастический градиентный спуск, а не стандартный градиентный спуск для обучения сверточной нейронной сети?

Стохастический градиентный спуск обновляет параметры для каждого наблюдения, что приводит к большему количеству обновлений. Таким образом, это более быстрый подход, который помогает быстрее принимать решения. В этой анимации можно заметить более быстрые обновления в разных направлениях.

Почему мы предпочитаем градиентный спуск?

Основной причиной, по которой градиентный спуск используется для линейной регрессии, является вычислительная сложность: в вычислительном отношении дешевле (быстрее) найти решение с использованием градиентного спуска в некоторых случаях. Здесь вам нужно вычислить матрицу X′X, а затем инвертировать ее (см. примечание ниже). Это дорогой расчет.

Почему используется SGD?

Стохастический градиентный спуск (часто сокращенно SGD) - это итеративный метод оптимизации целевой функции с подходящими свойствами гладкости (например, дифференцируемой или субдифференцируемой).

Рекомендуемые: