Современные инновации, системы и технологии (Dec 2024)

Передовые методы оптимизации работы с нейросетями на современных архитектурах

  • П. М. Урвачев,
  • В. А. Ковтун

DOI
https://doi.org/10.47813/2782-2818-2024-4-4-0199-0212
Journal volume & issue
Vol. 4, no. 4

Abstract

Read online

Статья посвящена исследованию и сравнению различных методов оптимизации при обучении нейронных сетей. Рассматриваются ключевые алгоритмы, такие как стохастический градиентный спуск, метод Momentum, AdaGrad и Adam. Для каждого метода предоставляются теоретические обоснования, математические формулы и примеры реализации на практике. Проведено экспериментальное сравнение эффективности этих методов на задаче классификации рукописных цифр с использованием набора данных MNIST. Обсуждаются преимущества и недостатки каждого метода, а также их влияние на скорость обучения и точность модели. На основе полученных результатов подводится итог о наиболее эффективном алгоритме, подчеркивается важность выбора подходящего метода оптимизации для повышения эффективности нейронных сетей в различных приложениях.

Keywords