Национальный цифровой ресурс Руконт - межотраслевая электронная библиотека (ЭБС) на базе технологии Контекстум (всего произведений: 634794)
Контекстум
Руконтекст антиплагиат система
Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии  / №2 2014

ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ МЕТОДОМ ЛЕВЕНБЕРГА-МАРКВАРДТА В УСЛОВИЯХ БОЛЬШОГО КОЛИЧЕСТВА ДАННЫХ (90,00 руб.)

0   0
Первый авторПархоменко
АвторыЛеденёва Т.М.
Страниц9
ID511958
АннотацияДля достижения высокой точности обучения нейронной сети часто применяют алгоритм Левенберга-Марквардта. Однако алгоритм требует сложные вычисления, занимающей много времени. В данной статье представлено подробное описание метода и предложены способы его оптимизации и распараллеливания с целью увеличения производительности
УДК004.855.5
Пархоменко, С.С. ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ МЕТОДОМ ЛЕВЕНБЕРГА-МАРКВАРДТА В УСЛОВИЯХ БОЛЬШОГО КОЛИЧЕСТВА ДАННЫХ / С.С. Пархоменко, Т.М. Леденёва // Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии .— 2014 .— №2 .— С. 97-105 .— URL: https://rucont.ru/efd/511958 (дата обращения: 25.04.2024)

Предпросмотр (выдержки из произведения)

УДК 004.855.5 ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ МЕТОДОМ ЛЕВЕНБЕРГА-МАРКВАРДТА В УСЛОВИЯХ БОЛЬШОГО КОЛИЧЕСТВА ДАННЫХ С. С. <...> Пархоменко, Т. М. Леденёва Воронежский государственный университет Поступила в редакцию 15.05.2014 г. Аннотация. <...> Однако алгоритм требует сложные вычисления, занимающей много времени. <...> В данной статье представлено подробное описание метода и предложены способы его оптимизации и распараллеливания с целью увеличения производительности. <...> Ключевые слова: нейронная сеть прямого распространения, обучение нейронных сетей, метод Левенберга-Марквардта Annotation. <...> The Levenberg-Marquardt method achieves a high accuracy in a neural network training. <...> ПОСТАНОВКА ЗАДАЧИ Нейронная сеть прямого распространения (НСПР) – нейросетевая архитектура, состоящая из следующих друг за другом слоёв нейронов; в качестве входов каждый последующий слой использует выходы предыдущего слоя (обычно называемого скрытым слоем) за исключением входного слоя, непосредственно принимающего входные сигналы [1]. <...> Основная функция скрытых слоёввыделение статистики высокого порядка. <...> Обучение нейронных сетей прямого распространения – это процесс определения значений весов сети на основе примеров, образующих обучающее множество для сети с n входами и m выходами, состоит из N вход-выходных значений – обучающих примеров. <...> Степень близости вектора-ответа сети i y y ∈  – вектор ожидаемых значений (укаy на m i i-м примере и соответствующего вектора указаний учителя i нейронной сети w∈ где W – количество  при текущем векторе весов W , весовых коэффициентов НСПР, характеризуется мгновенным функционалом качества [2]: где ний выходов сети от указаний учителя, mm трица, задающая взвешенную норму вектора i ( ).w V ∈ – положительно определённая маОбычно V – единичная матрица, что i ii= −∈ m Ч сводит функционал к евклидовой норме вектора отклонений Q w w = ( ( )− =∑ − j=1 y w y y w y y w y i ii T ( ( )ii ii ii m   ) . <...> 2 Степень соответствия сети данным из обучающего множества задаётся интегральным функционалом <...>