Электронная библиотека диссертаций и авторефератов России
dslib.net
Библиотека диссертаций
Навигация
Каталог диссертаций России
Англоязычные диссертации
Диссертации бесплатно
Предстоящие защиты
Рецензии на автореферат
Отчисления авторам
Мой кабинет
Заказы: забрать, оплатить
Мой личный счет
Мой профиль
Мой авторский профиль
Подписки на рассылки



расширенный поиск

Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей Мохов Василий Александрович

Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей
<
Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей
>

Диссертация - 480 руб., доставка 10 минут, круглосуточно, без выходных и праздников

Автореферат - бесплатно, доставка 10 минут, круглосуточно, без выходных и праздников

Мохов Василий Александрович. Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей : Дис. ... канд. техн. наук : 05.13.11 Ростов н/Д, 2005 179 с. РГБ ОД, 61:05-5/3897

Содержание к диссертации

Введение

Глава 1. совРеменное состояние проблемы нейросетевого моделирования 12

1.1. Особенности реализации моделей 12

1.2. Многослойные нейронные сети 17

1.3. Сети с радиальными базисными функциями активации 22

1.4. Анализ возможных перспектив реализации и применения искусственных нейронных сетей 26

Выводы по первой главе 28

Глава 2. Задачи самоорганизации ИНС 30

2.1. Анализ подходов к классификации данных ИНС 30

2.2. Обоснование принципа работы нейросетевого классификатора 39

2.3. Анализ и выбор вида аппроксимирующего полинома 45

2.4. Математический аппарат алгоритма формирования обучающей выборки 52

2.4.1. Мера отклонения М 52

2.4.2. Правила расчета коэффициентов полиномов 54

2.4.3. Оценка погрешности нейросетевых моделей 57

2.5. Алгоритм формирования обучающей выборки 60

Выводы по второй главе 68

Глава 3. Принципы создания искусственных нейронных сетей на базе предложенного алгоритма формирования обучающей выборки 70

3.1. Общие принципы формирования нейросетевой модели 70

3.2. Структура искусственной нейронной сети 72

3.3. Обучение (настройка параметров) искусственной нейронной сети 74

3.3. Разработка грамматики для формального описания ИПС 81

3.4. Анализ вариантов реализации ИНС 87

3.5. Анализ возможностей реализации ИНС на базе интегральных микросхем с программируемой логикой 93

Выводы по третьей главе 99

Глава 4. Экспериментальная проверка нейросетевых моделей 101

4.1. Абстрактная модельнейронной сети 101

4.1.1 Аппаратная реализация и интерфейс для модели нейронной сети 105

4.2. Аппроксимация характеристики электромагнита 108

4.3. Аппроксимация характеристик, применяемых в управлении инжекторным двигателем внутреннего сгорания 111

4.4. Аппроксимация характеристики кислородного давления для сеансов ГБО 118

4.4.1. Лечение кислородом под повышенным давлением 118

4.4.2. Постановка задачи 119

4.4.3. План формирования модели, обработка данных и апробация программной модели ИНС 121

Выводы по четвёртой главе 126

Заключение 128

Литература

Введение к работе

Актуальность

В последнее время в области моделирования и автоматического управления широкое применение нашли искусственные нейронные сети (ИНС). Возможность сформулировать многие задачи распознавания, идентификации и обработки сигналов в аппроксимационной постановке обострила вопросы проведения теоретических исследований и разработки программных инструментальных средств для автоматизации процессов проектирования аппроксимирующих ИНС.

Несмотря на широкий спектр возможностей ИНС, решению задач с их применением сопутствует ряд недостатков, среди которых имеют место следующие: большинство подходов для проектирования ИІІС являются эвристическими и часто не приводят к однозначным решениям; для построения модели объекта на основе ИІІС требуется выполнение многоцикловой настройки внутренних элементов и связей между ними; обучение сети в ряде случаев приводит к тупиковым ситуациям; продолжительные временные затраты на выполнение процедуры обучения зачастую не позволяют применять ИІ 1С в системах реального времени; поведение обученной ИНС не всегда может быть однозначно предсказуемо, что увеличивает риск применения ИНС для управления дорогостоящими техническими объектами; при моделировании линейных участков функций на основе суперпозиции нелинейных функций, традиционно применяемых в ИНС, возникает ряд сложностей; большинство известных коммерческих продуктов схемотехнической реализации нейронных сетей, выполняются в виде сверхбольших интегральных схем (СБИС), которые сегодня трудно назвать широкодоступными и др.

Поиск оптимального соотношения параметров нейросетевых моделей и их характеристик в каждом конкретном случае является одной из ключевых задач, для эффективного решения которой необходим широкий спектр методов, алгоритмов и программ синтеза, различающихся по объёму вычислений, качеству получаемых результатов, времени поиска решения, способам представления данных.

Эти обстоятельства позволяют отметить актуальность разработки новых алгоритмов для подбора обучающих примеров, ориентированных на минимизацию аппаратурных затрат при последующей реализации ИНС.

При этом в последнее время на мировом рынке появилось новое технологическое решение в виде программируемых логических интегральных схем (ПЛИС), потенциально подходящих для реализации ИНС (обладающих возможностью локальной организации распределенных вычислений).

Как следствие, в предлагаемой диссертационной работе основное внимание уделяется разработке, реализации и исследованию возможностей алгоритмов, которые: позволяли бы синтезировать ИНС, моделирующие с заданной точностью функциональные зависимости; использовали бы для синтеза аппроксимирующих ИНС преимущества известных нейросетей;

3) предоставили бы возможность сведения к минимуму числа трениро вочных шаблонов для выполнения аппроксимации на базе ИНС. Очевидно, что сформулированные даже в первом приближении мини мальные технологические требования предполагают решение целого ряда специфических задач, представленных в диссертационной работе.

Резюмируя вышесказанное, можно сделать вывод о том, что исследования, ставящие целью разработку алгоритмов и программных средств для синтеза аппроксимирующих искусственных нейронных сетей в рамках решения отмеченных проблем, являются актуальными и представляют научный и практический интерес.

Объект исследования

Алгоритмы и методики прямого синтеза аппроксимирующих ИПС, ос- нованные на целенаправленной подготовке обучающих выборок, а также < программные и аппаратные средства реализации аппроксимирующих ИПС.

Цель и задачи работы

Целью настоящей работы является разработка алгоритмов, инструментальных программных средств и методики для автоматического получения формального описания искусственных нейронных сетей.

Для достижения поставленной цели в работе решаются следующие задачи:

Разработка аппарата аналитического описания аппроксимирующих ИПС, где количество нейронов является минимизированным для наперед заданной величины погрешности.

Разработка методики определения параметров (методики обучения) ИИС указанного класса. ^ 3. Разработка алгоритма формирования обучающей выборки для аппроксимирующих ИНС и соответствующего математического обоснования.

Подготовка инструментальной программной системы для синтеза формального описания нейросетевых моделей указанного класса.

Осуществление анализа возможности создания и использования спецвычислителей (нейросетевых аппроксиматоров) на базе устройств с программируемой логикой.

Основные научные результаты

1. Разработана методика прямого синтеза аппроксимирующих ИПС с простой интерпретацией и получением их аналитического описа ния, отличающаяся целенаправленной подготовкой обучающей выборки для настройки сети.

2. Разработаны алгоритмы синтеза ИНС, где количество нейронов * является минимизированным для наперед заданной величины по-

7 грешности за счет оперативного анализа нелинейности моделируемых функциональных зависимостей.

3. Разработана технология интерпретации получаемого формального <« описания нейросетевых моделей для создания и использования спецвычислителей (нейросетевых аппроксиматоров) на базе устройств с программируемой логикой и возможностью распараллеливания вычислений, обеспечивающая существенное повышение скорости разработки аппаратных устройств за счет сокращения временных и трудозатрат на получение программного кода описания аппаратной реализации нейросетевых спецвычислителей.

Основные положения, выносимые на защиту

1. Методика прямого синтеза аппроксимирующих ИПС с простой интерпретацией и получением их аналитического описания.

2. Быстродействующие алгоритмы для синтеза ИНС, где количество „ нейронов является минимизированным для наперед заданной ве личины погрешности,

3. Технология интерпретации получаемого формального описания нейро сетевых моделей для создания и использования спецвычислителей (нейросетевых аппроксиматоров) на базе устройств с программируемой логикой и возможностью распараллеливания вычислений.

Практическая ценность

На основе теоретических результатов, полученных в работе, можно выделить следующие практические результаты:

1. Разработанная методика синтеза ИНС позволяет в автоматическом режиме получать формальное описание нейросетевых моделей, где количество нейронов является минимизированным для напе ред заданной величины погрешности.

2. Алгоритмы, разработанные для анализа моделируемых объектов, ' позволяют проводить оперативный контроль их нелинейностей непосредственно по ходу исследования.

3. На основании формального описания нейросетевых моделей предоставляется возможность выбора одного из проанализированных вариантов реализации в аппаратном или программном виде.

Данная работа представляет интерес для решения задач синтеза и программной/аппаратной реализации аппроксимирующих ИНС. Особый интерес представляет использование алгоритма целенаправленного формирования обучающей выборки для последующего создания нейросетевой модели. В частности, характерным примером эффективного использования практически всех полученных в диссертационной работе результатов является применение разработанной нейросетевой модели для определения оптимального давления кислорода в бароаппарате при проведении сеансов гипербарической оксигенации (ГБО) у больных с огнестрельными ранениями и ожогами.

Методы исследования

При выполнении данной работы использовался математический аппарат теории искусственных нейронных сетей, теории распознавания образов, вычислительной геометрии, линейной алгебры, теории дифференциального и интегрального исчислений, теории компиляторов, функционального и объектно-ориентированного программирования.

Апробация работы

Результаты работы докладывались и обсуждались на Международных, Всероссийских научно-технических конференциях, в том числе на:

Всероссийском научно-техническом семинаре с международным участием «Микропроцессорные системы мониторинга, диагностики и управления сложными техническими объектами, организационно-техническими системами и комплексами», Таганрог, 2003;

Международной научно-технической конференции «Интеллектуальные системы (IEEE AIS4)3)» и «Интеллектуальные САПР (CAD-2003)», Москва, 2003; XVII Международной конференции «Математические методы в технике и технологиях (ММТТ-17)», Кострома, 2004;

Международной научно-технической конференции «Интеллектуальные системы {IEEE AIS>04)» и «Интеллектуальные САПР (CAD-2004)», Москва, 2004;

Международном коллоквиуме по мехатронике в рамках мероприятия «Дни немецкой культуры на Дону», Новочеркасск, 2004; V Международной научно-практической конференции «Теория, методы и средства измерений, контроля и диагностики», Новочеркасск, 2004; V Международной научно-практической конференции «Интеллектуальные электромеханические устройства, системы и комплексы», Новочеркасск, 2004; XVIII Международной конференции «Математические методы в технике и технологиях (ММТТ-18)», Казань, 2005.

Результаты работы используются в учебном процессе в дисциплинах: «Микропроцессорные системы»; «Технологии программирования».

Достоверность полученных в диссертации результатов подтверждается разработкой действующей программной библиотеки для формирования обучающих выборок и детерминированного построения и оптимизации структуры аппроксимирующих ИНС, а также действующих образцов аппаратно-реализованных ИНС и прикладной программы для определения оптимального давления кислорода в бароаппарате при проведении сеансов ГБО.

Публикации

Результаты, полученные в работе, нашли отражение в 16 печатных работах, среди них 10 статей, 1 свидетельство Всероссийского бюро по патентам и товарным знакам - № 2005610061 «Расчёт обучающей выборки для детерминированного построения искусственной нейронной сети» («Исследователь») и 2 свидетельства Отраслевого фонда алгоритмов и программ: — № 4550 «Исследователь 1.0» Формирование обучающей выборки для детерминированного построения искусственной нейронной сети»; — № 4551 «Создатель 1.0» Детерминированное построение и оптимизация структуры искусственной нейронной сети».

Структура работы

Материал основной части диссертационной работы изложен на 179 страницах машинописного текста. Диссертация состоит из введения, четырех глав, заключения, списка литературы из 104 наименований, содержит 11 таблиц, 37 рисунков, и десять приложений на 39 листах.

Содержание работы

В первой главе работы выполнен аналитический обзор существующих алгоритмов и методов построения искусственных нейронных сетей. Рассмотрены основные направления построения ИНС, особенности различных алгоритмов их обучения, проанализированы достоинства, недостатки, а также перспективы реализации и применения ИПС.

Во второй главе рассматриваются особенности подходов к классификации данных с помощью ИНС. Выполняется анализ и выбор принципа работы нейросетевого классификатора и вида аппроксимирующего полинома для проектируемого класса аппроксимирующих ИНС. Рассматривается разработанный математический аппарат алгоритма целенаправленного формирования обучающей выборки, объединяющий принцип оперативного контро- -ля нелинейности при анализе моделируемых объектов, правила расчета коэффициентов аппроксимирующих полиномов и оценку погрешности получаемых нейросетевых моделей. В конце главы приводится детальное описание разработанного алгоритма для целенаправленного формирования обучающей выборки.

В третьей главе описываются особенности методики создания аппроксимирующей ИНС на базе предложенного алгоритма подготовки обучающей выборки. Рассматриваются общие принципы формирования нейросетевой модели. Рассматривается спроектированная структура искусственной нейронной сети. Описываются разработанные правила и последовательность этапов обучения (настройки параметров) аппроксимирующей ИНС. Приво- дится разработанная грамматика для формального описания получаемой ИНС. Выполняется анализ возможных вариантов реализации ИНС на базе её формального описания, в рамках которого особое внимание уделяется анализу возможностей реализации ИНС на базе интегральных микросхем с программируемой логикой.

Четвертая глава посвящена анализу результатов экспериментальной проверки нейросетевых моделей. Продемонстрирована принципиальная возможность реализации нейросетевой модели некоторой, достаточно сложной функции на базе ПЛИС. Показано влияние задаваемых параметров для построения модели на её количественный состав, исследованы практические результаты разработанных методик и алгоритмов синтеза ИНС. Проверка выполнена на множественных примерах из различных предметных областей.

В заключении излагаются основные результаты диссертационной работы.

Сети с радиальными базисными функциями активации

Сети с радиальными базисными функциями активации (или RBF-сети) состоят из большего числа нейронов, чем стандартные МПС, обучаемые по методу обратного распространения ошибки, но на их создание требуется гораздо меньше времени. Эти сети особенно эффективны, когда доступно большое количество обучающих примеров.

Существует достаточно много различных типов и производных OTRBF-сетей [25]. Наиболее известными среди них являются следующие ИНС.

Нейронные сети GRNN (Generalized Regression Neural Network). І Іаибо-лее известное их описание дал в своей работе П. Вассерман [26]. Эти ИНС предназначены для решения задач обобщенной регрессии, анализа временных рядов и аппроксимации функций.

Нейронные сети PNN (Probabilistic Neural Network), которые также описаны в [26] и применяются для решения вероятностных задач, и в частности задач классификации.

Финским учёным Т. Кохоненом [27] описан интересный класс самоорганизующихся ИНС, нейроны которых могут быть обучены выявлению групп (кластеров) векторов входа, обладающих некоторыми общими свойствами. Принято существенно различать сети с неупорядоченными нейронами, которые часто называют слоями Кохонена, и ИНС с упорядочением нейронов — карты Кохонена, Для карт Кохонена характерно отображение структуры данных таким образом, что близким кластерам данных на карте соответствуют близко расположенные нейроны.

Нейронные сети LVQ (Learning Vector Quantization) являются развитием самоорганизующихся сетей Кохонена и, как правило, выполняют и кластеризацию и классификацию векторов входа.

Структура и общий принцип действия перечисленных здесь ИНС (полностью, либо частично) совпадает с RBF-сегтями общего вида. Поэтому далее все основные идеи будут рассматриваться в отношении RBF-cerevi общего вида, основной отличительной характеристикой которых является то, что они поддаются очень простой, не содержащей рекурсии, настройке [28].

В своё время большое внимание было уделено доказательству универсальности нейронных сетей для решения задач аппроксимации произвольной функции с любой степенью точности. Также как и для сетей персептронного типа с сигмоидальными функциями активации [29,30], через некоторое время это было сделано и для ЛЯР-сетей [4].

В соответствии с тем, как это описано в работе Хайкина С. [28], тренировка RBF-сети, осуществляющей аппроксимацию функции, заданной в неявном виде набором шаблонов состоит в следующем (рис, 1.1). Сеть характеризуется тремя особенностями: 1) единственный скрытый слой; 2) только нейроны скрытого слоя имеют нелинейную активационную функцию; 3) синаптические веса всех нейронов скрытого слоя равны единице. Пусть V - количество входов сети, Н - количество нейронов скрытого слоя, Z - количество выходов сети.

Предположим, что размер Q набора тренировочных шаблонов Е не слишком велик и что шаблоны размещены достаточно разрежено в пространстве входных сигналов сети X = (Х]гХ2,..-,Xv),

Введём следующие обозначения; c = (cltc2,...,cy) — вектор координат центра активационной функции нейрона скрытого слоя; 8j - ширина окна активационной функцииу-го нейрона скрытого слоя; /(Х,с) = е к /іг = е $ - радиально-симметричная активаци онная функция нейрона скрытого слоя; Wy — вес связи между /-м нейроном выходного слоя иу -м нейроном скрытого слоя.

Синтез и обучение сети включает в себя несколько этапов, объединенных следующим алгоритмом.

1. Выбирается размер скрытого слоя // равный количеству тренировочных шаблонов Q. Синаптические веса нейронов скрытого слоя принимаются равными 1.

2. Центры активационных функций нейронов скрытого слоя размещаются в точках пространства входных сигналов сети, которые входят в набор тренировочных шаблонов Е: с; = X j ,j = \, 11.

3. Ширины окон активационных функций нейронов скрытого слоя $j,j = \,Н выбираются достаточно большими, но так, чтобы они не накладывались друг на друга в пространстве входных сигналов сети.

4. Определяются веса нейронов входного слоя сети wiJti = 1,Z, j = 1,//. Сети для этого предъявляется весь набор тренировочных шаблонов. Выход /-го нейрона выходного слоя дляр-го шаблона будет равен:

Анализ и выбор вида аппроксимирующего полинома

Как отмечалось в предыдущих параграфах, в качестве функций, описывающих поведение объекта в рамках отдельного полигона, чаще всего применяются различные виды полиномов. Виды полиномов, способы получения, а также их качественные характеристики могут существенно различаться.

Для получения функциональной зависимости между двумя величинами X и Y, описывающими поведение некоторого моделируемого объекта, производят п измерений Y при различных значениях X. Итоговая цель состоит в получении искомой функциональной зависимости у =J[x), которая бы описывала результаты эксперимента.

Далее рассмотрим наиболее часто употребляемые виды аппроксимирующих полиномов и соответствующие правила расчета с последующим анализом недостатков их практического использования.

1. Аппроксимирующий полином, вычисляемый по методу наименьших квадратов.

Один из наиболее общих случаев применения метода наименьших квадратов состоит в том, что имеющиеся п наблюдений (х„ уі) (/-1, 2,..., и) требуется приблизить многочленом степени k(k n) Дх) = a0+aix+a2x2+.. ,+a r Нахождение оценок для коэффициентов а,- функциональной зависимости у =Д , do, ai,..., ос ) сводится к решению системы уравнений вида [43] Z (и - Д І, «о-ai. . )) я =; Lfe- f(xi,aG,a.l,...,ak))- r = Q.

Получение аппроксимирующего полинома данным способом обладает рядом следующих недостатков [44]: а) график искомой функции не проходит через все точки (х„ у), т.е. УІ Яхд Для любого Xi (/=1,2,..., л); б) получаемая система степеней при Xj„ не ортогональна, и при больших значениях и задача плохо обусловлена; в) при оценке сложных нелинейных связей с большим количеством не известных параметров реализация метода наименьших квадратов оказывает ся неэффективной. 2. Обобщенный степенной полином.

В задачах предсказания значений функций широкое применение имеет обобщенный степенной полином, который иногда называют оператором или полиномом Колмогорова-Габора. Для предсказания функции (р в общем случае строится полином следующего вида [45]

К недостаткам обобщенного степенного полинома следует отнести следующие [35]: а) слагаемые функции аппроксимирующего полинома не очень резко отличаются друг от друга (в результате при определении коэффициентов по линома может потребоваться применение высокой точности в расчётах); б) при увеличении числа членов полинома приходится заново опреде лять все коэффициенты, а не только коэффициенты при новых членах.

3. Полином Чебышева. Полином Чебышева имеет следующий вид [46] 9 = ct0/0(x) + a1/1(jf) + ... + a„/n(x)1 где функции/(х) вычисляются по рекуррентной формуле, а аддитивные члены полинома наиболее различны между собой.

Этот полином является ортогональным и добавление в него новых слагаемых не изменяет величины коэффициентов при предыдущих членах.

Основным недостатком данного многочлена является то, что в зависимости от допустимой точности необходимо менять методику решения систем нормальных уравнений при определении коэффициентов полиномов. Если требуется высокая точность, то приходится выбирать метод Гаусса, усложненный выбором главного элемента. При снижении требований к точности и при повышении числа уравнений преимущество в смысле быстроты решения переходит к методу Монте-Карло, а затем - к методу случайного поиска [47].

4. Многочлен Лагранжа.

Основная идея этого метода состоит в том, чтобы, прежде всего, найти многочлен, который принимает значение I в одной узловой точке и 0 во всех других. Интерполяционной формулой Лагранжа называется формула, представляющая многочлен L(x) в виде [48] п Д ) = 2 ,-А( Х где р,(х) - многочлен степени п, принимающий значение, равное единице в узле xt и нулю в остальных узлах хк (к ї і) (/, = 0, 1, ..., я), и имеющий вид (х -х0 )(х - х{)...(х - xf _,)(х - xi+l).. .(х - х„) pt \Х) = . (х-х0)( ; - х0}...(х,- - х,_, )(х - х(+1)...(х, - хп ) К недостаткам практического применения многочлена Лагранжа следует отнести следующие [49]: а) существуют другие формы записи данного многочлена (например, формула Ньютона); б) значения интерполяционных многочленов, получаемые при вычис лениях по различным интерполяционным формулам при наличии округле ний, различаются; в) запись одного и того же интерполяционного многочлена в различ ных формах требует различного количества арифметических операций для вычисления его значения.

5. Сплайны.

Сплайном к-то порядка называется функция, представляющая собой многочлен к-п степени на каждом из п последовательно примыкающих друг к другу интервалов (х,_/, х() (/ = 1, 2, ..,, и), причем в точках стыка двух интервалов Xj (і = 1, 2, ..., «-1) функция удовлетворяет условиям непрерывности производных до порядка к — 1 [50]. На практике чаще всего применяют кубические сплайны, для которых на каждом локальном интервале функция приближается к полиному 3-го порядка.

В ряде случаев могут возникнуть трудности, связанные в основном со значительными временными затратами из-за большой трудоемкости алгоритма построения интерполяционных сплайнов [51].

Структура искусственной нейронной сети

Если принять за основу предлагаемый в разделе 3.1 подход к разработке структуры ИІ 1С, то, на этапе построения модели объекта нам придётся пользоваться некоторым специфическим аппаратом «выкладывания» гиперповерхности функции. В свою очередь, возможность использования такого механизма предполагает вполне определённую структуру сети, а именно: на рис. 3.2 представлена предлагаемая сеть с d входами и одним выходом. Сеть состоит из двух слоев: распознающего и калькулирующего [58], Первый слой состоит из к нейронов и выполняет функцию определения принадлежности входного вектора X к одному из п полигонов/? в области определения моделируемой функции.

В этом слое, по аналогии с работой персептрона Розснблата [20], каждый элемент вектора входа соединен со всеми входами нейронов, и это соединение задаётся матрицей весов W\ при этом каждый у -тый (/ = 1,2,,,., к) нейрон имеет собственное смещение b (прибавляемое к взвешенной сумме входов) и включает суммирующий элемент, который формирует его скалярный выход S. Совокупность из к выходов S подастся на вход функции активации слоя. Выходы нейронов формируют вектор-столбец а, описание которого имеет вид: a = f(W X + b) .

В отличие от классической модели, прямые и/или инверсные выходы отдельных нейронов объединяются группами (по числу входных аргументов плюс один) с помощью логических элементов «&» — для идентификации конкретных полигонов. Объединение выходов производится таким образом, чтобы при подаче на вход ИНС вектора аргументов X был выбран только один полигон р (активирован только один выход распознающего слоя), к которому относится данный конкретный входной вектор.

Количество входов d может не совпадать с количеством нейронов к. Для всех нейронов, как правило, используется одна и та же функция активации. Элементы входа передаются в сеть через матрицу весов W, имеющую вид; w„ wl2 ... wld w= w2l wu ... w2d wkl wi2 ... ww_

Заметим, что индексы строк матрицы Ж указывают адресатов (пункты назначения) весов нейронов, а индексы столбцов — какой источник является входом для этого веса. Таким образом, элемент матрицы весов w\2 = W{\,2) определяет коэффициент, на который умножается второй элемент входа при передаче его на первый нейрон.

Каждому из п выходов р, сопоставлен свой целевой класс [3] - строка в матрице а с коэффициентами аппроксимирующего полинома. Индексы строк матрицы а указывают на номер полигона, к которому принадлежит входной вектор X, а индексы столбцов - на порядковый номер аддитивного члена, к которому относится данный коэффициент в аппроксимирующем полиноме.

При активизации в первом слое ИНС выхода (полигона)pt (і 1,2, ,,,,я) на основании /-й строки матрицы а с информацией о соответствующем целевом классе (полиноме) и данных входного вектора сети с помощью процедуры рої производится вычисление выходного значения ИПС (описание работы процедуры рої будет рассмотрено в следующем разделе работы).

Формирование обучающей выборки для ИНС осуществляется при помощи исследующего алгоритма, работа которого основана на использовании понятия меры отклонения М в поведении линейной модели исследуемого объекта от нелинейной (см, раздел 2.4.1).

Результаты работы исследующего алгоритма (алгоритма формирования обучающей выборки), как было указано в разделе 2.5, подготавливаются в виде структуры SP = {X, /, Pg, и, KOEFF, C,XftCf}. Предполагается, что по полученным данным, возможно построение модели с заданной точностью при использовании минимально необходимого количества тренировочных шаблонов [59].

Для наглядности рассмотрим процесс обучения (настройки) ИПС на примере моделирования объекта, поведение которого может быть описано функцией двух переменных -/(хі, Хг).

Считаем, что /- необходимое и достаточное количество узловых точек Xj = (х[, Х2,..., xj)t (J = 1,2,..., I) для построения модели объекта с указанной точностью. На основании этой информации выполняется разделение множества полигонов между собой с помощью гиперплоскостей [36]. В рассматриваемом примере каждая такая гиперплоскость есть /-я прямая, описываемая уравнением вида XiWn + X2Wa + ЬІ = О, (3.1) где в общем случае для сети с d входами и п полигонами /= 1,2,.... к, где к= nx(d+l). Из коэффициентов уравнений гиперплоскостей формируются исходные матрица весов W и вектор смещений нейронов 6 (параметры классифицирующего слоя). Для функции от d аргументов один полигон будет иметь (d+ 1) грань, и, следовательно, для определения принадлежности входного вектора аргументов к пространству полигона необходимо d+l нейронов с d входами. При этом каждому нейрону при составлении модели функции от d аргументов будет соответствовать грань полигона, задаваемая уравнением:

Аппроксимация характеристики электромагнита

В окружном госпитале МВД Северо-Кавказского военного округа при отделении Гипербарической оксигенации под руководством кандидата медицинских наук Орлова Е.А. проводится ряд экспериментальных наблюдений за больными, проходящими лечение с помощью сеансов ГБО.

Сеансы ГБО проводятся с использованием одноместной гипербарической системы БЛКС - 301 М, рассчитанной на избыточное давление в барокамере до 3 атм [90].

Основными заболеваниями пациентов являются огнестрельные ранения и ожоги. Контингент больных — военнослужащие срочной службы в возрасте от 18 до 22 лет мужского пола.

Длительность сеанса ГБО для указанных больных задаётся постоянной и равной 60 минутам в соответствии с рекомендациями [87,91]. Давление кислорода, которое используется в терапевтической клинике, обычно равняется 1,3 -5- 2,0 абсолютным атмосферам [92]. Непосредственно перед и после сеанса ГБО у больных замеряются частота сердечных сокращений (ЧСС), величина систолического артериального давления (АДС), диастолического артериального давления (АДД), а также ударный объем (УО) сердца (с помощью метода ультразвукового сканирования).

В соответствии с известными рекомендациями [92,93] на проведение сеансов ГБО для пациентов накладываются ограничения, указанные в табл. 4,8.

На практике средняя величина УО для мужчин в возрасте от 18 до 25 лет составляет 50 90 мл [94], а вместо двух величин АДС и АДД применя ется усредненная величина - Артериальное Давление Среднее (АДсР), которая рассчитывается следующим образом [95] ЛДср = УЪ(АДС - АДД) + АДД.

Количество поступающих на лечение больных позволяет проводить наблюдение за больными с необходимыми показаниями по ЧСС, АДср и УО. Сеансы ГБО проводятся ежедневно в течение 10 дней для каждого больного. На основании сроков пребывания пациентов на излечении с момента начала проведения сеансов ГБО и до момента выписки больных выполняется сравнение времени лечения больных со схожими симптомами. Самый короткий срок лечения указывает на максимальную эффективность проведения лечения с применение методики ГБО, а соответственно на наиболее удачный режим лечения с точки зрения оптимального подбора давления кислорода для проведения сеансов ГБО,

Основным интересующим фактором является скорейшее получение зависимости для определения оптимального давления кислорода в бароаппара-те от значения характеристик ЧСС, АД и УО непосредственно перед сеансом ГБО для проведения сеансов лечения больных, а также максимального сокращения сроков их лечения.

Таким образом, в пределах установленных ограничений (см. табл. 4.8 и предшествующий ей абзац), необходимо исследовать и смоделировать зави симость между значением оптимального давления кислорода в барокамере, ЧСС, АДср и УО больного, позволяющую максимально эффективно сократить сроки излечения больных с огнестрельными ранениями и ожогами при использовании методики ГБО. При этом требуемая точность установления значения давления определяется точностью средств управления бароаппаратом и задаётся в пределах ±0,1 атм [96,97,98].

Естественно предположить, что задачу, поставленную в предыдущем разделе работы можно решить с помощью методики полного перебора. В таком случае сбор информации для составления модели может затянуться на длительный период (например, при отсутствии больных с конкретными показателями по ЧСС, АДС, АДД или У О). Поэтому задачу целесообразно решить с использованием рациональной организации измерений.

Оптимальные условия протекания процесса подбора значений давления кислорода в барокамере для лечения больных целесообразно определить, спланировав проведение эксперимента. Известные методы планирования экспериментов [99] по существу являются модификацией обычных численных методов поиска экстремумов [100] с учётом случайных ошибок измерений, но ни один из них не позволяет проводить контроль нелинейности в ходе эксперимента (указанные методы позволяют это делать только после его проведения). Исходя из этих соображений для построения нейросетевой модели зависимости давления кислорода в барокамере от ЧСС, АДср и У О целесообразно применение методики целенаправленного составления множества исходных данных.

Таким образом, план действий по сбору данных для формирования ИНС в данном случае будет определяться последовательностью операций исследующего алгоритма, разработанного во второй главе данной работы. Пусть работа исследующего алгоритма выполняется дискретно по шагам. На

каждом шаге исследований алгоритм будет рекомендовать конкретные значения ЧСС, АДФ и УО для поиска оптимального значения давления кислорода в барокамере, максимально сокращающего сроки лечения больных с данными значениями указанных показателей.

Похожие диссертации на Разработка алгоритмов прямого синтеза аппроксимирующих искусственных нейронных сетей