Состязательные ИНС | MetodPro.ru

Реклама на сайте

Состязательные ИНС


Главная особенность состязательных ИНС состоит в том, что в каждый момент времени в выходном слое сети выделяют один нейрон, имеющий наибольшее значение выходного сигнала. Данный нейрон рассматривают как нейрон победитель, выигравший «состязание». Победителем считается нейрон с максимальным значением сетевой функции: NETi=SUMM(j=1..m)(Wij*Xj)

Одним из простейших правил обучения, применяемых в состязательных сетях, является правило обучения Кохонена, в соответствии с которым, в сети определяют нейрон победитель, а затем изменяют веса связей только нейрона победителя, использую выражение: W-VECTOR(t+1) = W-VECTOR+ETTA(t)*(X-VECTOR – W-VECTORi(t)), где ETTA(t) – значение коэффициента обучения в момент времени t. Веса связей всех остальных нейронов не изменяются. (***)

В выражении (***) предполагается, что W-VECTORi и X-VECTOR нормализованы. Интегральный эффект от применения правила (***) к весам связей iго нейрона связна с числом соответствующих событий, когда этот нейрон был победителем. Таким образом, состязательная ИНС, использующая выражение (***) должна реагировать на вероятность распределения входных образов, поэтому входные векторы, встречающиеся редко, окажут меньшее влияние на конечное значение вектора весов W-VECTORi. Можно записать скалярное произведение W-VECTOR-TRANSPi*X_VECTOR в виде:

W-VECTOR-TRANSPi*X_VECTOR = |W-VECTORi|*|X-VECTOR|*cos(W-VECTORi, X_VECTOR).

Так как в сети отыскивается максимум скалярного произведения, то победителем в сети будет нейрон с наименьшим значением угла между векторами W-VECTORi и X-VECTOR. Поэтому применение правила (***) сводится к повороту вектора весов W-VECTORi нейрона победителя по направлению к входному вектору X-VECTOR.

Рассмотрим двухвходовую состязательную ИНС с двумя нейронами.

(рисунок 6)

Начальное положение векторов весов W-VECTOR1 и W-VECTOR2 изображено на рисунке 6-а. Кружочками отмечено положение входных образов, которые могут быть разделены на два класса. В ходе обучения, векторы весов поворачиваются в направлении поступающих входных векторов. Если на вход сети подается вектор X-VECTOR, относящийся к первому классу, то победителем оказывается первый нейрон, и подстраиваются только веса первого нейрона. Если на вход сети подается вектор из второго класса, то подстраивается вектор весов второго нейрона. Благодаря указанному процессу, нейроны сети обнаруживают классы, к которым относятся входные векторы, настраиваясь на центр их «гравитации». Теперь вектор весов первого нейрона является обобщенным вектором, представляющим первый класс входных сигналов, а вектор весов второго нейрона – обобщенным вектором, представляющим второй класс входных сигналов. Правило обучения Кохонена требует задания начальных весов связей и коэффициента обучения. Часто веса связей инициализируются случайными значениями с равномерным законом распределения. Однако, это может приводить к тому, что некоторые из нейронов сети никогда не окажутся победителями и следовательно не будут участвовать в процессе обучения.

Другой способ задания начальных связей основан на инициализации их обучающими векторами X-VECTOR. Это гарантирует, что W-VECTORi будут ориентированы в правильном направлении. Значение коэффициента ETTA(t) лежит в диапазоне (0..1). В начале обучения ETTA(t) имеет большие значения, которые уменьшаются в ходе обучения. Часто ETTA(t) вычисляют с помощью выражения вида:

ETTA(t)=1/t, где t=1, 2, …

Правило Кохонена можно так же использовать при обучении с учителем, когда принадлежность входных образов класса известна заранее. В этом случае в правиле (***) полагают ETTA>0, если предъявленный образ принадлежит классу, на который настраивается нейрон, и ETTA<0, если образ не принадлежит классу. Такое правило обучения называют правилом векторного квантования.

Векторное квантование широко используется при сжатии данных. В этом случае множество входных векторов X-VECTOR(MU) разбивается на n классов, а затем каждый входной вектор представляется номером класса, к которому он относится. При этом для хранения или передачи данных использую только номер класса. При восстановлении данных необходимо иметь кодовую книгу, содержащую обобщенные векторы, представляющие классы. Модифицированное правило Кохонена используется так же при построении самоорганизующихся карт признаков.

Карта признаков формируется сетью, отображающей образы из входного n-мерного пространства в одно- или двумерное пространство. Кроме сокращения размерности пространства, карта признаков обеспечивает сохранение отношений топологического соседства входных образов. При этом геометрическая близость выходных классов на карте признаков. Означает близость соответствующих образов во входном пространстве признаков. Одна из возможностей построения самоорганизующихся ИНС, обеспечивающих формирование указанной карты признаков основано на применении правила (***) не только к весам победившего нейрона, но и к весам соседних нейронов. Формально, правило Кохонена для самоорганизующихся карт признаков записывается в виде:

W-VECTOR(t+1) = W-VECTORi(t)+ETTA(t)*(X-VECTOR – W-VECTORi(t))  (if I prin Ni*(t)).

                              = W-VECTORi(t) (if I ne prin Ni*(t))

Где Ni*(t) – множество нейронов, соседних по отношению к нейрону победителю i*.



Методические пособия

  • Системы автоматизированного проектирования
  • Социология молодёжи
  • Общая социология
  • Криптография
  • Проектирование трансляторов
  • Компьютерная графика
  • Моделирование систем
  • Информационная безопасность
  • Теория вычислительных процессов
  • Логические основы искусственного интелекта
  • Проектирование распределённых информационных систем