G - матрица перцептрона - используется для анализа перцептронов. Имеет следующий вид:
,
где
- число стимулов (величина обучаемой выборки, число примеров для запоминания);- коэффициенты обобщения.
Содержание
Смысл G - матрицы перцептрона
Коэффициент обобщения равен полному изменению веса (
) всех А-элементов, реагирующих на стимул , если на каждый А-элемент из множества, реагирующего на стимул , подается сигнал подкрепления .Отсюда понятно, что коэффициент обощения показывает относительное число А-элементов, реагирующих как на стимул
, так и на стимул .Для простых перцептронов G - матрица не изменяется со временем и является симметричной.
Связь А и G - матриц перцептрона
Связь между А и G - матрицами перцептрона выражается следующими соотношением: G = A×AT, где AT транспонированная матрица. Поэтому G матрица является положительно определенной, либо положительно полуопределенной. Так же ранг матрицы G равен рангу матрицы А.
Важными является условия при которых G - матрица особенная, т.е. матрица не имеющая обратной, для квадратной матрицы это тогда когда определитель матрицы равен нулю.
Рассмотрим несколько случаев:
- Пусть матрица G = A×AT особенная, то есть |G| = 0; Рассмотрим |G| = |A×AT| = |A|×|AT| = |A|×|A| = |A|2, получаем что |A|2 = 0 → |A| = 0 → матрица А особенная.
- Пусть матрица G = A×AT не особенная, то есть |G| = ξ ≠ 0; Рассмотрим |G| = |A×AT| = |A|×|AT| = |A|×|A| = |A|2, получаем что |A|2 = ξ≠0 → |A| ≠ 0 → матрица А не особенная.
- Пусть |А|=0; Найдем |G|, |G|=|А|*|АT|=0*0=0.
- Пусть |А|=ξ≠0; Найдем |G|,|G|=|А|*|АT|=ξ*ξ=ξ²≠0.
Таким образом получаем, что Матрица G = A×AT особенна, тогда и только тогда, когда матрица А особенна.
Матрицы и вектора классификаций в перцептроне

Решение элементарным перцептроном «задачи XOR»
Ниже матрицы и вектора, характеризующие классификацию буду изложенны на примере решения перцептроном задачи XOR. Напомним, что стимулы и их принадлежность классам при решении задачи XOR следующие:
Вход 1 (X1) | Вход 2 (X2) | Класс | |
---|---|---|---|
Стимул 0 | 0 | 0 | - |
Стимул 1 | 1 | 1 | - |
Стимул 2 | 0 | 1 | + |
Стимул 3 | 1 | 0 | + |
D матрица перцептрона
Диагональная матрица, элементы которой , где задает принадлежность стимулов к классам в некоторой классификации C(W) следующим образом:
,
т.е.
, если стимул принадлежит к положительному классу, и , если стимул принадлежит к отрицательному классу.D матрица перцептрона при решении задачи XOR имеет вид:
;
B матрица перцептрона
B матрица перцептрона отражает активность А-элементов, так же как и A - матрица перцептрона, но в отличии от нее еще показывает принадлежность стимулов к классам классификации, поэтому получается перемножением матриц А и D, т.е. . При решении задачи XOR будет иметь вид:
.
H матрица перцептрона
H матрица перцептрона очень близка по сути к матрицы G, но так же как и матрица B показывает еще принадлежность стимулов к классам классификации, и получается следующим образом
. При решении задачи XOR будет иметь вид:.
V вектор перцептрона
Z вектор перцептрона
Z вектор имеет размерность n, где n - число стимулов. Компонента вектора Z равна полной велечине подкрепления, введенного во время всех коррекций реакций на стимул методе коррекции ошибки с квантованием)
, т.е. , где - величина подкрепления (равно единице вX матрица перцептрона
См. также
Литература
- Розенблатт, Ф. Принципы нейродинамики: Перцептроны и теория механизмов мозга = Principles of Neurodynamic: Perceptrons and the Theory of Brain Mechanisms. — М.: Мир, 1965. — 480 с.
Это основополагающая версия, написанная участниками этого проекта. Но содержимое этой страницы очень близкое по содержанию предоставлено для раздела Википедии на русском языке. Так же, как и в этом проекте, текст этой статьи, размещённый в Википедии, доступен на условиях CC-BY-SA . Статью, размещенную в Википедии можно найти по адресу: G - матрица перцептрона.