Принципы самоорганизации. М. Мир, 1966, 621 с.
Статья Ст. Бир. На пути к кибернетическому предприятию
В данной цитате возможна замена определения «кибернетическая система» одним из следующих определений:
Еще один критерий сложной системы, адаптирующей свое поведение с некоторыми целями:
Уточняется – сенсорные входы.
1. Пусть искусственный мозг имеет пассивную чувствительность, выраженную наличием множества σ сенсорных входов s.
2. Каждый вход может принимать
единственное значение x из множества рациональных чисел, эквивалентных множеству рациональных чисел отрезка [0,1].
Утверждение 2 определяет, что сила сенсорного ощущения, во-первых, ограничена, и, во-вторых, значение сенсорного ощущения может быть представлено ограниченным значением разрядов, что исключает из рассмотрения иррациональные числа. Любой отрезок [A,B] может быть приведен к отрезку [0,1] нормировкой (x-A)/(B-A). Однако, в рамках конкретных физических машин данная нормировка может приводить к потере эквивалентности [A,B]~[0,1] за счет ограниченной разрядности физической машины.
3. Множество σ сенсорных входов s конечно и имеет n элементов.
4. Множество σ упорядочено (это возможно в силу его конечности) таким образом, что первые r входов принадлежат самому организму, остальные n-r – внешней среде.
Сенсорная конфигурация
Сенсорный образ, он же сенсорная конфигурация, есть совокупность сенсорный входов, каждый из которых зависит от других входов как своим наличием (структурная зависимость), так и своим значением (параметрическая зависимость).
Пример. Роза – конфигурация зрительных, осязательных и обонятельных ощущений. Искусственная роза – это тот же комплекс, но без запаха.
Сенсорная конфигурация, это прежде всего подмножество множества σ. Но не только. Дело значительно сложнее. Структура может описываться различными моделями.
Пример описания:
- Булевы соотношения, описывающие возможность и невозможность, условность и безусловность нахождения сенсорных входов в структуре (составе) конфигурации: (s1∧s2)∨¬s3.
- Функциональные соотношения x(si)=f(x(sj), x(sk)). Обобщая, можно заметить, что возможно описание общего виде F(x(S)) {≤,<,=} 0, где F=(F1,…,Fk) – многомерная функция, а S=(s1,…sn).
- Заданием статистических связей между значения входов. Например, корреляционных зависимостей вида M[x(sj), x(sk)]→1.
Вопрос: каков полный список описаний? Полнота может пониматься как: а) известные описания, б) теоретически возможные описания.
На уровне отношений полный список описаний строится путем построения декартовых произведений следующего вида: {s
i},{s
i×s
j}, {s
i×s
j×s
k},…,{s
1×…×s
n}.
Аксиомы конфигурации
«… мозг моделирует мир с помощью аксиом относительно различных видов конфигураций».
Под аксиомой Бир вероятно понимает утверждение, принимаемое на веру, опираясь на которое, в дальнейшем происходит
получение, преобразование, передача, хранение и уничтожение как значений сенсорных входов, так и результатов их обработки.
Два признака нужны для аксиомы: быть принятой на веру, быть использованной в построениях.
Надо заметить, что аксиомы мозга – это не аксиомы мира науки, и это существенно.
«Такие аксиомы конфигурации задаются на языке моделирующем мир. … на языке самих объектов, а не на синтаксическом языке…»
Вероятно, Бир хочет сказать, что любой синтаксический язык беден по сравнению с возможностями описания всех видов конфигураций и не существует полного списка всех возможных описаний структур, которые можно установить в качестве конфигураций. Здесь нужно применять семантические теории языков.
Обучение устанавливает конфигурации в качестве постоянных черт познаваемого мира.
Пример.
Таблица умножения – сенсорная конфигурация.
Для взрослого мозга – это априорно аналитическое суждение.
Для неопытного мозга – апостериорно синтетическое суждение.
О различии аналитических и синтетических суждений
[См. И.Кант. Критика чистого разума].
«Во всех суждениях, в которых мыслится отношение субъекта к предикату, …это отношение может быть двояким. Или предикат В принадлежит субъекту А, как нечто содержащееся (в скрытой форме) в этом понятии А, или же В находится вне понятия А, хотя и стоит в связи с ним. В первом случае я называю суждение аналитическим, а во втором – синтетическим».
«Эмпирические суждения, как таковые, все имеют синтетический характер».
Не зачем основывать аналитические суждения на опыте, так как они и так содержаться в субъекте.
«Все математические суждения имеют синтетический характер».
Так как в суждениях соединяются разные понятия или свойства разных понятий.
«Все теоретические науки разума содержат в себе априорные синтетические суждения как принципы».
"Загрузка" мозга
Бир говорит, что если выполнить «загрузку» мозга некоторой системой конфигураций, то они будут аналитическими априорными суждения перед началом работы такого мозга. И в таком случае нет места априорным синтетическим суждением.
(Хотя, почему бы не загрузить структуру, связывающую априорные аналитические и априорные синтетические суждения. Но вот вопрос, а подобная структура будет аналитическим или синтетическим суждением… Все относительно…).
В ходе работы мозга будут возникать апостериорно синтетические суждения. Апостериорно аналитические суждения в этом случае то же необходимы, в частности, для проверки исходной конфигурации. Но ведь они вздор по Канту? Возникает повод покритиковать Канта! И еще одно, не пересматриваются ли априорные суждения во время сна.
Таким образом, при более точном изложении, конфигурации, названные аксиомами, можно было назвать априорными аналитическими и априорными синтетическими суждениями и далее развивать построение а) апостериорных синтетических и апостериорных аналитических (!) суждений.
Структурное построения языка объектов согласно аксиом конфигурации существенно по следующим причинам:
- сильно ограничивается свобода перемещения точки по дереву объектов, что приводит к высокой скорости обработки важного события,
- экономятся затраты на распознавание ситуаций, иначе бы при каждой вариации объекта пришлось бы заново учиться.
Мозг должен иметь механизм моделирования аксиом конфигураций. Отсюда следует зависимость конфигураций от времени.
Множество конфигураций
Далее Бир называет конфигурацией любое подмножество множества σ. Множество всех конфигураций обозначим U(σ)={S
1,…,S
N}.Число элементов – N=2
n.
В ходе обучения любая из этих конфигураций может удалить аксиоматическую структуру на сенсорном входе.
Концепт «аксиоматическая структура на сенсорном входе» имеет дополнительный смысл. Не являются ли аксиоматические структуры фильтром, ограничивающим поток данных внешнего мира. В предположении бесконечного разнообразия реального мира этот фильтр единственное спасение. Так как система конечна и не способна принять все разнообразие, то вне ограничений подобного разнообразие не будет устойчивых структур, обеспечивающих принятие решение. (Утверждение Эшби о необходимости разнообразия управляющего устройства больше разнообразия входов). С другой стороны, перестройка аксиоматических структур на входе не приводит ли открытию иных «миров».
Так как существует «слой сенсоров», он, например, первый, должен существовать слой, соответствующий U(σ). Бир отнес его к четвертому слою. Этот слой определяется множеством гомоморфных отображений: σ→U(σ). Номер слоя σ не указан. Отображение σ→U(σ) отождествлено далее с подмножеством S
b, которое названо сенсорной конфигурацией.
Внимание. Нужно быть внимательным, под подмножеством S
b на самом деле может скрываться отображение.
Так как четвертый слой не резиновый, то в нем содержаться лишь некоторые подмножества.
В некоторый момент времени существует некоторое множество [S] подмножеств S множества σ, которое является подмножеством множества U(σ).
[S]={S
b⊂σ,…, S
r⊂σ}⊂U(σ)
Множество всех подмножеств множества U(σ) обозначим UU(σ)={[S
1],…,[S
NN]}, где NN=2
2NN.
С учетом введенного множества можно записать, что [S]={S
b∈U(σ),…, S
r∈U(σ)}∈UU(σ).
Во взрослом мозге храниться конкретный [S]∈UU(σ). Но избыточность, выраженное двойной степенью двойки вдохновляет. За счет этой избыточности возможна тонкая подстройка в экстремальных ситуациях.
Далее идут рассуждения о том, что сенсорная информация предъявляется нескольким слоям, слои возбуждают или погашают сигналы, образуют корреляции, и все это продолжается до тех пор, пока не возникнет устойчивая точка в пространстве конфигураций. А также, слои могут формировать сенсорные сигналы, которые могут передаваться в «решающий» слой.
Заметка о затухании сигналов. Возможно, что затухание сигналов – это краеугольный механизм распознавания важных сигналов. Важный сигнал передается по кратчайшему пути и поэтому не успевает затухнуть. Второе, что обеспечивает затухание – устранение мусора и готовность к приему новых данных.
Означивание конфигураций
Так как с каждым s ассоциировано значение х, представляющий собой элемент совокупности мер <x>, количественно определяющий s во времени.
Ранее говорилось, что <x>=[0,1]. То, что это теперь совокупность мер, круто меняет дело. Но мера применимо к множеству, а у Бира говорится о элементах. Видимо, это всего лишь оборот речи.
Между сенсорами и множеством мер Бир устанавливает эквивалентность:
S
n={s, s
1, …, s
n}~{<x>,<x
1>, …, <x
n>}=X
n
В момент времени t
0 x∈<x> однозначно определено:
S
n(t
0)={s, s
1, …, s
n}~{x, x
1, …, x
n}=X
n(t
0).
Далее постулируется, что множество X
n имеет вычислимую величину, обозначаемую χ
n.
Для X
n(t
0) можно вычислить
χ
n(t
0) = f( χ, χ
1, ... , χ
n), но χ
n ≠ f( χ, χ
1, ... , χ
n) для всех t с учетом S
n.
Связана это с тем, что соответствие S
n и Х
n не более чем эквивалентность.
Далее на основе введенных же формул Бир провозглашает.
«Хn имеет вычислимую величину χn, определяемую в момент времени t0 алгебраической функцией… Но эта функция либо не может быть записана для в общем виде для всех t с учетом Sn, либо не может быть записана в специальном виде для фиксированного Sn для всех t”.
«Иначе говоря, если конфигурация сохраняет свою тождественность во времени, то она не может быть выражена общей алгебраической функцией; если же она может быть выражена в таком виде, она не может сохранить свою тождественность. Этот закон называется законом неопределенности структуры конфигураций»
Это "немножко неправильно" придумывать законы для тут же введенных формул.
Свойства величины χ
n:
- вычислима в любой момент времени,
- представляет собой численную «смесь» множества величин.
Вероятно, величина χ
n выражает собой некоторую «силу» сенсорной конфигурации, а смесь суммирует сигналы от сенсорных входов с разными весовыми коэффициентами.
Итак, однозначной (можно сказать аналитической) определенности χ
n для S
n добиться нельзя, тогда попробуем добиться статистической определенности. Для периода квантованного времени построим распределение величин χ
n.
Утверждается, что согласно предыдущим рассуждениям распределение χ
n относительно среднего будет скошенным, если нужно удалить аксиоматические структуры с сенсорных входов.
Не постулируется нахождение статистической однородности, подходящей для обработки данных. Поэтому статистическую однородность нужно искать, преобразовывая числовые данные. (Определение статистической однородности не дается). Используются разные функции преобразования, какие, не определяется.
Почему-то преобразования должны приводиться к нормальному закону...
Преобразование входов - алгоритм работы искусственного мозга
Вводится таблица преобразований.
Пусть задана эквивалентность [S] = {S
b, S
c, ..., S
r}~{ χ
b, χ
c, ..., χ
r}.
То есть, задана набор конфигураций и для каждой из них определена смесь. По сути дела, задается некоторое «небольшое» число конфигураций, которые испытываются в ходе дальнейших преобразований. Как устанавливается «первичный» набор конфигураций ответ смутный – аксиоматически. Каков механизм смены набор конфигураций – тоже неясно. Может быть, это происходит само в результате естественного набора.
Далее вводится таблица
1Т преобразований, общим числом g. Преобразования применяются последовательно
Вариантов преобразований f. Все преобразования можно представить в виде «кубической» решетки с основанием
В ходе преобразования будет выбран какой-то из вариантов преобразования, так что окончательный вариант, например, может быть представлен в виде: TX
a = { χ
b2g, χ
cfg, ..., χ
r1g}.
Так как непонятно, как выбирать вариант, то определяется способ перехода к вариантам через условные вероятности перехода. То, что переход вероятен, так же страхует машину от «сверхспециализации» на одном варианте преобразования. Далее, можно поручить машине выбирать преобразование в ходе обучения путем формирования условных вероятностей перехода. И это Бир считает важным.
Обозначим через М подмножество преобразований, всего их g, которые должны быть применены к величине х. Обозначения всего множества преобразований опустим. Тогда преобразование обозначим следующим образом:
MT
g: { χ
b, ..., χ
r} → { χ
big, ..., χ
rjg}
Далее, если рассматривать величины χ
n на временной оси, то это будет временной ряд, также содержащий информацию. Далее, вроде все это нужно, чтобы вычислить временную структуру.
Далее множество [X
n] может быть упорядочено не только относительно времени, но и относительно величин путем отображения значений на группу целых чисел, в частности, циклическую группу порядка α:.
φ([X
n]) → R(modα)
Вероятно, вместо R нужно подставлять χ
n, умноженное на некоторый масштабный коэффициент. Масштабным коэффициентом может быть наименьшее общее кратное знаменателей несократимых дробей. Поиск модуля в делении приходиться искать, начиная с двойки. Поиск организуется с помощью матрицы преобразований:
Информация после такого преобразования – СТРУКТУРНАЯ.
Зачем нужна многократность?
«…для цели выделения структуры вполне достаточно единственного гомоморфизма, а альтернативы создают контрольный механизм, обеспечивающий восприимчивость при наличии возмущений и необходимости адаптации».
Но альтернативы здесь выбираются не последовательно, а порознь. Может применяться одно или более преобразований.
Обозначим конкретное множество гомоморфизмов, применяемое к х, через Н. Это подмножество всех гомоморфных отображений h, обозначаемое как U(H).
Множество преобразований, выделяющее временную структуру ценой отказа от точного различения численных значений, можно записать как второе составное многократное преобразование:
HTR: { χ
big, ..., χ
rjg} → { R
bHi, ..., R
rHj}
Отличительной чертой этого отображения является то, что в столбце преобразования выбирается конкретная ячейка, но не одна, а несколько. В матрице статистических отображений преобразования применялись последовательно. В формуле индексы Нi, Нj представляют собой множество модулей в формуле остатков.
Резюме механизма Т-машины:
«Т-машина регистрирует множество всех доступных сенсорных входов s, которые затем смешиваются (f), статистически преобразуются и гомоморфно отображаются на множество [Ξ] выходов ξ».
Характеристики множества [Ξ].
1. Множество [Ξ] эквивалентно множеству конфигураций, а не элементарным входам s.
2. Множество конфигураций эквивалентно [Ξ], а не элементарным выходам ξ.
3. Подмножество Ξ названо выходной конфигурацией, которая расщепляется на ξ: Ξ
b={ξ
1,…,ξ
n}.
4. Множество выходных конфигураций в момент времени t
0: [Ξ
a]={Ξ
b,…., Ξ
r}.
5. Имеет место эквивалентность: [S
n]~[Ξ
n].
Таким образом, исходя из пятой характеристики всем сенсорным конфигурациям найдутся конфигурации выходов.
Пятый пункт не очевиден, требуется аккуратное доказательство.
Моторная область
Повторяются рассуждения сенсорной области, с заменой сенсоров s на моторные реакции d, множества S на D.
Т-машине соответствует V-машина.