О МЕТОДЕ АВТОНОМНОГО АДАПТИВНОГО УПРАВЛЕНИЯ (ААУ)

А.А. Жданов, Москва, Институт системного программирования РАН

ON “AUTONOMOUS ADAPTIVE CONTROL” (AAC) METHODOLOGY

A. A. Zhdanov, (Moscow, ISP RAS),

Введение

Подавляющее большинство автоматически управляемых технических систем, разработанных в прошедшем ХХ веке, обязаны своим существованием теории управления, построенной на глубоком аналитическом понимании законов механики и физики. Этот “классический” подход к управлению строится на том, что положение точки (объекта управления) в пространстве признаков известно абсолютно. Далее формальные математические преобразования позволяют получить математическую зависимость входов и выходов для системы управления (УС). Однако при всей изощренности наработанного математического инструментария, областью применения “классических” методов управления остаются сравнительно простые объекты управления с очевидными свойствами. Попытки аналитически описать более тонкие свойства объектов управления (технических и, тем более, естественных) особенно в случаях, когда свойства ОУ плохо определены априори, быстро приводят к катастрофическому усложнению математических моделей. Ситуацию в целом не спасают ни эвристические приемы, ни повышение эффективности вычислительной техники. На практике объекты управления, которые плохо формализуются, свойства которых априори плохо известны или изменяются в процессе функционирования, являются типичными.

Известно [А.В. Чечкин, Математическая информатика, М., Наука, 1991], что с середины ХХ века активно развивается “некласический” подход в теории управления. Такие “неклассические” методы управления видят ОУ не как абсолютно известную точку в пространстве признаков, а лишь как некоторую информацию об этой “точке”. Управление при этом сводится к формальной работе с этой информацией. Аналитические функциональные зависимости параметров заменяются априорными, либо эмпирическими знаниями, либо результатами обучения на примерах.

Мы полагаем, что этот подход пытается воспроизвести принципы естественных систем управления - нервных систем живых организмов. Нервные системы реализуют некоторые универсальные принципы обращения с эмпирической информацией и универсальные поисковые алгоритмы. Мы видим, что один и тот же мозг живого организма успешно решает самые разнообразные задачи (так мозг птицы позволяет ей и балансировать на одной ноге, и обходить препятствия, и управлять полетом, и решать еще множество задач). Во многих приложениях хотелось бы иметь подобные универсальные системы управления. Следовательно, актуальным шагом в развитии теории систем управления является разработка единых принципов построения универсальных адаптивных систем управления на естественных основаниях.

Однако к сегодняшнему дню это “неклассическое” направление распалось на многие ветви, далеко ушедшие друг от друга. Это такие методы, как эксперные системы, нейронные сети, системы нечеткой логики, системы с подкрепляющим обучением, системы “искусственной жизни” и другие. Нам представляется, что эти ветви просто отражают разные стороны рассматриваемых естественных систем управления, либо разные фазы их эволюции. Следует ожидать, что со временем эти ветви сольются в единую картину, описывающую принципы функционирования естественных систем управления и механизмы их эволюции.

В своей исследовательской группе (отдел имитационных систем Института системного програмирования РАН) мы идем именно этим путем. Мы разрабатываем концептуальную модель нервной ситемы, которую мы называем системой “Автономного адаптивного управления” (ААУ). Для того, чтобы рассказать о системе ААС, следует дать ее описание на нескольких уровнях:

В этой презентации мы хотели бы коротко очертить только первые три пункта. Практические приложения следует рассматривать отдельно.

1. Концепия подхода и макро-описание системы “Автономного адаптивного управления (ААУ)”

Следует подчеркнуть, что мы стараемся не изобретать систему управления, а только реализовать наши представления об устройстве и принципе действия нервных систем.

Метод ААУ подробно описан в работах [1-25]. Будем называть (см. рис. 1) управляющей системой (УС) систему управления, имитирующую нервную систему в соответствии с методологией ААУ. Под объектом управления (ОУ) будем понимать организм, который несет в себе нервную систему, другими словами, ОУ - это объект, который должен управляться посредством УС, расположенной внутри ОУ и взаимодействующей со своим окружением посредством блока датчиков (БД) и исполнительных органов (ИО). В системе имеются также источники случайных для УС воздействий (белые кружки на рис. 1) и места, в которых информация и воздействия диссипируют (черные кружки на рис. 1), что привносит стохастические составляющие в работу системы.

Пусть под объектом управления (ОУ) понимается моделируемый организм, под управляющей системой (УС) – моделируемая нервная система, под системой – совокупность УС, ОУ и среды.

При построении управляющей системы мы исходим из следующих четырех условий, характерных для нервных систем.

  1. ² Условие автономности² под которым будем понимать только то обстоятельство, что УС является подсистемой ОУ, т.е. УС находится на борту ОУ и осуществляет управление на основе знаний, добываемых самостоятельно, взаимодействуя со своим окружением посредством блока датчиков (БД) и исполняющего органа (ИО). Тем самым УС Ì ОУ Ì Среда = Система, УС È БД È ИО = ОУ.
  2. ² Условие дискретности² , которое отражает дискретность структуры УС (конечное множество нейронов, связей, датчиков, исполнителей) и принципа ее функционирования (дискретность нервных импульсов, образов – как элементов информации, моментов времени). Однако при этом возможен непрерывный характер изменения некоторых параметров, таких как размеры синапсов, частотные характеристики импульсных последовательностей.
  3. ² Условие максимальной начальной приспособленности² отражает наличие приспособленности ОУ и УС к усредненным условиям жизни ОУ в данной среде в результате действия механизмов типа естественного отбора, что определяет типы датчиков и исполнителей, классы потенциально возможных в данной системе образов, оценки качества важнейших для ОУ образов, и т.п. При синтезе ОУ и УС процесс естественного отбора должен быть заменен максимальным использованием априорной информации.
  4. ² Условие минимума исходных знаний² отражает наличие информационных пространств, которые должны быть заполнены знаниями, найденными УС в процессе функционирования в реальной системе. Это условие соответствует наличию неопределенности свойств системы, максимальной для УС в момент начала ее функционирования.

Целевыми функциями УС должны быть:

а) выживание ОУ и

б) накопление знаний в УС.

Эти две целевые функции взаимосвязаны в том отношении, что достижение одной из них повышает вероятность достижения другой.

Из сказанного вынужденно следует представление о системе (рис.1), в котором можно видеть ОУ, погруженным в среду, УС погруженной в ОУ. Пусть каждый из этих макрообъектов оказывает воздействия на систему через свой выход. Каждый из макрообъектов пусть воспринимает воздействия системы через свой вход.

Кроме того, в системе важно наличие источников случайных воздействий (белые кружки на рисунке - ² истоки² ) и мест поглощения воздействий (черные кружки на рисунке - ² стоки² ). Такая схема позволяет увидеть все возможные маршруты распространения воздействий в системе (помеченные буквами стрелки на рисунке).

Очевидно, что для достижения своих целевых функций УС должна найти те из воздействий h, которые образуют цикл ² управляемого взаимодействия (УВ)² h ® d ® i ® a ® h ® … , зафиксировать информационное отображение цикла УВ в своей памяти – базе знаний (БЗ), оценить полезность тех или иных элементов знаний и использовать эти знания для выживания, одновременно прилагая усилия для получения и накопления новых знаний. Здесь a это информационный процесс в УС, h – процесс преобразования информационных команд в физические воздействия, d это различные процессы в окружающей среде, i – процесс преобразования части входных воздействий в информационные входные сигналы для УС. Наличие в системе истоков и стоков вносит в УВ многочисленные случайные компоненты и приводит к потерям информации. Накапливая знания, УС стремится к уменьшению неопределенности в своем отображении УВ. Отсюда следует структура УС (рис. 2).

Рис. 2. Представление системы “управляющая система – объект управления – среда” согласно методологии ААУ.

Коротко опишем прнцип действия такой УС.

Блок датчиков преобразует воздействия среды в бинарную форму дискретных сигналов. Датчики могут быть “тонического” типа и “фазического” типа. Так в биологии называют датчики, регистрирующие абсолютные воздействия раздражителя и его первой производной, соответствено. Датчики ведут мониторинг состояния внешней среды, внутренней среды ОУ, а также действий и состояний актуаторов. Датчики сами по себе могут быть сложными интеллектуальными приборами, например, использующими ИНС.

Блок Формирования и распознавания образов (ФРО) обнаруживает пространственно-временные закономерности в потоке входной информации, поступающей от Блока датчиков (рис. 3). При этом одновременно решается две задачи: задача автоматической классификации (формирование образов) и задача распознавания. Неслучайную пространственно-временную последовательность сигналов, которая обнаружена в потоке входной информации, мы называем “образом”, обозначаем ее некоторым идентификатором Oj и запоминаем этот идентификатор в “Памяти образов” - словаре классов. Формирование образов может быть многоуровневым, т.е. можно строить “образы” над “образами”. Задача формирования образов может решаться различными методами автоматической классификации, например, посредством ИНС. Мы решаем ее с помощью специальных нейроноподобных сетей, о чем скажем немного ниже. Вторая задача этого же блока – the pattern recognition. В потоке входной информации УС может распознавать уже сформированные образы, помеченые в “Памяти образов”. В текущий момент t образ Oj может быть распознан (пометим такое событие как Oj t=1), либо не распознан (Oj t= 0).

Рис. 3. Примеры образов, отражающих пространственно-временные явления и процессы в системе.

Далее УС должна понять, как ее выходные действия Yi влияют на прообразы известных ей (“сформированных”) образов. В силу бинарности информации, такое влияние ( в сходных условиях) может состоять в одном из трех вариантов:

Назовем “элементарным знанием” тройку неслучайных событий

({On }t-2 ; Yit-1 ; {Om }t ),

где {On }t-2 есть множество распознанных или нераспознанных образов, описывающих состояние системы в момент t-2,

Yit-1 – есть идентификатор (образ) действия, совершенного УС в момент t-1,

{Om }t - есть множество распознанных или нераспознанных образов, описывающих состояние системы в момент t.

Другими словами такая тройка описывает импликацию

“Условие в момент t1 ” --> “Действие в момент t2 ” --> “Результат в момент t3 ”. (1)

Эта импликация представлена тремя пространственно-временными событиям. Если информацию об этих событиях подавать на вход подсистемы ФРО, то подсистема ФРО может обнаружить среди множества таких троек те, которые являются неслучайным. Образ такой неслучайной тройки, если он сформирован, является элементарным знанием управляющей системы. Такое знание запоминается в подсистеме База знаний (БЗ) управляющей системы в подходящей информационной структуре. БЗ является специальным разделом “Памяти образов”.

Заполнение БЗ (обучение УС) происходит в процессе наблюдения за предысторией эволюции УС. Для обучения УС не так уж и важно, совершает ли УС действия специально ли с целью обучения (напомним о целевой функции “накопление знаний”) или с целью выживания - знания накапливаются во всех этих случаях.

Прежде, чем принимать решения, для УС следует задать, либо УС сама должна определить качественные оценки элементам знаний – образам и действиям. Такие оценки определят разное качество альтернативных вариантов эволюции системы, что и позволит УС принять решение – выбрать лучший по этому критерию вариант. Систему качественных оценок и критериев управления задает подсистема “эмоций”. Такая подсистема имеется у каждого живого организма. Все наши образы и состояния мы окрашиваем в цвета эмоций, и хотим при любых обстоятельствах только одного – добиться, чтобы качество нашего состояния в будущем было максимальным из возможного для нас. В любой ситуации мы делаем то, что считаем “лучшим”. Правда, эмоциональные оценки у нас субъективны.

Мы вводим в состав наших систем “подсистему эмоций”. За этой подсистемой закреплено много функций. В частности, эта подсистема:

1) содержит качественные оценки некоторых образов, передаваемых организму наследственным путем,
2) вырабатывает качественую оценку текущего состояния ОУ как функцию от оценок распознанных образов,
3) вырабатывает качественные оценки для вновь сформированных образов, путем поиска корреляций с текущей оценкой состояния ОУ,
4) содержит в себе аппаратно “зашитое” стремление УС к повышению качествееной оценки текущего состояния,
5) и некоторые другие функции.

Тем самым “подсистема эмоций” является одновременно: i) источником постояной внутренней активности УС и ii) “учителем” в процессе самообучеия.

Подсистема “Принятия решений ” принимает решения на основании

a) множества образов, распознанных подсистемой ФРО (это составляет “условие” в тройке (1)),
b) анализа набора возможных действий и их последствий, записанных в БЗ,
c) критерием принятия решений служит “подсистема эмоций”, заставляющая УС выбрать то действие из всех возможных, которое максимально повысит оценку й текущего состояния, т.е. способно вызвать образы с наилучшими оценкам, либо вытеснить образы с наихудшими оценками.

Таким образом, в целом управляющая система ААУ представляет собой единый распознающе-управляющий комплекс. УС в одном процессе осуществляет самообучение и управление. В рамках этого комплекса взаимосогласованно решаются следующие задачи.

Вы видите, что каждая из этих задач является сложной, и существуют целые разделы computer sciences, занимающиеся только этими отдельными задачами. Однако мы ставим своей целью создание именно таких систем, где все эти задачи решались бы вместе. Это и представляет собой новизну подхода и дает управляющие системы нового качества.

Основное свойство систем ААУ состоит в следующем. Вы помещаете такую УС в объект управления и в среду, свойства которых вам заранее плохо известны (т.е. это случай, когда вы не можете построить управление обычным детерминированным способом на основе априорной информации). В процессе работы УС сама находит способ управления данной системой и постепенно улучшает этот способ.

2. Микро-описание системы и способы ее реализации

Очевидно, что систему с описанной сложной структурой можно реализовать различными способами. Например, используя подходящие методы таксономии, распознавания, принятия решений и т.д. Однако мы стараемся придерживаться имитационного подхода и строить системы, опираясь на наше понимание устройства нервных систем. Мы пытаемся сейчас строить такие системы на основе нейроноподобных структур.

При этом нас не устраивают известные “искусственные нейронные сети” (ИНС) по ряду причин:

    1. ИНС не являются самообучаемыми, требуют супервизора,
    2. ИНС не являются системами управления, а только имитируют систему распознавания,
    3. Искусственные нейроны из современных ИНС не имеют временных задержек и не самообучаемы.
    4. ИНС не являются семантическими сетями.

Мы разработали несколько моделей своих нейронов, на которых строим все указанные подсистемы УС ААУ.

Базовая модель нейрона выглядит следующим образом (рис. 4).

С помощью блока Rw нейрон выделяет некоторый класс воспринимаемых сигналов (в простейшем случае – это вектор, состоящий из одних единиц). В блоке lw подсчитывается статистика наблюдений такого вектора и определяется, достаточно ли накопленной статистики для того, чтобы сказать, что этот вектор не случаен. Если нейрон понимает, что данный вектор неслучаен, нейрон переходит в новое состояние, при котором он теперь способен “узнавать” данный вектор – распознавать образ. В режиме распознавания блок Rw узнает образ, блок lw подтверждает, что это неслучайный образ, и триггерный блок Tw переключается, выдывая на выход нейрона сигнал Ow t+1=1, говорящий о том, что образ Ow был распознан. Этот выходной сигнал будет существовать до тех пор, пока он не будет воспринят другими нейронами или подсистемам УС. Тогда такие нейроны пошлют сигнал Sw =1 и триггер сбросится. Вот логическое выражение, описывающее работу данного нейрона:

O = S & (( b& l) V O ) and S = b& l& g.

Сеть из таких нейронов может собираться нерегулярным способом, например так, как на фрагменте сети, показанном на рис. 5.

Рис. 5. Нерегулярное соединение нейронов в нейроноподобных сетях системы ААУ.

В процессе работы системы некоторые нейроны обучаются. В каждый момент времени некоторые из обученных нейронов могут распознавать свои образы. Процесс обучения нейронов, как и процесс распознавания образов идет по слоям шаг за шагом.

Следующая модификация нейрона более точно учитывает синаптические задержки и временные характеристики сигналов (рис. 6.)

Рис. 6.

Разработан также нейрон, который способен находить корреляцию нескольких произвольных единичных входных сигналов.

На базе таких нейронов можно строить все названные выше подсистемы УС: ФРО, БЗ, принятие решений и другие. Например, в простейшем случае БЗ может иметь вид трехмерной матрицы нейронов (рис. 7), где измерения соответствуют образам “условия”, “действиям” и “результатам” в записи (1).

Рис. 7. а) способ соединения выходов нейрона ААУ для реализации правила Хебба; б) база знаний системы ААУ в виде трехмерной матрицы нейронов, слои которой соответствуют указанным образам, а каждый нейрон имеет вид, показанный на рисунке (а).

Очевидно, что при программном подходе к построению систем ААУ, нейросетевую терминологию можно использовать как метафору, позволяющую описать работу системы. Но мы стремимся также обеспечить реализуемость и аппаратного подхода в будущем.

На базе данной методологи ААУ можно строить практические адаптивные системы управления.

На рис. 8. показан пример управления некоторым динамическим объектом. Можно видеть, что с наполнением БЗ, качество управления величивается.

The Knowledge Base

Empty

 

4%

67%

Рис. 8. Пример управления в системе ААУ.

Примеры прототипов практических приложений метода ААУ, разработанных для различных Заказчиков

“Pilot” System

AdCAS System

“Tactician” System

 

"CAPTAIN"

Multipurpose

Autonomous Adaptive

Control System

 

 

Рис. 9. Примеры практических приложений метода ААУ.

3. Проблемы метода ААУ и возможности их преодоления

Основная теоретическая проблема нашего подхода состоит в отсутствии в настоящее время четкой процедуры построения УС ААУ для всякого конкретного приложения. Мы имеем своего рода конструктор из нейронов и общую схему УС. Действующие приложения пока собираются эвристически. Причина отсутствия четкой процедуры построения УС достаточно глубокая. Попытаюсь ее объяснить следующим способом. В составе УС имеется система автоматической классификации. Как известно, система автоматической классификации требует априорного задания правил порождения (формирования) классов. Вы не можете задать все мыслимые правила. Есть два выхода. Либо вы на основании априорной информации формируете гипотезы о таких правилах, и затем система их проверяет, либо вы строите некий поисковый алгоритм, который будет искать эти порождающие правила методом проб. В нервной системе таким правилам, порождающим классы образов, соответсвует топология нервной сети и параметры нейронов. А поисковым алгоритмом построения топологии сети в природе является естественный эволюционный отбор. Отсюда вывод: регулярная эффективная процедура синтеза УС ААУ для задаваемых приложений должна содержать в себе поисковый алгоритм определения топологии нейроноподобных сетей, моделирующий процесс эволюционного отбора.

Немного подробнее об этом. В нейроноподобных сетях системы ААУ одному нейрону соответствует один образ, в отличие от стандартных ИНС, где образу соответствует выходной вектор. Поэтому сети ААУ являются семантическими, а адаптивность УС ААУ связана не только с адаптивными свойствами самих нейронов, но и с избытком нейронов в ее нейросетях, поскольку в исходный момент множество нейронов соответствует множеству пробных образов. Аналогичное свойство наблюдается и у биологических нервных систем. Отмечается, что множество нейронов мозга “избыточно” в том смысле, что к концу жизни организма использоваными оказывается только небольшая часть нейронов. В природе топология нервной системы формируется в основном не самим организмом, а длительным процессом эволюционного отбора при формировании вида.

Такую “априорную” настройку топологии конкретной УС ААУ мы можем выполнить двумя способами:

Второй путь может быть автоматизирован, что делает его весьма перспективным.

На рис. 10 показан пример БЗ, приспособленной к ОУ посредством такого эволюционного поискового алгоритма как генетический алгоритм (ГА). Можно видеть, что эта БЗ содержит гораздо меньше нейронов, чем БЗ, соответствующая полному перебору.

(a)

(b)

Рис. 10. Пример использования генетических алгоритмов для оптимизации нейроноподобных сетей системы ААУ. (а) БЗ, соответствующая полному перебору, (b) БЗ, оптимизированная посредством ГА.

Очевидно, что все другие подсистемы УС также могут быть предварительно оптимизированы с помощью поисковых эволюционных алгоритмов, которые могут симулировать этап эволюционного развития “вида” данного ОУ и его УС.

Однако можно говорить и о динамической перестройке нейроноподобных сетей УС ААУ в процессе ее работы. Такие возможности нами также исследуются. В биологии это соответствует перестройке нервной сети в пренатальный (до рождения) и постнатальный (после рождения) периоды жизни организма.

Мы также пытаемся повысить адаптивные свойства самих отдельных нейронов. Поэтому мы развиваем наши модели нейронов, результаты представлены в [23].

4. Использование других технологий в рамках систем ААУ

Очевидно, что многие современные подходы в computer sciences имеют отношение к имитационной проблеме. Поэтому мы анализируем такие возможности и стараемся использовать сильные стороны таких подходов.

Использование генетических алгоритмов и других методов эволюционной оптимизации

Как было сказано выше, ГА могут использоваться для конфигурирования системы ААУ на этапе ее синтеза, а также для динамической перестройки нейросетей УС ААУ непосредствено в процессе ее функционирования.

Использование стандартных нейросетевых технологий

Сегодня теория ИНС и инструментарий для построения таких систем получили достаточно широкое развитие. Нам хотелось бы использовать эти возможности в своей работе. Поэтому мы предпринимаем усилия, имеющие целью построение системы ААУ на базе стандартных средств ИНС.

Основная проблема, стоящая на пути – это свойство “катастрофического забывания”, присущее обычным ИНС. Оно в принципе противоречит задаче обучения ИНС непосредственно в процессе управления. Известный подход к преодолению этой проблемы, связан с использованием рекурентных ИНС, содержащих кратковременную и долговременную память. На базе этого подхода мы построили ИНС вариант УС ААУ для таких примеров, как управление перевернутым маятником, управление угловым движением космического аппарата и сейчас отлаживаем систему управления для модели транспортного робота.

Использование технологии детерминированого хаоса

Известные подходы к построению систем хранения и поиска информации на основе систем детерминированного хаоса, привлекают нас возможностью работы с образами, представляющими собой протяженные стринги пространственно-временных данных. Нам удалось найти способ использования хаотических процессоров в системах ААУ, этот результат представлен в работе [24]. Там показан пример лабиринтной задачи, в которой робот запоминает длинные куски своего пути, и затем использует эти знания для принятия решений.

Возможные связи с другими технологиями

Среди претендентов на продолжение этого списка стоят:

Заключение и направления будущих работ

В заключение хочется подчеркнуть, что создание управляющих систем на имитационых основах, т.е. моделирующих принцип действия нервных систем, представляется не безнадежным делом. Здесь важно решать одновременно две задачи:

    1. Построение собственно АДАПТИВНОЙ СИСТЕМЫ УПРАВЛЕНИЯ и
    2. Построение АДАПТИВНОГО СПОСОБА ПОСТРОЕНИЯ адаптивных систем управления.

Для первой задачи надо использовать такие методы как методы автоматической классификации, самообучения и т.п. Для второй задачи следует использовать подходы эволюционной поисковой оптимизации.

Будущие работы мы связываем с развитие описанных подходов и с разработкой практических приложений.

Список публикаций по методу автономного адаптивного управления

  1. А.А. Жданов О подходе к моделированию управляемых объектов. Пpепpинт ВЦ РАH СССР, М., 1991. 45 стp. 25.
  2. A.A. Zhdanov. Application of Pattern Recognition Procedure to the Acquisition and Use of Data in Control.// Pattern Recognition and Image Analisis vol.2, N2,1992, 180-194. 15 стp. (ISSN: 1054-6618).
  3. A.A. Zhdanov. A principle of Pattern Formation and Recognition.// Pattern Recognition and Image Analisis vol.2, N3,1992, 249-264. 15 стp. (ISSN: 1054-6618).
  4. А.А.Жданов. Накопление и использование информации при управлении в условиях неопределенности. Сб.н.тp. ИФТП РАH "Инфоpмационная технология и численные методы анализа pаспpеделенных систем." М.1992, 112-133. 22 стp.
  5. А.А. Жданов, Б.Б. Беляев, В.В. Мамаев. Использование принципа автономного адаптивного управления в системе угловой стабилизации космического аппарата "Спектр РГ". Сборник "Информационная бионика и моделирование" (п.ред. акад.Лупичева Л.Н.), Изд-во ГосИФТП, 1995, с.87-114. 27 стр.
  6. А.А. Жданов. Об одном подходе к адаптивному управлению. Сборник "Анализ и оптимизация кибернетических систем" (под ред. акад. Лупичева Л.Н.), Изд-во ГосИФТП, М., 1996, С. 42-64. 22 стр.
  7. Жданов А.А. Об одном имитационном подходе к адаптивному управлению. Сборник "Вопросы кибернетики". Научный совет по комплексной проблеме "Кибернетика" РАН. М., 1996, С. 171- 206.
  8. Жданов А. А. Формальная модель нейрона и нейросети в методологии автономного адаптивного управления. Сборник "Вопросы кибернетики". Научный совет по комплексной проблеме "Кибернетика" РАН. Выпуск 3. М., 1997, С. 258-274.
  9. Жданов А.А. О понятии автономного искусственного интеллекта // Сб. научн. тр. Искусственный интеллект в технических системах. - М.: Гос.ИФТП. 1997. С. 142-157.
  10. Zhdanov A. A. About an Autonomous Adaptive Control Methodology. ISIC/CIRA/(ISAS'98), NIST, Gaithersburg, Maryland. September 14-17, 1998, pp. 227-232.
  11. Zhdanov A. A. The Mathematical Models of Neuron and Neural Network in Autonomous Adaptive Control Methodology. WCCI’98(IJCNN’98), IEEE World Congress on Computational Intelligence, Anchorage, Alaska, May 4-9, 1998, pp. 1042-1046.
  12. Жданов А. А., Норкин Н. А., Гуриев М. А. Некоторые практические приложения метода автономного адаптивного управления // Сб. научн. тр. Искусственный интеллект в технических системах. Вып. № 19.- М.: Гос.ИФТП. 1998. С. 72-99.
  13. Жданов А. А., Винокуров А. Н. Система проектирования и исследования нейронных сетей ² СПИНС² в методологии автономного адаптивного управления // Сб. научн. тр. Всероссийской научн.-техн. конференции ² Нейроинформатика-99² , ч. 1. - М.: МИФИ. 1999. C. 71-78.
  14. Рядовиков А. В., Жданов А. А., О некоторых формальных моделях нейронов. // Сб. научн. тр. Всероссийской научн.-техн. конференции ² Нейроинформатика-99² , ч. 1. - М.: МИФИ. 1999. C. 202-211.
  15. Жданов А. А., Арсеньев С.В. О некоторых приложениях принципа автономного адаптивного управления // Сб. научн. тр. Всероссийской научн.-техн. конференции ² Нейроинформатика-99² , ч. 3. - М.: МИФИ. 1999. C. 255-263.
  16. Жданов А. А., Метод автономного адаптивного управления // Известия Академии Наук. Теория и системы управления, 1999, № 5, с. 127-134
  17. Zhdanov A.A., A.N. Vinokurov, Emotions Simulation in Methodology of Autonomous Adaptive Control. 1999 -14th IEEE International Symposium
    on Intelligent Control /Intelligent Systems and Semiotics ISIC/ISAS'99. Special session Emotions and Intelligent Systems. September 15-17, 1999, Cambridge, Massachusetts, USA. Paper 99-002I-6.
  18. Жданов А.А., Арсеньев С.В., Половников В.А. Об одной методологии автономного адаптивного управления. Труды института системного программирования РАН. 1999. Том 1. М.: Биоинформсервис, 2000.- С. 66-83. (англ. том. Zhdanov A.A., S.V. Arsenjev, V.A. Polovnikov, On autonomous adaptive control methodology.// Proceedings of the Russian Academy of Sciences Institute for System Programming. N 1, 1999, pp. 55-70).
  19. Жданов А.А., К.В. Одинцов. Возможности представления измерительной информации с помощью формальных нейронов. // Сб. научн. тр. Искусственный интеллект в технических системах. Вып. № 20. – М.: Гос. ИФТП. 1999, с. 111-146.
  20. Жданов А. А. Моделирование высшей нервной деятельности // Наука и жизнь. 2000, № 1, с. 58-64, №2, с. 14-16.
  21. Жданов А.А., Б.Б. Беляев. Принципы построения системы управления угловым движением космического аппарата на основе имитации нервной системы. Сб. тезисов докладов XXV академических чтений по космонавтике, Москва, 24-26 января 2001 г. - М.: “Война и мир”, 2001, с. 126-127.
  22. Жданов А. А., Л.В. Земских, Б.Б. Беляев. Применение генетических алгоритмов для оптимизации нейросетевой базы знаний адаптивной системы стабилизации углового движения космического аппарата. Сб. тезисов докладов XXV академических чтений по космонавтике, Москва, 24-26 января 2001 г. - М.: “Война и мир”, 2001, с. 128-129.
  23. Zhdanov A.A., A.V. Ryadovikov. Neuron Models in the Autonomous Adaptive Control Method//Optical Memory and Neural Network, Vol. 9, No 2, 2000, pp. 115-132.
  24. Жданов А.А., Устюжанин А.Е., Возможности использования технологии детерминированного хаоса в системах автономного адаптивного управления. // Тр. Ин-та системного программирования: Том. 2. М.: ИСП РАН, 2001. С. 141-179.
  25. Zhdanov A.A., L.V. Zemskikh, The Evolutionary Growth of Neural Networks for the Autonomous Adaptive Control System. // The 5th World Multiconference on Systemics, Cybernetics and Informatics (SCI 2001) and the 7th International Conference on Information Systems Analysis and Synthesis (ISAS 2001), Orlando, USA, July 22-25, 2001. Pp. 404-409, 2001.