Key issues in cognitive systems' theory

Research article
DOI:
https://doi.org/10.60797/IRJ.2025.152.23
Issue: № 2 (152), 2025
Submitted :
29.11.2024
Accepted:
31.01.2025
Published:
17.02.2025
44
0
XML
PDF

Abstract

The rapid development of cognitive technologies predetermines the transition of society to a new stage of evolutionary development, corresponding to the civilization of cognitive technologies. In this civilization, humans are being replaced by machines not only in physical work and solving non-intellectual management tasks, but also in the intellectual management of machines. In this regard, the task of forming the theory of cognitive systems is actualized. The article poses and offers answers to the main, in the authors' opinion, questions determining the conceptual foundations of the theory of cognitive systems: the question about the content of the concepts of consciousness, self-consciousness and subjectivity; the question about the distinction between natural and artificial cognitive systems; the question about the levels of cognitive systems; the question about the specifics of the implementation of artificial cognitive systems. The basis of the research conducted in the paper is the well-known information concept of consciousness, supplemented and expanded by the authors. The result of the analysis is the statement of a significant convergence in terms of the mechanisms of functioning and capabilities of artificial intelligence and natural intelligence. Moreover, the expansion of the functional capabilities of artificial cognitive systems, including the solution of creative tasks, makes such convergence inevitable. The key area of practical implementation of artificial cognitive systems is systems of intelligent machine control. Such computing systems have a pronounced specificity that distinguishes them from the computing machines that have developed since the first computers appeared. The development of artificial cognitive control systems will require answers to new questions related to real-time operation, the choice of software or hardware implementation of such systems, their synergetics, as well as applied research in the field of general systems' theory, including the use of methodological tools of neural circuits proposed by the authors.

1. Введение

Развитие информационных технологий, достигнутое в последнее десятилетие, выявило возможность формирования в среднесрочной перспективе новой цивилизации – цивилизации когнитивных технологий. Эта цивилизация представляет собой очередную эволюционную форму организации общества, при которой замещение людей машинами происходит не только в хозяйственной деятельности, связанной с физическим трудом или (что наблюдалось с 1940-х годов до настоящего времени) решением неинтеллектуальных (главным образом вычислительных) задач управления, но и в интеллектуальном управлении машинами

. Для интеллектуального управления машинами необходимы искусственные когнитивные системы – многоуровневые системы, осуществляющие функции распознавания и запоминания информации, принятия решений, хранения, объяснения, понимания и производства новых знаний
.

Когнитивные системы будут играть ключевую роль в цивилизации когнитивных технологий. Это делает приоритетной задачу создания теории когнитивных систем, в рамках которой могут быть получены ответы на ряд ключевых вопросов, определяющих будущее цивилизации.

По мнению авторов, определяющими для формирования концептуальных основ теории когнитивных систем являются следующие вопросы:

Во-первых, вопрос о содержании и связи понятий сознания, самосознания и субъектности. В настоящее время имеет место неопределенность в формулировках этих понятий, их смешение и неверная интерпретация.

Во-вторых, вопрос о различии естественной и искусственной когнитивных систем, в частности, человеческого и искусственного интеллекта.

В-третьих, вопрос об уровнях когнитивных систем в зависимости от обладания рассудком, разумом и способности к творчеству

. В настоящее время данный вопрос рассматривается применительно к системам искусственного интеллекта, которые разделяют на слабый (узкий), сильный (широкий) искусственный интеллект и суперинтеллект. Такая градация представляется поверхностной, не отражающей различия внутренних механизмов когнитивных систем, обуславливающих различие способности к интеллектуальной деятельности. Вопрос о механизме реализации творчества и его реализации для искусственных когнитивных систем, как показывают исследования
, имеет смысл только в рамках представлений о детерминированном мироздании.

В-четвертых, вопрос о специфике реализации когнитивных систем, которая уже наглядно проявляется в сложных информационно-вычислительных системах

. Существенную часть когнитивных систем в основной области их применения, – в качестве систем интеллектуального управления различными машинами (техническими средствами), – составят системы, работающие в реальном времени. Для осуществимости таких систем они должны удовлетворять требованиям, существенно отличающимся от тех, которые обычно предъявляются к используемым в настоящее время вычислительным системам (от обычного смартфона или персонального компьютера до суперкомпьютера).

2. Основные результаты

2.1. Сознание, самосознание и субъектность

Расширение представлений о когнитивных системах предполагает формирование новой интерпретации ключевых понятий, связанных с мышлением, таким образом, чтобы выйти за пределы исключительно естественных (живых) когнитивных систем, и описывать когнитивные системы любой природы. К числу ключевых понятий, связанных с мышлением, через которые определяются все прочие понятия, относятся сознание, самосознание и субъектность.

Великие философы прошлого в процессе осмысления содержания этих понятий отталкивались от мыслительной деятельности человека, обладающего одновременно сознанием, самосознанием и субъектностью. В следствие этого у Гегеля, например, происходит отожествление сознания с самосознанием и субъектностью: «Как душа дух имеет форму абстрактной всеобщности; как сознание – форму обособления; как для себя сущий дух — форму единичности … душа, посредством отрицания своей телесности, поднимается уже до чистого идеального тождества с собой, становится сознанием, становится «я»»

.

И. Кант не дает прямого определения понятия «сознание». Вместо него он использует понятия рассудок, апперцепция и мышление. Возможной интерпретацией, следующей из анализа «Критики чистого разума», является квалификация сознания как субъекта, в котором находится многообразие в созерцании и происходит мышление

. При этом мышление является средством реализации апперцепции (осознания самого себя)
. В результате, в системе представлений И. Канта сознание, самосознание и субъектность не разделяются как отдельные понятия.

Для представления требуемой расширенной интерпретации понятия сознания наилучшим образом подходит информационная концепция сознания. Наиболее общим определением сознания в рамках данной концепции, по мнению авторов, «…является его представление как информационной среды, в которой реализуется расширенная модель реальности. Расширенная модель реальности коррелируется с реальным миром, но не является его отражением: наряду с искажениями реальности, обусловленными неизбежным расхождением знаний о бытии и самого бытия, модель реальности «расширена» объектами, которых нет в реальном мире. Информационная среда – система, образованная из информационных объектов, представляющих собой отражения (фиксированные или обновляемые) свойств реальных объектов. Информационные объекты сами не могут быть источником процессов в информационной среде. Для этого требуется изменение свойств реальных объектов, которые отражаются в виде информационных объектов»

.

Из предлагаемого определения сознания следует его распространенность и доступность. Для обладания сознанием не требуется способность к решению сложных интеллектуальных задач, не обязательно быть живым или даже автономным. Любая система, в которой формируется и поддерживается информационная среда, протекают процессы преобразования информации (условно можно назвать это мышлением), имеется сознание (в предлагаемой нами интерпретации). Таким сознанием обладает человек, все животные, растения (в зачаточном состоянии, соответствующем крайне низкой интенсивности процессов преобразования информации), вычислительные машины.

Более сложным в рамках информационной концепции сознания является определение самосознания. Самосознание – это осознание самого себя, отделение себя от других. В части осознания самого себя самосознание реализуется как единство информационных объектов, формирующих сознание. Это единство проявляется в виде их взаимосвязи: изменения одних информационных объектов влекут за собой изменения других. Отделение себя от других реализуется в виде локализации носителя сознания (человека, животного, вычислительной машины) в многомерном пространстве состояний исходных реальных объектов. Эта локализация обеспечивается посредством задействования обратных связей. Те исходные реальные объекты, информационные отражения которых демонстрируют связанное поведение в процессе целенаправленных изменений, относятся к «Я», прочие – к «не-Я». При такой идентификации возможны некоторые неточности, возникающие, например, у водителя, ощущающего машину частью себя (т.е. частью носителя сознания).

Наличие самосознания согласно предлагаемому определению, как и наличие сознания, не является чем-то уникальным, доступным только человеку. Самосознанием обладают все животные (это необходимое условие выживания: невозможно выжить, не обладая способностью отделять себя от других). Также самосознанием могут быть наделены вычислительные машины, даже сравнительно несложные. Например, способностью локализовать своего носителя обладает система автоматической парковки автомобиля – она способна отличать свой автомобиль от других автомобилей и пешеходов, определять и целенаправленно изменять свое положение относительно них.

Для формирования самосознания необходимо наличие сознания, однако каких-либо количественных требований к сознанию, в котором формируется самосознание, нет. Суперкомпьютер, обладающий огромной вычислительной мощностью, может не иметь самосознания, а система автоматической парковки автомобиля или автопилот самолета – имеет.

Сравнение живых и неживых систем по вычислительной мощности затруднительно ввиду существенно различающихся механизмов мышления. Допустимым (хотя и не вполне точным) является сравнение искусственных и естественных нейронных сетей по числу нейронов. У мыши в мозге 71 млн. нейронов, у крысы – 200 млн., у макаки – 6,4 млрд., у человека – 86 млрд. нейронов

. В наиболее сложных современных искусственных нейронных сетях – около 10 млрд. нейронов. Если бы для обретения самосознания требовалось лишь большое число нейронов, то достигнутого уровня в 10 млрд. нейронов было бы вполне достаточно.

Наличие сознания и самосознания не означает наличия субъектности. При этом, однако, для формирования субъектности наличие сознания и самосознания являются необходимыми условиями, точнее для возникновения самосознания необходимо сознание, а наличие самосознание является условием формирования субъектности. Субъектность, по мнению авторов, следует понимать как способность быть субъектом активности, в том числе в отношении объектов познания. Такое понимание субъектности приближает ее к самости – способности субъекта выйти из-под власти внешних причин и создать воспроизводящийся порядок жизни, детерминируемый изнутри

.

В предыдущей работе

авторами было предложено следующее описание связи сознания, самосознания и субъектности: «при определенных условиях (при локализации сознания в пространстве состояний носителя сознания) сознание приобретает свойство самосознания, частным случаем которого (в случае, когда инициатором изменений, детерминирующих локализацию, является носитель сознания) является самосознание, наделенное субъектностью».

Почему субъект становится инициатором активности (изменений, детерминирующих локализацию)? Потому что у него есть желания. Желания, в свою очередь, обуславливаются потребностями, причем не потребностями, констатируемыми извне («автомобилю нужен бензин», «компьютеру нужно электричество» и т.д.), а осознаваемыми потребностями, порождающими желания и побуждающими к активности.

Наличие субъектности является необходимым для животных. Все животные являются инициаторами собственной активности, движимой желаниями и направленной на удовлетворение потребностей. Поэтому и муравей, и комар, и мышь, и человек – все обладают субъектностью. Искусственно созданные когнитивные системы субъектностью не обладают: их формирование и последующее существование инициируются не ими, а их создателем – человеком. Это, однако, не означает, что искусственные когнитивные системы невозможно наделить субъектностью. Другой вопрос: следует ли это делать? Есть ли в этом необходимость и какие риски это может создать?

.

Может возникнуть обоснованный вопрос относительно целесообразности предлагаемой корректировки интерпретаций понятий сознания, самосознания и субъектности, значительно их расширяющей и предполагающей повсеместную их распространенность для различных естественных и искусственных систем. Попытаемся ответить на этот вопрос.

Формирование и определение понятий для реализации познавательной деятельности обычно ограничено некоторой «средней» степенью обобщения. Понятия, относящиеся к одному или крайне ограниченной группе явлений или объектов, малопродуктивны для познания. Столь же малопродуктивны понятия, относящиеся ко всем или очень большому разнообразию явлений или объектов. Понятия сознания, самосознания и субъектности в своей используемой до последнего времени интерпретации, следующей из их отожествления исключительно с человеческим мышлением, оказываются слишком узкими, что обуславливает их низкую продуктивность для познания, в том числе познания процессов преобразования информации в когнитивных системах любой природы. Предлагаемая интерпретация данных понятий (в рамках информационной концепции сознания) существенно их расширяет, не делая их при этом применимыми ко всем системам. Получаемая степень общности, по мнению авторов, соответствует продуктивному познанию когнитивных систем поскольку оставляет пространство для конъюнктивного многопараметрического анализа таких систем, предполагающего рассмотрение составного профиля каждой единицы анализа. Если используемые для познания понятия достаточно общие, то область познания, доступная описанию посредством этих понятий, представляющая собой их конъюнкцию, оказывается не нулевой и не слишком малой.

2.2. Естественные и искусственные когнитивные системы

Для определения путей развития искусственных когнитивных систем необходимо выявить их отличия от естественных, определить значимость этих отличий, а также перспективы (возможности или опасности) их преодоления.

Говоря о естественных когнитивных системах, мы имеем в виду разум (или рассудок) человека и животных, а говоря об искусственных когнитивных системах – искусственный интеллект, реализуемый техническими средствами (в виде обычной вычислительной машины или искусственной нейронной сети), поэтому одним из возможных ракурсов рассмотрения вопроса о различии естественных и искусственных когнитивных систем является сравнение исходя из того, является система живой (человек и животные) или неживой (вычислительные машины и искусственные нейронные сети).

Необходимым, но недостаточным отличием живых систем от неживых являются реализуемые механизмы обеспечения устойчивости: для неживых систем это в основном механизмы устойчивого равновесия, а для живых – механизмы устойчивого неравновесия

. Приход живой системы в равновесное состояние означает остановку в ней процессов, т.е. смерть. При этом необходимо оговориться, что механизмы устойчивого неравновесия присущи не только действительно живым системам (биологическим, социальным, экономическим, психическим и т.д.), но и некоторым химическим системам и другим открытым динамическим системам. Механизмы устойчивого неравновесия универсальны и могут использоваться в системах любой природы. Для биологических, социальных и др. действительно живых систем механизмы устойчивого неравновесия являются основными.

Различие систем с устойчивым равновесием от систем с устойчивым неравновесием заключается в том, что является содержанием системы: элементы и структуры (случай устойчивого равновесия) или процессы (случай устойчивого неравновесия). В последнем случае, условием поддержания процесса является перманентное наличие в системе неравновесия (разности параметров), активирующей этот процесс.

Проведенные исследования

показали перспективность использования для искусственных когнитивных систем механизмов неравновесной устойчивости. Это обусловлено спецификой когнитивных систем, для которых основой является процесс мышления, неравновесный по своей природе. Определяющим свойством действительно живых систем и всех прочих динамических открытых систем с неравновесной устойчивостью является формирование в результате эволюции: химической
, биологической, социальной, экономической или интеллектуальной (духовной). Формирование и развитие автономной искусственной когнитивной системы имеет многие черты эволюционного развития. В результате искусственная когнитивная система в некоторой степени является «живой».

Как можно видеть, разделение живого и неживого по реализуемым механизмам устойчивости не является однозначным. На основе одного только данного критерия разделить живое и неживое невозможно. Фильтр эволюционного характера формирования системы также не является достаточном для отделения естественных систем от искусственных. Более того, по мере развития искусственных когнитивных систем, характер их формирования будут становиться все более эволюционным (т.е. внешнее влияние человека-создателя будет сокращаться), а формируемые системы будут приобретать черты автономности и многоуровневой устойчивости, присущей естественно эволюционирующим живым системам.

Итак, принципиальных структурных или организационных различий между искусственными и естественными системами (в том числе когнитивными) нет. Подобно тому, как невозможно провести четкую границу между физическими и химическими системами, химическими и биологическим, биологическими и социальными и т.д., также невозможно однозначно выявить границу между живым и неживым, эволюционным и искусственно созданным.

Это, однако не значит, что мы не можем формально отделить живые системы от неживых: живые системы – системы, сформировавшиеся в процессе биологической эволюции, или надсистемы, образованные из таких систем. Однако, такое формальное разделение ничего не объясняет и никак не расширяет наши знания.

2.3. Характеристика мышления

Для построения градации когнитивных систем по уровню мыслительных способностей необходимо однозначно определить ключевые понятия, используемые для характеристики мышления.

Мышление в рамках информационной концепции сознания определяется как процесс реализации (построения и функционального использования) расширенной информационной модели реальности, имеющий одной из основных своих задач познание реального мира. Процессы в информационной среде, соответствующие мышлению, являются отражением реальных процессов, происходящих в носителе сознания (например, человеческом мозге или человеке в целом).

Мыслительные процессы происходят в сознании, которое условно можно разделить на несколько основных областей: разум, созерцание и накопленные знания.

Созерцание – область, включающая в себя рождающиеся и исчезающие информационные объекты в информационной среде, соответствующие изменениям реальности, транслируемым через носителя сознания, отражающимся, но не фиксируемым в информационной среде.

Накопленные знания существуют в информационной среде как постоянные или обновляемые информационные объекты, в совокупности формирующие «постоянную память».

Разум – область сознания, определяющая способность к мышлению, в том числе творческому. Частью разума является рассудок – часть сознания, определяющая способность к систематизации и использованию существующего знания. Иногда из всей области, соответствующей разуму, выделяют ум, включающий в себе из общего объема информационных объектов только формализованные, служащие для решения интеллектуальных задач, в том числе творческих. Ум характеризуется уровнем интеллекта и его способностью к решению творческих задач. Интеллект, в свою очередь, может быть креативным (способным к решению творческих задач) или тривиальным (неспособным к решению творческих задач, ограниченный возможностями рассудка).

Следует заметить, что предложенные нами определения в значительной степени являются внешними, оценочными и не детерминируют содержания различий рассудочного от разумного или креативного от тривиального.

Если исходить из предположения об иррациональной природе творчества и, соответственно, невозможности детерминировать механизмы интуиции, прозрения и т.д., то желаемая детерминация содержания различий рассудочного от разумного (креативного от тривиального) невозможна. Мы констатируем, что эти различия существуют. При этом никого пути их преодоления нет и не может быть.

Иначе выглядит ситуация если исходить из рациональности механизмов творчества. По мнению авторов, творчество – процесс, качественно не отличающийся от любой другой мыслительной деятельности, в том числе рассудочной. При этом инструментарий творческого мышления отличается определенной спецификой, которая требует использования специальных методов. Эти методы соответствуют логике общей теории систем, построенной вокруг принципа изоморфизма и целостности представления мироздания.

Применительно к творчеству в научной деятельности Л. Фон Берталанфи писал: «…сходные и даже тождественные по своей структуре рассуждения применяются к явлениям самых различных видов и уровней – от сетей химических реакций в клетке до популяций животных, от электротехники до социальных наук… во многих случаях имеется формальное соответствие, или изоморфизм, общих принципов и даже специальных законов. Одно и то же математическое описание может применяться к самым различным явлениям... общая теория систем, помимо всего прочего, облегчает также научные открытия: ряд принципов может быть перенесен из одной области в другую без необходимости дублирования работы, как это часто происходило в науке прошлого»

.

В процессе творчества человек задействует заложенный от природы механизм мультисистемной интеграции

– способность выявлять в различных системах, в которые он интегрирован (в биологической, социальной, экономической, интеллектуальной и др.), изоморфизм – явление подобия форм и законов. Благодаря целостности мира, проявляющейся через подобие форм и законов мироздания, открывается возможность решения задач, не имеющих готового ответа в рамках какой-либо отдельной системы (предметной области), за счет использования имеющихся решений из других систем (предметных областей).

Творчество предполагает рождение нового материального или интеллектуального объекта. То, каким будет этот объект, определяется знанием, заимствованным из реального мира. Рождаемый объект создается подобным тому, что уже есть в мире (по форме, законам, структуре), при этом степень и характер подобия могут быть различными: от идентичности до общности логики построения. Ничего качественно нового, не соответствующего существующим паттернам форм и законов, в совокупности определяющих изоморфизм мироздания, не может появиться. Если же в каком-либо отдельном случае это наблюдается, значит обнаружен новый паттерн, для которого в дальнейшем будут найдены другие примеры реализации.

2.4. Специфика реализации искусственных когнитивных систем 

Основной областью практического применения искусственных когнитивных систем является интеллектуальное управление машинами для производства материальных благ. Такие искусственные когнитивные системы представляют собой системы управления, относящиеся к управлению движением (например, интеллектуальное управление рабочим органом станка, робота-манипулятора, управление движущимся техническим средством и т.д.), управлению преобразованием энергии (например, управление тепловыми, атомными, гидроэлектростанциями и т.д.) или управлению обработкой информации (управление серверами, базами данных, облачными хранилищами и т.д.).

Проблематика создания искусственных когнитивных систем управления складывается из нескольких основных составляющих.

Во-первых, такие системы, подобно живым, осуществляют управление в реальном времени. Воздействие со стороны системы управления на объект управления осуществляется дискретно, через малые временные интервалы, длительность которых зависит от интенсивности изменений объекта управления и требуемой точности управления. Временной интервал (обычно имеющий постоянную продолжительность) определяет цикл управления, за который должен быть выполнен необходимый комплекс операций управления. Для того, чтобы «успеть» выполнить все операции, их по возможности следует выполнять параллельно, что реализуется только при условии их высокой автономности и адаптивном характере согласования последовательности выполнения операций и их распределении по потокам исполнения исходя из имеющихся у системы вычислительных ресурсов.

Математическое и программное представление таких распределенных систем, состоящих из квазиавтономных элементов, успешно реализуется на основе акторной модели

. В рамках этой модели функциональные элементы (акторы) действуют самостоятельно, но могут обмениваться информационными сообщениями для согласования активности и выполнения совместных (комплексных или последовательных) операций. Акторная модель реализуется во многих существующих языках программирования. В частности, существуют языки, изначально ориентированные на использование модели акторов (ABCL, ActorScript, AmbientTalk и др.), в некоторых функциональных языках акторы используются наряду с другими моделями
(Erlang, Scala, Elixir и др.), во многих объектно-ориентированных императивных языках общего назначения (С++, C#, Java, Python, Ruby и др.) акторная модель может быть задействована за счет использования специальных библиотек. Также акторная модель может быть реализована на основе метапрограммирования. В этом случае в качестве актора выступает не заданный в языке примитив (как в акторно-ориентированных языка) или класс (при объектно-ориентированном программировании), а экземпляр программы, эмулируемый основной программой (на любом языке общего назначения) при старте или в процессе работы
.

Во-вторых, значимым фактором, влияющим на функциональность искусственных когнитивных систем управления, является выбор программной или аппаратной их реализации

. Альтернативной интерпретацией данного фактора в случае построения когнитивной системы на основе акторной модели является выбор физической (инструментальной) или виртуальной (симуляционной) реализации акторов
.

До недавнего времени, выбор программной реализации предполагался по умолчанию. Интеллектуальные системы управления строятся на базе искусственных нейронных сетей, которые квалифицируются обычно не как физические объекты (технические устройства, аппаратные средства), а как математическая модель, рассматриваемая независимо от ее физической реализации. Такая нейронная сеть может формироваться как виртуальный объект, генерируемый в процессе работы компьютера (как обычного, так и использующего нейроморфные или квантовые процессоры).

Главным недостатком программной реализации является сложность обеспечения работы в реальном времени. При использовании обычного компьютера создание сколько-нибудь сложной интеллектуальной системы реального времени невозможно, при использовании нейроморфных процессоров возможности создания таких систем расширяются, однако значительные функциональные ограничения остаются. Что касается использования квантовых компьютеров, то их практическое освоение – задача, неактуальная в краткосрочной, а, возможно, и в среднесрочной перспективе.

Аппаратная реализация искусственных когнитивных систем управления имеет несколько основных вариантов: на базе сигнального, нейросигнального, систолического процессора, процессора с каскадной архитектурой, на базе аналоговых СБИС (сверхбольших интегральных схем) и на базе программируемых пользователем вентильных матриц (ПЛИС)

. Аппаратная реализация искусственных когнитивных систем позволяет повысить быстродействие управления и достоверность получаемых результатов, однако также демонстрирует существенные проблемы, особенно в случае сложных многокомпонентных и многосвязных систем. При этом есть основания полагать, что основная часть проблем аппаратной реализации преодолима. В частности, большие перспективы имеет построение искусственных нейронных сетей на основе мемристоров
,
.

В-третьих, значимым фактором, влияющим на функциональность искусственных когнитивных систем управления, является характер обеспечения их устойчивости. Как мы уже констатировали, для динамических эволюционирующих систем (в том числе живых) характерным является обеспечение устойчивости в виде устойчивого неравновесия. Искусственные когнитивные системы, служащие для управления в реальном времени сложными объектами (станками, роботами, транспортными средствами, цифровыми предприятиями и т.д.), могут быть корректно описаны только посредством формирующих их процессов, а не статических взаимосвязанных элементов. А это означает, что искусственные когнитивные системы обеспечивают свое существование на основе устойчивого неравновесия. Более того, именно такой характер устойчивости создает условия для синергетики искусственных когнитивных систем. Исследования Г. Хакена выявили возможность синергетической интерпретации когнитивной деятельности

, обоснованность синергетического подхода к изучению сложных неравновесных систем
, а также наличие иерархии неустойчивостей в самоорганизующихся системах и устройствах
. Необходимым условием высокой и эволюционно расширяющейся функциональности искусственных когнитивных систем является наличие в них иерархии неустойчивостей при сохранении устойчивости и развитии системы в целом.

Реализация синергетики искусственных когнитивных систем возможна как при программной, так и при аппаратной ее реализации, как при симуляционной, так и при инструментальной реализации акторов. Однако условие функционирования искусственной когнитивной системы в реальном времени делает варианты реализации неравноценными. Действительные децентрализация системы, параллельность выполнения операций управления (в той мере, в которой это не противоречит логическим связям между операциями) возможны только в случае аппаратной реализации системы и инструментальной реализации акторов (элементов-функций, ответственных за выполнение операций управления). Программная реализация всегда будет лишь имитацией, иногда весьма полезной (например, цифровые двойники предприятий), но несопоставимой по сложности (числу элементов и связей) с системой, в которой каждый актор коррелируется с реальным физическим объектом или процессом.

В-четвертых, ключевым фактором, определяющим функциональность искусственных когнитивных систем управления, является формализация универсальной методологии творчества, доступной для использования искусственными когнитивными системами. Она должна базироваться на логике общей теории систем, построенной вокруг принципа изоморфизма и целостности представления мироздания. Важной составляющей такой методологии будет инструментарий мультисистемной интеграции для искусственных когнитивных систем. В настоящее время теоретические основы для такой методологии создаются. В частности, методы машинного обучения нейронных сетей являются одним из элементов начальной стадии формирования указанных теоретических основ. По мнению авторов, перспективной концепцией, которая может быть положена в основу целостного представления мироздания, складывающегося в результате задействования искусственной когнитивной системой мультисистемной интеграции, являются нейронные схемы

. Сложно судить, в какой степени нейронные схемы соответствуют реальным процессам мышления, однако в качестве инструмента описания мышления (в том числе творческого) они могут быть показательными.

3. Заключение

Резюмируем проведенное в статье исследование:

1. В настоящее время общество находится на стадии перехода к новой форме своей организации – цивилизации когнитивных технологий, основой которых является использование когнитивных систем. Это актуализирует задачу построения теории когнитивных систем.

2. К числу важнейших вопросов теории когнитивных систем относится определение понятий сознание, самосознание и субъектность. Необходимое определение может быть дано в рамках информационной концепция сознания, существенно дополненной и расширенной авторами. Согласно авторским представлениям, при локализации сознания в пространстве состояний носителя сознания оно приобретает свойство самосознания, частным случаем которого (в случае, когда инициатором изменений, детерминирующих локализацию, является носитель сознания) является самосознание, наделенное субъектностью.

3. По мнению авторов, между естественными и искусственными когнитивными системами нет принципиальных структурных или организационных различий: ни основанных на разделении по механизмам обеспечения устойчивости (устойчивое равновесие / устойчивое неравновесие), ни на разделении эволюционный / не эволюционный. Развитие сложных искусственных когнитивных систем предполагает использование механизмов устойчивого неравновесия и эволюционного формирования таких систем. При этом искусственные когнитивные системы могут, но не должны быть наделены субъектностью.

4. Обладание искусственной когнитивной системы разумом, т.е. способностью решать не только тривиальные задачи (доступные рассудку), но и творческие, не требует ее подобия естественной когнитивной системе (человеческому разуму), в том числе, наличия субъектности. Если исходить из предполагаемой авторами рациональности творчества, то лежащие в его основе механизмы не должны качественно отличаться от механизмов решения вычислительных или логических задач. Проведенные авторами исследования показывают, что различаются лишь используемые методы решения задач, которые для творческих задач должны опираться на представление о целостности мироздания, проявлявшейся в виде изоморфизма, формализуемое посредством общей теории систем.

5. Реализация искусственных когнитивных систем отличается от прочих вычислительных систем выраженной спецификой, обусловленной применение таких систем для интеллектуального управления машинами в реальном времени, требующего параллельности выполнения операций, децентрализации и автономности формирующих такие системы элементов. Также для искусственных когнитивных систем управления необходимо формирование алгоритмов и средств технической реализации механизмов мультисистемой интеграции во множество надсистем, реализуемое с использованием методов машинного обучения и предлагаемого авторами инструментария в виде нейронных схем.

Авторский вклад в формирование теории когнитивных систем заключается: в универсальном определении базовых понятий сознания, самосознания и субъектности, а также характеристики механизмов мышления (включая мультисистемную интеграцию знаний и фиксацию связей посредством нейронных схем), не привязанных к человеческому сознанию; в констатации отсутствия принципиальных структурных или организационных различий между естественными и искусственными когнитивными системами, а значит, возможности построения достоверной теории когнитивных систем; в переосмыслении в рамках представлений о детерминированном мироздании механизмов творчества и уровнях мощности (силы) искусственного интеллекта; в определении специфики технической реализации искусственных когнитивных систем как сложных информационно-вычислительных систем реального времени, определяемой основной областью их применения – в качестве систем интеллектуального управления различными машинами (техническими средствами).

Article metrics

Views:44
Downloads:0
Views
Total:
Views:44