Library
|
Your profile |
Software systems and computational methods
Reference:
Dushkin R.
On the path towards strong artificial intelligence: cognitive architecture based on a psychophysiological foundation and hybrid principles
// Software systems and computational methods.
2021. № 1.
P. 22-34.
DOI: 10.7256/2454-0714.2021.1.34243 URL: https://en.nbpublish.com/library_read_article.php?id=34243
On the path towards strong artificial intelligence: cognitive architecture based on a psychophysiological foundation and hybrid principles
DOI: 10.7256/2454-0714.2021.1.34243Received: 03-11-2020Published: 10-05-2021Abstract: This article describes the author's proposal of cognitive architecture for the development of artificial intelligence agent of the general level (“strong" artificial intelligence”). The new principles for the development of such architecture are offered: hybrid approach in artificial intelligence and psychophysiological foundations. The scheme of architecture of the proposed solution, as well as the descriptions of possible areas of implementation are given. Strong artificial intelligence represents a technical solution that can solve arbitrary cognitive tasks accessible to humans (human level intelligence), and even beyond the capabilities of human intelligence (artificial superintelligence). The areas of application of strong artificial intelligence are limitless – from solving the current problems faced by humans to completely new tasks that are yet inaccessible to human civilization or expect for their groundbreaker. This study would be interested to the scholars, engineers and researchers dealing with artificial intelligence, as well as to the readers who want to keep in step with modern technologies. The novelty consists in the original approach towards building a cognitive architecture that has absorbed the results of previous research in the area of artificial intelligence. The relevance of this work is based on the indisputable fact that currently, the research in the area of weak artificial intelligence begin to slow down due to the inability to solve general problems, and the majority of national strategies of the advanced countries in the area of artificial intelligence declare the need for the development of new artificial intelligence technologies, including the artificial intelligence of general level. Keywords: artificial intelligence, strong artificial intelligence, cognitive architecture, artificial intelligent agent, hybrid artificial intelligence, bionic approach, machine learning, multisensory integration, goal-setting, explainabilityВведение В настоящее время в мире наблюдается устойчивый рост интереса к технологиям искусственного интеллекта [Душкин, 2019]. Можно уверенно заявить, что сегодня, пережив две глубокие зимы, человечество уверенно движется в устойчивое лето искусственного интеллекта, так как для современного развития когнитивных технологий одновременно сошлись две предпосылки — во-первых, появилась достаточная вычислительная база для реализации сложных когнитивных задач [Pargman et al., 2020], а во-вторых, получили серьёзное развитие математические методы как восходящей, так и нисходящей парадигм искусственного интеллекта [Russell & Norvig, 2003]. Технологии искусственного интеллекта вполне успешно решают такие базовые когнитивные задачи, как распознавание образов, поиск скрытых закономерностей и принятие решений в условиях неопределённости [Ghallab & Ingrand, 2020]. Успешное решение этих базовых задач приводит к тому, что техническими системами на основе искусственного интеллекта также вполне эффективно решаются такие задачи, как интерпретация получаемых данных «на лету», диагностика своего собственного состояния, мониторинг состояния объекта управления, моделирование и прогнозирование будущих состояний объекта управления и своего собственного, планирование реакции на будущие состояния, самообучение и обучение с учителем, управление в различных режимах, поддержка принятия решений в экстренных случаях [Мохов и др., 2019]. Вместе с тем все достижения в области искусственного интеллекта представляют собой решения из области так называемого «слабого» или «узкого» искусственного интеллекта [Searle, 1980]. Системы слабого искусственного интеллекта нацелены на решение крайне узкой задачи и не предназначены для использования при решении других задач, даже в схожей проблемной области. В противоположность этому «сильный» искусственный интеллект представляет собой универсальное решение для использования в любой проблемной области для любой задачи — считается, что система сильного искусственного интеллекта сможет самостоятельно разработать и воплотить план решения поставленной задачи на основе способности к самообучению и при наличии доступа к своду знаний человечества [Ng & Leung, 2020]. Возникает резонный вопрос — можно ли создать искусственного когнитивного агента с сильными способностями к обучению и самообучению? Этот вопрос до сих пор является дискуссионным, и однозначного ответа на него нет. Кредо автора настоящей работы заключается в том, что фундаментальных препятствий к созданию сильного искусственного интеллекта нет, так как перед нами существует явный пример интеллектуальных агентов — мы сами. Другими словами, раз имеется пример интеллектуального агента, то почему должно быть невозможно создание интеллектуальных агентов, возможно, и иной природы? Учёные и инженеры, работающие в области сильного искусственного интеллекта, в настоящее время сосредоточены на так называемых когнитивных архитектурах. Это общее представление принципов и решений (возможно, в отдельных аспектах), которые так или иначе могут позволить решить проблему построения сильного искусственного когнитивного агента. К настоящему времени разработано и предложено большое количество когнитивных архитектур сильного искусственного интеллекта, большинство которых основано на исследовании свойств и функциональности мозга и центральной нервной системы человека [Yates et al., 2020]. Действительно, антропоцентрический подход даёт исследователям прочный базис для того, чтобы попытаться разработать систему сильного искусственного интеллекта. Поскольку человек кажется интеллектуальным существом, подсматривание принципов у природы позволит на первом этапе найти корректное направление исследований, которое впоследствии вполне может быть расширено до новых принципов (самолёты, вертолёты и ракеты летают по воздуху не так, как это делают птицы). Таким образом, принципы бионики [Lipov, 2010] вполне подходят для первоначального конструирования когнитивных архитектур для искусственных интеллектуальных агентов общего уровня (сильного искусственного интеллекта). Целью настоящей работы является представление новой когнитивной архитектуры для искусственного интеллектуального агента общего уровня, которая основана на многолетних исследованиях автора в области искусственного интеллекта [Душкин, 2019] и, как предполагается, вполне может стать основой для дальнейших исследований в рамках научных коллабораций. Задачами работы являются: описание принципов гибридной парадигмы искусственного интеллекта, описание бионических принципов для построения искусственного интеллектуального агента общего уровня и описание обновлённой архитектуры для искусственного интеллекта общего уровня. Новизна работы заключается в авторском подходе к построению когнитивной архитектуры, который впитал в себя результаты многолетних исследований в области искусственного интеллекта и результаты анализа когнитивных архитектур других исследователей. Актуальность работы основана на том непреложном факте, что в настоящее время исследования в области слабого искусственного интеллекта начинают тормозить из-за невозможности решить общие задачи, и большинство национальных стратегий развития технологий в области искусственного интеллекта декларируют необходимость разработки новых технологий искусственного интеллекта, в том числе искусственного интеллекта общего уровня [Душкин и др., 2019]. 1. Принципы гибридной парадигмы Искусственного интеллекта Со времени основания искусственного интеллекта как междисциплинарной области исследований в 1956 году отцами-основателями были запущены две парадигмы искусственного интеллекта — восходящая или «грязная» и нисходящая или «чистая». Первая сосредоточена на моделировании базовых элементов того биологического субстрата, который составляет основу человеческого интеллекта — нейронах, а также на исследовании искусственных нейронных сетей, через что пытается выйти на интеллект как эмерджентное свойство. Вторая делает акцент на моделировании чистых когнитивных процессов на высоком уровне, тем самым делая попытку создать интеллект per se [Dushkin & Andronov, 2020]. Тем не менее, несмотря на сильные продвижения в области обеих парадигм искусственного интеллекта, обе имеют существенные проблемы. Если говорить о восходящей парадигме, то разработанные в её рамках искусственные нейронные сети обладают существенным недостатком — принятые ими решения крайне сложно интерпретировать [Ripley, 2007]. И чем более серьёзные задачи может решать обученная нейросеть, тем менее интерпретируемыми оказываются принципы её работы. Фактически, эта проблема сводится к тому, что правила аппроксимации произвольной функции, заданной таблицей, строятся нейронной сетью в процессе машинного обучения неочевидным для понимания человеком образом. С другой стороны, нисходящая парадигма с главным своим проявлением — символьными вычислениями — при всех своих достоинствах, обладает серьёзной проблемой. Она заключается в высокой сложности обучения систем, основанных на знаниях. Если принять во внимание то, что знание — это динамическая сущность, которая изменяется со временем и адаптируется к новым границам человеческого познания, то перетренировка систем, основанных на знаниях для постоянной актуализации из баз знаний видится слишком дорогим процессом [Kordon, 2020]. При этом универсальных символьных систем с возможностью обучения на лету в процессе своего функционирования так до сих пор и не разработано. Ещё бы, именно такая система могла бы стать системой сильного искусственного интеллекта. Хотя, с другой стороны, именно принятие решений системами, основанными на знаниях, является процессом прозрачным и довольно легко интерпретируемым [Flasiński, 2016]. Некоторые исследователи отмечают, что соединение подходов и методов как восходящей, так и нисходящей парадигмы в единую схему позволит решить проблемы обеих парадигм, оставив только лучшие их стороны [Dushkin & Andronov, 2020; Tahmasebi, 2012]. Авторская позиция заключается в совмещении подходов в единой архитектуре, что в целом соответствует тому, как на логическом уровне работает восприятие, познание и интеллект у человека. Схема работы искусственного интеллектуального агента с гибридной архитектурой основана на циклическом повторении процесса восприятия информации из среды, её обработки сенсорными нейронными сетями, принятие решения при помощи символьной универсальной машины вывода и передача принятого решения на исполнительные устройства для взаимодействия со средой через моторную нейронную сеть [Dushkin & Andronov, 2020]. В целом, эта схема действительно позволяет нивелировать негативные стороны обеих парадигм. В частности, распознавание образов и ситуаций в контексте на нижнем уровне при помощи методов восходящей парадигмы имеет возможность быстрой перетренировки для различных ситуаций, в которых построенный по этой архитектуре агент может использоваться. При этом на этом уровне интерпретируемость не требуется, как не требуется знать то, каким образом человек распознал в воспринимаемых его сетчаткой пикселях кота. А на уровне принятия решений посредством работы символьной универсальной машины вывода интерпретируемость появляется «из коробки» на основе знаний, передаваемых такому когнитивному агенту. Тем не менее, главная проблема этого подхода в рамках гибридной парадигмы заключается в переходе от архитектурного представления к реализации. На этом уровне разработка функционирующего прототипа не составляет проблемы, но его масштабирование до универсального решения с практической точки зрения наталкивается на сложнопреодолимые трудности. Главной из них является сложность обучения такого агента на лету. Также есть и другие нюансы, которые будут рассмотрены в следующем разделе. Более того, для создания искусственного интеллектуального агента общего уровня в гибридной архитектуре искусственного интеллекта не хватает существенной характеристики, которой обладает человеческий разум — понимания ситуации, в которой оказывается агент, причём понимания с учётом контекста и личного опыта [Душкин, 2020]. Актуализация баз знаний «на лету» и умение выбрать из нескольких вариантов смысла, имеющегося как в личном опыте, так и в сводах знаний всего человечества — это пока нерешённые задачи гибридной парадигмы в частности и всего искусственного интеллекта в целом. 2. Бионические принципы, подходящие для когнитивной архитектуры Бионика — это применение принципов, подходов и работающих решений, находимых в живой природе, к проектированию и реализации технических систем [Bionics, 1993]. Поскольку ранее в этой работе была провозглашена антропоцентристская позиция в части исследования интеллекта для осуществления попыток воссоздать интеллект общего уровня в виде технической системы, то нет сомнения, что бионические принципы могут в этом помочь. В частности, следующие подходы, обнаруживаемые у живых интеллектуальных агентов, выглядят крайне релевантными для использования при проектировании когнитивной архитектуры нового поколения: 1. Мультисенсорная интеграция — способность интеллектуального агента воспринимать окружающую среду при помощи разнообразных сенсорных систем различной модальности и строить на основе этого целостное описание окружающей действительности, в том числе в динамическом режиме, то есть с учётом кратковременной и долговременной истории наблюдаемых событий и явлений [Душкин, 2020a]. По утверждению некоторых исследований механизм мультисенсорной интеграции лежит в основе формирования человеческой личности в процессе её взросления и обучения [Kranowitz & Silver, 2006]. Возможно, что мультисенсорная интеграция для искусственных когнитивных агентов позволит решить проблему привязки символов [Harnad, 1990]. 2. Обратная связь от подсистемы принятия решений к сенсорам для прогнозирования восприятия — получение обратного информационного потока к сенсорам и механизмам распознавания образов от подсистемы прогнозирования для оптимизации процесса распознавания и обеспечения «узнавания» [Шумский, 2020]. Этот немного странный процесс основан на байесовских механизмах прогнозирования того, что будет распознано сенсорной системой, что используется в целях снижения вычислительной нагрузки на сенсорные и ассоциативные зоны коры. В том числе этот процесс позволяет удерживать распознаваемые образы в динамике и решать проблему непрерывной идентификации объектов [Zalta, 2014]. Другими словами, это вопрос непрерывной идентичности наблюдаемых объектов окружающей реальности, особенно в условиях, когда сами наблюдения прерываются. 3. Личная память когнитивного агента — тот механизм, который обуславливает обработку контекста ситуации, в которой находится когнитивный агент. Личная память или жизненный опыт когнитивного агента собирает в себя все ситуации, в которых бывал, и то, как агент в них поступил. Это формирует способность агента иметь специальные значения для общеиспользуемых знаков, что делает его частную символьную систему гибче и адаптивнее для принятия решений с учётом контекста [Osipov, 2015]. 4. Целеполагание — самостоятельная постановка целей интеллектуальным агентом на основе его стремления к минимизации потерь и максимизации своей выгоды (в общих значениях этих терминов). Механизм целеполагания у живых агентов часто основан на эмоциональной подсистеме как асинхронной сигнализации по принципу «всем, для кого релевантно». Эмоциональное целеполагание, возможно, имеет важное значение для проектирования искусственных интеллектуальных агентов, которые могут самостоятельно решать, какую задачу и как им решать [Глазунов, 2011]. 5. Разрешение внутренних конфликтов — ещё один механизм, который позволяет интеллектуальному агенту выбрать схему поведения для отработки запланированных действий в условиях, когда различные схемы ведут к разным результатам с различными уровнями вознаграждений. В целом, эта задача так или иначе решается в рамках обучения с подкреплением [Sundas et al., 2020], однако для живых интеллектуальных агентов этот процесс может иметь иррациональные свойства, когда выбранный вариант действий представляет собой явно не оптимальный способ реагирования на складывающуюся ситуацию. Эту проблему ещё предстоит детально исследовать, в том числе и с точки зрения поведенческой психологии и социологии. Таким образом, перечисленный (и в общем, неполный) список представляет собой интересные бионические принципы, которые резонно использовать при проектировании когнитивной архитектуры искусственного интеллектуального агента нового поколения для движения по направлению к созданию сильного искусственного интеллекта. 3. Архитектура искусственного интеллектуального агента Для разработки когнитивной архитектуры нового поколения необходимо рассмотреть примеры таких архитектур, которые были разработаны ранее для решения разнообразных задач как в области искусственного интеллекта в целом, так и при проведении попыток разработки сильного искусственного интеллекта в частности. Несмотря на то, что сравнительный анализ когнитивных архитектур само по себе представляет существенный исследовательский интерес, в рамках этой статьи будет рассмотрено всего лишь несколько релевантных когнитивных архитектур. В частности, интерес автора сосредоточен на следующих примерах: 1. Джефф Хокинс предлагает низкоуровневую архитектуру для базовых кирпичиков когнитивного агента общего уровня, и они соответствуют так называемым кортикальным колонкам в коре головного мозга человека [Hawkins & Blakeslee, 2005]. Предлагаемая низкоуровневая архитектура позволяет собрать искусственного интеллектуального агента для решения произвольной когнитивной задачи. Важной особенностью является то, что эти базовые элементы могут осуществлять символьные вычисления, но при этом явно входят в состав восходящей парадигмы искусственного интеллекта. Дополнительный интерес представляет необходимость организации обратной связи от высокоуровневых систем к низкоуровневым, как это предлагает реализовывать один из рассмотренных бионических принципов. 2. Рэймонд Курцвейл описывает схожее архитектурное решение [Kurzweil, 2012], в основе которого стоит распознавание образов и предсказание, причём под образом расширительно понимается любая ситуация, в которой может оказаться интеллектуальный агент. В этом решении также используется обратная связь от прогнозной подсистемы к сенсорным подсистемам. Кроме того, в этой когнитивной архитектуре одна из центральных ролей отводится вероятностным процессам, происходящим при распознавании образов биологическим мозгом. 3. Сергей Шумский приводит интересную когнитивную архитектуру для построения операционной системы роботов [Шумский, 2020], в которой одновременно используются три столпа современного машинного обучения — обучение с учителем, обучение без учителя и обучение с подкреплением, причём все эти виды машинного обучения используются одновременно для решения различных задач, стоящих на разных уровнях перед интеллектуальным агентом. Более того, в рамках этой когнитивной архитектуры даётся описание разреженного кодирования, которое, по всей видимости, используется в кортикальных колонках человеческого мозга для представления общих и контекстуальных знаний и фактов. 4. Пётр Анохин разработал теорию функциональных систем [Анохин, 1975], в рамках которой дал описание когнитивной архитектуры живого интеллектуального агента. Это высокоуровневая архитектура, основой которой являются так называемые функциональные системы, обеспечивающие гомеостаз организма как на базовом уровне физиологии, так и на поведенческом уровне. Особенностью этой архитектуры является наличие нескольких обратных связей от центра принятия решений к сенсорным и моторным подсистемам, а также включение в состав архитектуры механизмов целеполагания и удовлетворённости. Используя описанную гибридную архитектуру искусственного интеллекта, приведённые бионические принципы и перечисленные примеры когнитивных архитектур ранних исследователей, предлагается рассмотреть когнитивную архитектуру нового поколения, общая схема которой представлена на рис. 1. Рис. 1. Общая схема когнитивной архитектуры нового поколения Общий процесс когниции, который определяется представленной когнитивной архитектурой, состоит из следующих шагов: 1. Разнообразные сенсорные системы интеллектуального агента получают сигналы из среды, а также прогностические сигналы от проактивной подсистемы управления. На основании фактически воспринимаемых и ожидаемых образов формируются распознаваемые образы, которые отправляются в реактивную подсистему управления и в центр мультисенсорной интеграции. 2. Реактивная (быстрая) подсистема управления обуславливает мгновенную рефлекторную реакцию интеллектуального агента в тех случаях, когда правило возбуждения такой реакции имеется в её структуре. Если правил реагирования нет, то осуществляется эскалация внимания к воспринимаемой ситуации на проактивную подсистему управления. Если правило реагирования существует, то оно выполняется через акцептор результата действия. 3. Центр мультисенсорной интеграции осуществляет построение целостного описания воспринимаемой ситуации в среде интеллектуального агента и отправляет его в проактивную подсистему управления. 4. Проактивная подсистема управления взаимодействует с базой общих знаний и личным опытом интеллектуального агента, получая из них необходимый смысл воспринимаемой ситуации и записывая новые знания, получаемые агентом по результатам получения информации из среды. Кроме того, проактивная подсистема управления использует циклы взаимодействия с механизмами эмоционального целеполагания и разрешения конфликтов для принятия окончательного решения о программе поведения агента в воспринимаемой ситуации. Для этого используется динамическая модель среды и самого агента в ней, входящая в состав самой проактивной подсистемы управления (на схеме не показана). Итоговое решение отправляется на исполнение в акцептор результата действия, а также передаётся в реактивную подсистему управления для осуществления последующей мгновенной реакции агента на схожие ситуации. 5. Акцептор результата действия получает принятое решение и реализует его через исполнительные механизмы интеллектуального агента, которые воздействуют на среду. При этом в акцепторе формируется модус ожидания результата выполнения поведенческой программы, которое удовлетворяется, когда результат получен. В этом случае механизмы обучения с подкреплением должны зафиксировать исполненную программу в базе личного опыта агента как «хорошую». Необходимо отметить, что описанный цикл повторяется постоянно, непрерывно и даже в конкурентном режиме с самим собой, так как восприятие интеллектуального агента должно быть непрерывно с точностью до какого-то уровня дискретизации. Поэтому в описанном процессе на него также влияет история выполнения этого же когнитивного процесса в предыдущие такты времени. Предполагается, что при реализации эта схема будет полезна при решении произвольных когнитивных задач. Необходимо отметить, что представленная схема и её дальнейшее описание нарочито лишены указаний на какие-либо конкретные технологии или методы реализации отдельных компонентов. Описанная когнитивная архитектура позиционируется обобщённой так, что при реализации искусственного интеллектуального агента эта архитектура могла бы быть реализована конкретными способами функционального исполнения. Например, в рамках гибридного подхода в искусственном интеллекте [Dushkin & Andronov, 2020], исповедуемом автором, центр мультисенсорной интеграции может быть реализован в виде нейросетей той или иной архитектуры, базы общих и личных знаний — в виде особого устройства семантических карт [Georgakopoulos, 2019], проактивная подсистема принятия решений — в виде символьной машины вывода [Bibel et al., 1986], а акцептор результата действия — опять в виде нейронных сетей [Liu et al., 2020]. Заключение В статье представлена общая схема когнитивной архитектуры искусственного интеллектуального агента нового поколения, основанная на принципах гибридной парадигмы искусственного интеллекта и бионики. Эта когнитивная архитектура впитала в себя отдельные положения предложений других исследователей в области искусственного интеллекта общего уровня. Полученная схема является обобщённой и в целом универсальной, что позволяет при её конкретизации блоками для решения отдельных задач когниции получать искусственных интеллектуальных агентов разнообразного плана. Автор продолжит исследования в области когнитивных архитектур и, в частности, планируется проведение ряда экспериментов с реализациями представленной архитектуры посредством конкретизации её верхнеуровневых блоков для поиска приемлемых методов её функционального наполнения для решения когнитивных задач общего уровня. В частности, будут осуществлены попытки решения следующих задач: 1. Построение проактивной системы управления интеллектуальными объектами — зданиями, транспортными и энергетическими системами, населёнными пунктами. 2. Персонификация населённых пунктов при помощи искусственного интеллектуального агента, выполняющего муниципальные и государственные услуги для физических и юридических лиц. 3. Оцифровка личного опыта человека для построения его виртуальной личности и сохранения как опыта, так и методов принятия решений этим человеком для последующих консультаций с ним. Автор приглашает исследователей и учёных, работающих в области искусственного интеллекта общего уровня к плодотворной дискуссии и осмыслению представленной когнитивной архитектуры.
References
1. Bibel W., Kurfess F., Aspetsberger K., Hintenaus P., Schumann J. (1986) Parallel Inference Machines // In book: Future Parallel Computers, An Advanced Course, Pisa, Italy, June 1986. — Chapter: 5. — Publisher: Springer Verlag, Berlin, Lecture Notes in Computer Science 272. — P. 115-118. — Editors: P. Treleaven, M. Vanneschi. — DOI: 10.1007/3-540-18203-9_5.
2. Bionics: Nature as a Model (1993). — PRO FUTURA Verlag GmbH, München, Umweltstiftung WWF Deutschland, 1993. — 223 P. 3. Dushkin R. V., Andronov M. G. The Hybrid Design for Artificial Intelligence Systems // In book: Arai K., Kapoor S., Bhatia R. (eds) Proceedings of the 2020 Intelligent Systems Conference (IntelliSys), Volume 1 (1250). — Springer, Cham, 2020. — P. 164-170. — ISBN 978-3-030-55179-7. — DOI: https://doi.org/10.1007/978-3-030-55180-3_13. 4. Flasiński M. (2016) Symbolic Artificial Intelligence // In book: Introduction to Artificial Intelligence, July 2016. — DOI: 10.1007/978-3-319-40022-8_2. 5. Georgakopoulos T. (2019) Semantic Maps // In book: Oxford Bibliographies in LinguisticsPublisher: New York: Oxford University Press, January 2019. — DOI: 10.1093/obo/9780199772810-0229. 6. Ghallab M., Ingrand F. (2020) Robotics and Artificial Intelligence // In book: A Guided Tour of Artificial Intelligence Research. — May 2020. — DOI: 10.1007/978-3-030-06170-8_12. 7. Harnad S. (1990) The Symbol Grounding Problem. — Physica, 1990. — D 42: p. 335-346. — URL: https://clck.ru/RD7qu (Accessed 04.10.2020). 8. Hawkins J., Blakeslee S. (2005) On Intelligence. — New York, NY: Owl Books. — ISBN 978-0-8050-7853-4. 9. Kordon A. (2020) Problem Knowledge Acquisition // In book: Applying Data Science, How to Create Value with Artificial Intelligence, September 2020. — DOI: 10.1007/978-3-030-36375-8_7. 10. Kranowitz C. S., Silver L. B. (2006) The Out-of-Sync Child. — Penguin Books, 2006. — 352 p. — ISBN 978-0-39953-271-9. 11. Kurzweil R. (2012) How to Create a Mind: The Secret of Human Thought Revealed. — New York: Viking Books. — ISBN 978-0-670-02529-9. 12. Lipov A. N. (2010) At the origins of modern bionics. Bio-morphological formation in an artificial environment. — Polygnosis. № 1-2. 2010. — Ch. 1-2, pp. 126-136. 13. Liu Zh., Lin Y., Sun M. (2020) Representation Learning and NLP // In book: Representation Learning for Natural Language Processing, July 2020. — DOI: 10.1007/978-981-15-5573-2_1. 14. Ng G.-W., Leung W. (2020) Strong Artificial Intelligence and Consciousness // Journal of Artificial Intelligence and Consciousness. 07. — P. 63-72. — DOI: 10.1142/S2705078520300042. 15. Osipov G. S. (2015) Signs-Based vs. Symbolic Models // Advances in Artificial Intelligence and Soft Computing. 2015. 16. Pargman D., Biørn-Hansen A., Eriksson E., Laaksolahti J., Robèrt M. (2020) From Moore's Law to the Carbon Law // ICT4S2020: 7th International Conference on ICT for Sustainability, June 2020. — P. 285-293. — DOI: 10.1145/3401335.3401825. 17. Ripley B. D. (2007) Pattern Recognition and Neural Networks. — Cambridge University Press, 2007. — ISBN 978-0-521-71770-0. 18. Russell S. J., Norvig P. (2003) Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice-Hall. — ISBN 0-13-790395-2. 19. Searle J. (1980) Minds, brains, and programs // Behavioral and brain sciences. — 1980. — Vol. 3, № 3 (September). — P. 417. — DOI:10.1017/S0140525X00005756. 20. Sundas A., Bhatia A., Saggi M., Ashta J. (2020) Reinforcement Learning // In book: Machine Learning and Big Data: Concepts, Algorithms, Tools, and Applications. — John Wiley & sons, July 2020. 21. Tahmasebi H. (2012) A hybrid neural networks-fuzzy logic-genetic algorithm for grade estimationyu — Computers & Geosciences. 42: p. 18-27. — Bibcode:2012CG.....42...18T. — DOI: 10.1016/j.cageo.2012.02.004. 22. Yates S., Walker A., Kerri V. M. (2020) Artificial Intelligence, 2020. 23. Zalta E. N. (2014) Gottlob Frege // Stanford Encyclopedia of Philosophy (Fall 2014), Edward N. Zalta (ed.). 24. Anokhin P. K. (1975) Ocherki po fiziologii funktsional'nykh sistem. — M.: Meditsina, 1975. — S. 17-59. 25. Glazunov Yu. T. (2011) Emotsional'noe perezhivanie v sisteme tselepolaganiya cheloveka // Vestnik MGTU, tom 14, № 1, 2011 g. — S. 126-140. 26. Dushkin R. V. (2019) Iskusstvennyi intellekt. — M.: DMK-Press, 2019. — 280 s. — ISBN 978-5-97060-787-9. 27. Dushkin R. V. (2020) Kritika «Kitaiskoi komnaty» Dzh. Serla s pozitsii gibridnoi modeli postroeniya iskusstvennykh kognitivnykh agentov // Sibirskii filosofskii zhurnal. 2020, Tom 18, № 2. S. 30-47. — DOI: 10.25205/2541-7517-2020-18-2-30-47. 28. Dushkin R. V. (2020a) K voprosu o raspoznavanii i differentsiatsii filosofskogo zombi // Filosofskaya mysl'. — 2020. — № 1. — S. 52-66. — DOI: 10.25136/2409-8728.2020.1.32079. 29. Dushkin R. V., Onatsik D. A., Sutsilov D. S., Fadeeva S. (2019) Analiticheskii otchet «Sravnenie natsional'nykh strategii v oblasti iskusstvennogo intellekta». Vyp. № 2/2019. — M.: OOO «Dikripto», Agentstvo Iskusstvennogo Intellekta, 2019. — 16 s. 30. Mokhov A. I., Dushkin R. V., Andronov M. G., Mal'tsev V. P. (2019) Metodika otsenki stepeni intellektual'nosti tekhnicheskikh i sotsiotekhnicheskikh sistem // Tsifrovaya ekonomika, Oktyabr' 2019. — URL: http://bit.ly/2of6hhg. 31. Shumskii S. A. (2020) Mashinnyi intellekt. Ocherki po teorii mashinnogo obucheniya i iskusstvennogo intellekta. — M.: RIOR, 2020. — 340 s. — ISBN: 978-5-369-01832-3. |