Library
|
Your profile |
Software systems and computational methods
Reference:
Lyutikova L.A., Shmatova E.V.
Search of Logical Regularities in the Data Using Sigma-Pi Neural Networks
// Software systems and computational methods.
2017. № 3.
P. 25-34.
DOI: 10.7256/2454-0714.2017.3.24050 URL: https://en.nbpublish.com/library_read_article.php?id=24050
Search of Logical Regularities in the Data Using Sigma-Pi Neural Networks
DOI: 10.7256/2454-0714.2017.3.24050Received: 30-08-2017Published: 06-10-2017Abstract: In this article the authors offer a method for constructing logical operations to analyze and correct the results of the operation of sigma-pi neural networks designed to solve recognition problems. The aim of the research is to reveal the logical structure of implicit regularities formed as a result of training the neural network. The method proposed by the authors restores the training sample based on the values of the sigma-pi weighting coefficients of the neuron, analyzes the relationships of this structure and allows to detect implicit regularities, which contributes to the increase of the adaptive properties of the sigma-pi neuron. To solve this problem, the authors perform a logical-algebraic analysis of the subject area within the framework of which the cigma-pi of a neuron is trained, a logical decision function is constructed, its properties and applicability to the correction of the work of a neuron are investigated. It is widely known that the combined approach to the organization of the recognition algorithms increases their effectiveness. The authors argue that the combination of the neural network approach and the use of logical correctors allows, in cases of an incorrect response, to indicate the object closest to the requested attributes from the sample on which the sigma-pi neuron was trained. This significantly improves the quality of the automated solution of intellectual problems, i.e. ensuring the accuracy of achieving the right solution by using the most effective systems for analyzing the original data and developing more accurate methods for their processing. Keywords: neuron, neural networks, logical function, predicate, algorithm, operations on algorithms, decision function, corrective operation, logical-algebraic approach, ClassifierВведение Задачи, связанные с классификацией и идентификацией предметов, явлений и сигналов, характеризующихся конечным набором некоторых свойств и признаков, возникают в таких отраслях как робототехника, информационный поиск, мониторинг и анализ визуальных данных, исследования искусственного интеллекта. Существует ряд методов для решения данных задач, каждый из которых обладает как своими преимуществами, так и своими недостатками [1]. Комбинированный подход применяется, когда требуется скорректировать работу нескольких различных алгоритмов, каждый из которых безошибочно классифицирует лишь часть обучающих объектов. Цель коррекции — сделать так, чтобы ошибки одних алгоритмов были скомпенсированы другими и качество результирующего алгоритма оказалось лучше, чем каждого из базовых алгоритмов в отдельности [2-4]. На практике существуют различные подходы к построению комбинированных корректирующих алгоритмов, сочетание которых дает практически значимые результаты[4-9]. В данной работе рассматривается подход, основанный на логическом анализе данных, используемый для коррекции работы SP-нейронной сети. Можно предположить, что сигма-пи нейронная сеть содержит определенные логические правила в весовых коэффициентах, однако эти правила не являются явными. Для осуществления контрольных и корректирующих функций работы сигма-пи нейрона предлагается использование метода, позволяющего по весам восстановить обучающую выборку, провести ее логический анализ, построить базу знаний минимизировать ее, и в случаи ошибочной работы сигма-пи нейрона скорректировать ответ относительно построенных правил. В статье рассматривается метод обнаружения в структуре сигма-пи нейрона ранее не известных, практически полезных, доступных интерпретации знаний, необходимых для принятия решений.
Постановка задачи Описание, заданного объекта представляет собой -мерный вектор, где - число признаков, используемых для характеристики объекта, причем -я координата этого вектора равна значению -го признака, . В описании объекта допустимо отсутствие информации о значении того или иного признака. Формальная постановка задачи. Пусть , где –множество признаков. – множество объектов, каждый объект характеризуется соответствующим набором признаков . Или , где , – обрабатываемые входные данные – выходные данные: Пусть SP-нейрон представленный следующей структурой где -множество весов данного -нейрона, распознающего элементов заданной предметной областисформированной соответствующим набором признаков . И пусть существует набор признаковтакой что ответSP-нейрона на данном наборе некорректен. Будем говорить, что работа сигма-пи нейрона некорректна, если 1) он не опознал соответствующий запросу элемент,т.е. 2) он опознал объект, не принадлежащий данной предметной области, т.е. 3) при запросе найден элемент, принадлежащий предметной области,но в обучающей выборке существует элемент с большим количеством совпадающих признаков, т.е. и существует с соответствующем вектором признаков такое, что где - вектор признаков , - количество несовпадающих признаков. Необходимо построить функцию, которая сможет подобратьпри ошибке работы сигма-пи нейрона, наиболее близкий элемент или класс элементов из обучающей выборке по заданным признакам:
Процедура обучения сигма пи нейрона. Простой алгоритм обучения, позволяющий обучить сигма пи нейрон за один проход,был первоначально предложен Тимофеевым А.В. [13].
2) На -ом шаге , где Весвычисляется по формуле: где - произвольное значение, такое что .Например, если - пороговая функция, то можно положить или. После шагов искомый логико-арифметический-нейрон будет построен.
ПРИМЕР. Пусть задана следующая предметная область:
Очевидно, что в результате обучения по данным таблицы SP-нейрон будет иметь вид: Введем запрос ,. Действительно объект под номером «4» совпадает с запросом в двух точках, но в двух точках с запросом совпадает и объект под номером 128, причем этот объект выделяется во всей выборки значением переменной . Корректировку подобных результатов работы -нейрона можно провести при помощи логического анализа данных.
Логические методы исследования данных В данном разделе рассматривается логические методы решения задачи распознавания. Предлагается метод построения логического классификатора, рассматриваются его свойства[14,15]. Данные, с которыми приходится иметь дела при решении задач распознавания, как известно, являются неполными, неточными, неоднозначными. Однако получаемые решения должны соответствовать закономерностям явно и неявно присутствующим в рассматриваемой предметной области. Логические методы могут достаточно хорошо проанализировать данные, выделить существенные и несущественные признаки, выявить минимальный набор правил необходимый для того, чтобы полностью восстановить исходные закономерности. Определение. Будем говорить, что построенная система решающих правил является полной, если она обеспечивает вывод всех возможных решений в рассматриваемой области. Определение. Система правил, в которойна наборе признаков, где – пространство признаков, невозможно получить выводы: и называется непротиворечивой. Определение. Классом будем называть группу объектов, выделенных по определенному признаку (группе признаков). Каждый объект может быть представителем одного или нескольких классов, каждый класс определятся набором однотипных признаков. Правило продукции позволяет выразительно представить зависимости между объектом и его признаками. где предикат принимает значение истина, т.е. в случае если и, если . Или в виде: Решающей функций назовем конъюнкцией всех решающих правил: Функцию (1) можно проинтерпретировать следующим образом: Если обучающую выборку, состоящуюиз элементов описать булевой функцией , где то данная функция принимает значения «0» на наборах и«1» на всех остальных на наборах, т.е. она допускает любые отношения между признаками и объектами, кроме отрицания объекта на множестве характеризующих этот объект признаках в обучающей выборке. Функция (1) выражает зависимость между характеристиками объекта и самим объектом, находит все возможные классы в заданной области, вплоть до классов объектов объединенных по единственному признаку, допускает включение новых правил продукции(модифицируема), при вводе значение любого объекта, из исследуемой области определяет этот объект. Если вводимые данные точно не определены в области, по которой была построена функция, то функция определяет наиболее подходящий объект или классы объектов, идентифицируемые по части входных данных. Все свойства функции (1) подробно рассмотрены в работах [16]. Поскольку функция - это дизъюнкция конъюнкций разной длины переменныхона может быть подвергнута сокращению.
Выделение правил по весам сигма пи нейрона. В данной работе рассматривается -нейронная сеть, результатом обучения которой будет являться полином вида где - множество весов данного -нейрона. Обучающая выборка по которой проводилась настройка весов вообще говоря может быть неизвестна. Требуется восстановить обучающую выборку, обнаружить логические закономерности и использовать их для корректировки результата работы исходного -нейрона. Восстановление обучающей выборки по полиному- по сути процедура обратная обучению. На нижним уровне находятся переменные, . Все коэффициенты полинома (веса -нейрона) разбиваются на уровни в зависимости от количества переменных входящих вместе с ним в слагаемое. Т. е первый слой веса с наименьшее числом переменных, на втором соответственной на одну больше и т.д. в верхнем слое находится все коэффициенты с наибольшим числом переменных. Элемент каждого верхнего уровня связан с соответствующими элементами нижнего слоя по общим переменным. Веса первого слоя соответственно и есть объекты на каждом следующем слое , где индексы соответствующих объектов переменные которых входят в качестве сомножителей в элемент на . ПРИМЕР Пусть обученный -нейрон имеет следующий вид Восстановим объекты обучающей выборки и найдем обобщающие логические правила (см.рис.1).
Рис. 1.
Построение неявных правил: Для построения по дереву неявных правил рассмотрим путь из каждой вершины к каждой переменной . Если такой путь существует, то множество вершин принадлежащих соответствующему пути, т.е. множество объектов определяемых переменной образуют класс по этой переменной .Такой путь можно представить в виде логической формулы при помощи операции конъюнкции. Т.е. Если пути от заданной вершины к вершине не существует, то данный путь (класс объектов) определятся отрицанием соответствующей переменной. Совокупность всевозможных путей как существующих, так и несуществующих представима в виде дизъюнкции. Таким образом, можно полностью восстановить объектную часть логической функции (1). На примере это выглядит как на рис. 2.
Рис. 2.
Штрих пунктирной линией обозначены связи с отрицанием переменной. что полностью совпадает с объектной частью функции (1). ТЕОРЕМА. Пусть ,, где – множество признаков. – множество объектов, каждый объект характеризуется соответствующим набором признаков пусть , тогда по соответствующей структуре можно получить все возможные решения на заданном пространстве данных. Доказательство: Как было показано выше по структуре нейрона можно восстановить обучающую выборку. Для которой возможно построить логическую решающую функцию (1), которая строит полную систему правил для заданной предметной области. Предложенная процедура построения неявных правил упрощает задачу. Поскольку при помощи логической функции (1) можно провести полный анализ обучающей выборки, найти все возможные связи, то объектная часть логической функции может выступить в качестве корректора для сигма-пи нейрона, которую в соответствии с предложенным выше алгоритмом можно построить, опираясь на структуру самого сигма-пи нейрона, даже не имея обучающей выборки. В окончательном виде модель SP-нейрона вместе с его корректором может иметь имеет следующий вид: где является корректором работы нейрона, т.е. окончательное решение это или правильный ответ нейрона, или наиболее подходящий ответ для данного запроса выбранный ). Если ответ нейрона был правильным и объект, ранее не принадлежал обучающей выборки, то в силу простой модифицируемости функции [16], новое правило будет принято корректором и расширит свою базу знаний.
Заключение В работе рассмотрены вопросы поиска логических закономерностей по структуре обученногоSP-нейрона. Предложено совместное использование нейросетевых технологий и методов логического вывода, как средства выявления логических закономерностей и представления более точного результата в задачах распознавания. Так же рассмотрены преимущества логического анализа данных и построена логическая функция для выявления всех закономерностей исследуемой предметной области. Предложена процедура построения деревьев решений на основе обученного сигма-пи нейрона, которая не предъявляет никаких требований к архитектуре, алгоритму обучения, входным и выходным значениям и другим параметрам сети. Построение дерева осуществляется по структуре нейрона, результат выявляет ряд скрытых логических закономерностей данных, строит логическую функцию, которая корректирует работу нейрона в случае неточных зашумленных данных, позволяя указать наиболее правдоподобные (близкие к эталонным) ответы в рамках сделанного запроса, а также легко модифицироваться в случае правильного ответа нейрона непредусмотренного обучающей выборкой.В результате существенно повышается качество автоматизированного решения интеллектуальных задач, надежность их функционирования, обеспечение точности достижения верного решения за счет использования наиболее эффективных систем анализа исходных данных и разработки более точных методов их обработки. References
1. Flakh P. Mashinnoe obuchenie. Nauka i isskustvo postroeniya algoritmov, kotorye izvlekayut znaniya iz dannykh. M.: MDK Press, 2015. 400 s.
2. Zhuravlev Yu. I. Ob algebraicheskom podkhode k resheniyu zadach raspoznavaniya ili klassifikatsii // Problemy kibernetiki. 1978. T. 33. S. 5–68. 3. Vorontsov K. V. Optimizatsionnye metody lineinoi i monotonnoi korrektsii v algebraicheskom podkhode k probleme raspoznavaniya // Zhurnal vychislitel'noi matematiki i matematicheskoi fiziki. 2000. T. 40, № 1. S. 166–176. 4. Ablameiko S.V., Biryukov A.S., Dokukin A.A., D'yakonov A.G., Zhuravlev Yu.I., Krasnoproshin V.V., Obraztsov V.A., Romanov M.Yu., Ryazanov V.V. Prakticheskie algoritmy algebraicheskoi i logicheskoi korrektsii v zadachakh raspoznavaniya po pretsedentam // Zhurnal vychislitel'noi matematiki i matematicheskoi fiziki. 2014. T. 54. № 12. S. 1979. 5. Timofeev A.V., Kosovskaya T.M. Neirosetevye metody logicheskogo opisaniya i raspoznavaniya slozhnykh obrazov // Trudy SPIIRAN, 27 (2013). S. 144–155. 6. Dyukova E.V., Zhuravlev Yu.I., Prokof'ev P.A. Metody povysheniya effektivnosti logicheskikh korrektorov // Mashinnoe obuchenie i analiz dannykh. 2015. T. 1. № 11. S. 1555-1583. 7. Gridin V.N., Solodovnikov V.I., Evdokimov I.A., Filipkov S.V. Postroenie derev'ev reshenii i izvlechenie pravil iz obuchennykh neironnykh setei // Iskusstvennyi intellekt i prinyatie reshenii. 2013. №4. S. 26-33. 8. Zhiting Hu, Xuezhe Ma, Zhengzhong Liu, Eduard Hovy, Eric Xing Harnessing Deep Neural Networks with Logic Rules // Computer Science. Learning 2016 .arXiv:1603.06318 9. Alex Graves, Greg Wayne, Malcolm Reynolds, Tim Harley, Ivo Danihelka, Agnieszka GrabskaBarwinska, Sergio Gómez Colmenarejo, Edward Grefenstette, Tiago Ramalho, John Agapiou, et al. Hybrid computing using a neural network with dynamic external memory. Nature, 538:(7626):471–476, 2016. 10. Shibzukhov Z.M. O potochechno korrektnykh operatsiyakh nad algoritmami raspoznavaniya i prognozirovaniya //Doklady RAN. 2013, T.450, №1. S.24-27. 11. Shibzukhov Z.M. Correct Aggregation Operations with Algorithms // Pattern Recognition and Image Analysis. 2014, Vol. 24, No. 3, pp. 377–382. 12. Shibzukhov Z.M. O nekotorykh konstruktivnykh i korrektnykh klassakh algebraicheskikh sigma-pi algoritmov // Doklady RAN, 2010. T. 432, №4. S. 465-468. 13. Timofeev A.V., Pshibikhov V.Kh. Algoritmy obucheniya i minimizatsii slozhnosti polinomial'nykh raspoznayushchikh sistem // Izvestiya AN SSSR. Tekhnicheskaya kibernetika. 1974. № 7. S. 214-217. 14. Timofeev A.V., Lyutikova L.A. Razvitie i primenenie mnogoznachnykh logik i setevykh potokov v intellektual'nykh sistemakh // Trudy SPII RAN. Vyp. 2, 2005. S. 114-126. 15. Lyutikova L. A., Shmatova E. V. Analiz i sintez algoritmov raspoznavaniya obrazov s ispol'zovaniem peremenno-znachnoi logiki // "Informatsionnye tekhnologii". Tom 22. №4. 2016. S. 292—297. 16. Lyutikova L.A. Ispol'zovanie matematicheskoi logiki s peremennoi znachnost' pri modelirovanii sistem znanii // Vestnik Samarskogo gosudarstvennogo universiteta. Estestvennonauchnaya seriya. №6(65). 2008. S. 20-27. |