DOI: 10.7256/2454-0668.2020.5.33286
Received:
22-06-2020
Published:
03-12-2020
Abstract:
Relevance of the selected topic is defined by implementation of autonomous robotic systems of various designation. The object of this research is the algorithmic problems emerging in monitoring the security of algorithms. The author determines the existing contradiction between the need for automation of robotics and the complexity of software implementation of this requirement. The research is carried out on the example of implementation of robotics in transport and military spheres. Realization of the trends of automation in these spheres generates certain legal and technological problems associated with algorithmic support of the autonomous systems. The indicated problems manifest in unrecoverable application errors, divided by the experts into the errors of first and second grade. The primary cause for the occurrence of such errors in robotics consists in misuse of autonomous robotic systems software. If for conventional technical systems the consequences of such errors and responsibility thereof are predictable, the problem of implementation of the autonomous robots needs to be addressed. Using the general scientific methods of analysis and synthesis, the author examines the key aspects of the current state and prospects of algorithmization of usage of autonomous systems. Leaning on the general review of algorithmic problems of implementation of autonomous robots, implications and manifestation of errors of first and second grade emerging in their implementation, the author synthesizes articulation of the scientific problem of division of responsibility between the developers and the users of systems in the context of elaboration of algorithms of their implementation,
Keywords:
autonomous robotics, autonomous combat robots, battlefield robotics, algorithmic support, problems of using robotics, developer responsibility, user responsibility, algorithm control, external constraints of algorithms, internal constraints of algorithms
Введение
Одной из областей применения интеллектуальных систем является реализация их в форме программного обеспечения робототехнических систем, в первую очередь – автономных. Необходимость разработки именно автономных робототехнических систем обусловлена многими факторами: динамичностью современной экономики, глобализацией и ростом масштабов управляемых систем, их распределённостью и мультиагентностью. В условиях действия этих факторов человек-оператор является инерциальным звеном в цепи принятия решения и автономизация робототехнических систем становится объективно необходимой. Но её внедрению препятствует ряд факторов: объективная сложность разработки обеспечивающего автономную работу прикладного программного обеспечения, определённое недоверие пользователей к системе, способной к относительно самостоятельным действиям, субъективное опасение потенциальной ответственности за возможные критичные ошибки поведения автономных систем, усугубляемое нерешенностью проблемы разделения ответственности за результаты их применения между разработчиками и эксплуатантами и ряд других [1-6]. Таким образом, можно выделить целый ряд проблем разработки и использования автономных роботов, которые требуется решить для запуска объективно необходимого процесса их интеллектуализации. Существенная часть этих проблем определяется тем, что автономная система должна действовать, не просто реализуя один из набора заранее разработанных алгоритмов: алгоритмы должны модифицироваться в ходе её обучения [7].
В результате возникает противоречие между потребностью в реализации автономных систем и возможностью их практической реализации. Это противоречие порождает проблему, находящуюся на стыке правовой и технической областей регулирования: все используемые сейчас методы обеспечения безопасности, разделения ответственности между разработчиком и эксплуатантом за применение автономных систем, основаны на принципе неизменности заложенных в робототехническую систему алгоритмов, жестко определяющих области ответственности каждого участника процесса разработки, производства и использования таких систем [8-11]. Но если принять то, что используемый алгоритм может быть модифицируемым, то разработчик не может в полной мере отвечать за применение робототехнической системы после модификации того, что было им разработано и протестировано, а эксплуатант, в свою очередь, не может полноценно управлять системой с не полностью известными ему принципами поведения. Возникшее противоречие между необходимостью использования автономных роботов и проблемами их создания и безопасного применения, отражается, в первую очередь, на разработке интеллектуализированного программного обеспечения для них. Без решения этих проблем не может быть гарантирована безопасность любого технологически развитого современного государства.
2.Современное состояние проблемы
Практика показывает, что наиболее актуальны проблемы внедрения автономных роботов и сопутствующие этой проблеме задачи контроля их алгоритмического обеспечения, в области транспорта и в сфере вооруженного противоборства. Требования к автономности боевых робототехнических систем определяются особенностями ведения современных военных действий, их динамичностью, распределённостью в пространстве и высоким уровнем неопределённости. В части транспортных систем требование автономности определяется большим количеством и разнородностью управляемых объектов, их удалением от логистических центров, многообразностью и многоуровневостью урбанизированного пейзажа, на котором они функционируют. При этом объективное требование автономизации применения входит в противоречие с необходимостью обеспечения безопасности применения робототехнических систем для прямых и косвенных участников процесса их использования. Осознавая это, разработчики систем, реализующих компоненты искусственного интеллекта, стремятся принимать определённые меры. Примером может служить концепция использования искусственного интеллекта в военном деле, разработанная Минобороны США (Department of Defense), задающая основные принципы использования систем искусственного интеллекта в системах военного и двойного назначения [12]:
· ограничение области применения минимально необходимой (responsible);
· предотвращение нештатных вариантов поведения систем искусственного интеллекта (equitable);
· предсказуемость поведения (traceable), понимание эксплуатантами принципов поведения систем;
· безопасность искусственного интеллекта (reliable), определяемая тем, что возможности военных систем искусственного интеллекта должны быть однозначно трактуемыми, а допустимые границы их поведения должны проверяться и периодически подтверждаться соответствующими испытаниями.
· управляемость (governable), наличие у эксплуатантов возможности обнаруживать и предотвращать нежелательные последствия использования искусственного интеллекта.
Не меньшее внимание оказывается проблеме контроля алгоритмов поведения робототехнических систем, в том числе, интеллектуализированных и автономных, в других сферах. В Рекомендации Парламентской Ассамблеи Совета Европы №2102 (2017) от 28.04.2017 «Слияние с технологиями, искусственный интеллект и права человека», сформулированы требования по обеспечению безопасности алгоритмов интеллектуальных систем (пункт 9.3), в том числе роботизированных [13]. Аналогичные положения содержатся в документах комиссии по гражданско-правовому регулированию в сфере робототехники Европарламента [14]. Но, как показывает анализ содержания этих документов, а в них, не описано, каким образом указанные требования должны быть реализованы. Нет таких указаний и ни в одном документе, регламентирующим ведение вооруженного противоборства, а также в транспортных, воздушных и водных кодексах разных стран. Не описаны требования к безопасности применения робототехники и в подзаконных актах: технических регламентах, правилах дорожного движения. В то же время, задача контроля алгоритмов в робототехнике требует формулировки конкретного метода решения.
Причём проблема актуальна не только для механических роботов, но и программ-ботов. Особенно, если последние управляют потенциально опасными системами или процессами.
Но, до настоящего времени, разработка алгоритмов, реализуемых в составе программного обеспечения, в том числе для робототехнических систем, осуществляется по определённым правилам, задаваемым в нормативной документации: регламентах и стандартах [15,16], документах, реализующих технологию RUP (Rational Unified Process). Указанные документы изначально ориентированы на разработку постоянных, не модифицируемых в ходе использования, алгоритмов. Все определяемые этими документами методы контроля алгоритмов: эвристические, основанные на последовательном анализе всех элементов алгоритма или программные, обеспечивающие проверку алгоритмов через контроль функционала реализующей его программы – разработаны для «жестких» алгоритмов. И, соответственно, разработчик ограничивается при проверках формированием вариантов поведения, реализуемых через максимально полный набор контрольных примеров для проведения приёмо-сдаточных испытаний. А ответственность эксплуатанта определяется знанием границ применимости системы, для которых проводились проверки, и работой в исключительно данных границах. Для модифицируемых алгоритмов такая система не работает. Исходя из этого, сложившаяся ситуация сводит на нет все попытки обеспечить безопасность использования автономных роботов организационными мерами: как в военной сфере [17-25], так и в сфере мирного использования искусственного интеллекта [26-30]. Анализ руководящих документов показывает, что в рамках существующей системы нормативно-технической документации эти проблемы решены быть не могут.
В то же время, формулируя требования к разрабатываемым системам, заказчик и эксплуатанты автономных робототехнических комплексов оперируют такими показателями алгоритмов как настраиваемость, модифицируемость (обучаемость) и самообучаемость. Технически, эти требования выполнимы уже на современном этапе развития науки и техники. Кроме одного – гарантировать предсказуемость и безопасность поведения робототехнических систем. Решение последней задачи может быть найдено за счёт обеспечения контроля алгоритмов, заложенных в интеллектуальные системы, учитывающего их возможную модификацию в ходе эксплуатации (обучения).
3.Постановка задачи контроля алгоритмов интеллектуальных систем
Сформулированная задача по своей сущности аналогична одной из задач искусственного интеллекта: задаче удовлетворения ограничений (constraint satisfaction problem). Хотя для контроля безопасности модифицируемых и самообучающихся алгоритмов, реализуемых в автономных робототехнических системах, такая задача в прямой постановке пока не ставилась.
Проблема контроля алгоритмов осложняется тем, что, при единой цели применения робототехнической системы, алгоритм её работы не является чем-то однородным, он состоит из одновременно выполняющихся нескольких параллельных алгоритмов, управляющих подсистемами робота: алгоритма обработки информации о внешней среде (например, технического зрения), алгоритма организации перемещения в пространстве, алгоритма применения исполнительных механизмов и других. Каждый из этих составных алгоритмов, в свою очередь, может включать вложенные алгоритмы описания операций и так далее. Теоретически, можно каждый из них контролировать на безопасность и надеяться, что общий результат действий будет также безопасен, но гарантии этому нет, как и нет строго математического обоснования безопасности поведения.
Учитывая наличие частных алгоритмов при формальном отсутствии единого, объединяющего их все, подходы к решению задачи контроля безопасности алгоритмов, с определённой степенью условности, можно разделить на две большие группы: задание «внутренних» и «внешних» ограничений алгоритмов.
К «внутренним» ограничениям алгоритмов можно, например, отнести граничные условия, задаваемые при использовании методов оптимизации, то есть ограничения параметров целевой функции в частных алгоритмах управления: граничные условия, «штрафные» функции и т.п.
Для типовой задачи оптимизации, они могут быть записаны в виде пары:
- целевая функция с расчётными показателями вектора управления хj при постоянных коэффициентах сj;
- система ограничений вида .
При использовании такого подхода необходимо учитывать, что ограничения задаются для конкретного вида целевой функции, у которой в процессе поиска решения меняются только управляемые параметры. Полагая, что предусмотренная в автономных роботизированных системах модификация алгоритмов поведения может, с высокой вероятностью, приводить к изменению параметров поведенческой функции, применение «внутренних» ограничений не может однозначно гарантировать безопасность поведения системы в целом. А с учётом множественности параллельно используемых алгоритмов, вероятность критической ошибки безопасности повышается ещё больше.
К «внешним» ограничениям можно отнести задание границ поведения системы, описывающих допустимую область её применения в виде набора граничных правил. То есть ограничение не отдельных параметров функции F(x), и не частных алгоритмов выполнения операций, а вариантов итогового значения целевой функции в рамках пространства возможных поведенческих траекторий (областей).
Наиболее простой пример реализации подобного подхода – применение механических ограничителей, сокращающих амплитуду движения исполнительных элементов промышленных роботов в заданных направлениях. Примером в части ограничения программных алгоритмов может служить нанесение специальной разметки для управления движением беспилотных автомобилей.
В первом приближении, именно использование «внешних» ограничений представляется более надёжным методом обеспечения безопасности поведения робототехнических систем.
4.Возможные варианты решения задачи
Анализ предметной области показал, что в процессе разработки программного обеспечения автономных робототехнических систем возникает проблема выбора между «внутренними» и «внешними» ограничениями, реализуемыми при разработке алгоритмов их функционирования.
Если для решения задачи обеспечения безопасности применения автономных робототехнических систем выбирается метод «внутренних» ограничений, для ограничения алгоритмов могут быть использованы известные подходы, реализуемые в качестве ограничений в оптимизационных методах поиска оптимума поведенческой функции: методы поиска с отсечением, методы штрафных функций, методы согласования, генетические алгоритмы и другие методы.
При выборе метода «внешних» ограничений, в качестве последних может быть использован принцип задания общих границ поведения системы: в пространстве, во времени и в виде набора разрешенных (запрещённых) пространственных и логических переменных.
Рассматриваемые подходы имеют свои положительные стороны и недостатки, как с точки зрения простоты реализации, так и влияния на ограничение функциональности управляемой системы, обеспечения гарантированной безопасности её применения.
Анализ этих особенностей с учётом роли и места программного обеспечения, реализующего алгоритмы поведения робототехнических систем, позволяет сделать выводы о влиянии используемых методов ограничений на эффективность и безопасность системы в целом. Результаты сравнения особенностей методов приведены в таблице 1.
Таблица 1 – Сравнение методов ограничения алгоритмов
Наименование метода
|
Сущность метода
|
Качественные характеристики метода
|
Оценка простоты реализации
|
Обеспечение надёжности контроля поведения системы по известным алгоритмам
|
Наличие возможности контроля модифицирующихся алгоритмов
|
Отсутствие влияния на функциональность систем
|
«Внешние» ограничения для автономной системы, задающие границы её функционирования
|
Пространственные и логические ограничения на поведение системы
|
+
|
+
|
+
|
-
|
«Внутренние» ограничения системы, ограничения алгоритмов, определяющих её поведение
|
Ограничения, аналогичные применяемым в методах оптимизационных расчётов
|
+
|
+
|
-
|
+
|
Сравнительный анализ подходов показывает примерно равную предпочтительность методов контроля разрабатываемых алгоритмов по основным параметрам.
В то же время, исходя из того, что для случая использования модифицируемых алгоритмов и самообучающихся систем, однозначно можно быть уверенным только в надёжности метода внешних ограничений, безальтернативно применимым остаётся только он.
Обобщённая последовательность реализации алгоритмов, основанных на «внешних» ограничениях, может быть следующий:
1) формирование матрицы возможных ситуаций поведения системы;
2) выбор наиболее критичных с точки зрения безопасности типовых ситуаций применения;
3) формализация, описание типовых ситуаций в единых фазовых координатах пространства поведения;
4) объединение ситуаций в общем пространстве, отрисовка единых внешних границ поведения, внутри которых обеспечивается безопасное применение системы;
5) формальное описание границ поведения системы в виде граничных параметров её поведения.
В то же время, анализ особенностей применяемых методов задания ограничений показывает: «внешние» ограничения могут накладывать определённые рамки на применение робототехнической системы, снижая её функциональность. Для автономных систем этот фактор может быть критичным, как с точки зрения реализации основных функций, так и по защищенности от неблагоприятных внешних воздействий, в том числе направленных. И, учитывая это, более перспективными можно всё же считать методы «внутреннего» контроля, обладающие большей надежностью при разработке частных алгоритмов и обеспечивающие большую гибкость поведения.
Исходя из этого, можно сделать вывод, что направление, связанное с использованием «внутренних» ограничений, будет развиваться по мере совершенствования технологий и математических методов. Вероятнее всего, как это происходит обычно – по принципу «от простого к сложному», от элементарных ограничений отдельных алгоритмов к выработке более сложных, но более эффективных методов ограничения взаимосвязанных алгоритмических групп. Например, с реализацией следующего обобщённого алгоритма:
1) формирование обобщённого алгоритма поведения системы и задание ограничений в нём;
2) декомпозиция алгоритма на необходимое количество уровней вниз, в идеале – до алгоритма выполнения отдельной операции;
3) последовательное тиражирование ограничений обобщённого алгоритма на его составные части, частные алгоритмы;
4) поиск точек корреляции, корректировка частных алгоритмов с их учётом;
5) проверка функционирования сформулированного набора частных ограничений на устойчивость и надёжность на всех режимах функционирования системы в целом.
Данный алгоритм является итерационным и, вполне возможно, он обеспечит реализацию в создании интеллектуальных систем подходов, основанных на «внутренних» ограничениях, реализуемых системой вложенных алгоритмов. А в перспективе, с развитием методологии искусственного интеллекта, возможности использования «внутренних» ограничений будут расширяться и, вполне вероятно, что именно этот подход станет основным.
Заключение
В данной работе задача ограничения алгоритмов интеллектуальных систем сформулирована в самом общем виде, на примере решения проблемы использования автономной робототехники только в двух областях человеческой деятельности. Но проблема, для решения которой сформулирована постановка задачи, крайне актуальна для любых систем, несущих потенциальную опасность для человека: транспортных и промышленных, обладающих кинетической энергией, боевых, сама цель которых – уничтожение [31-37]. Эта проблема требует решения: организационного, в части внесения изменений в нормативную документацию, и технологического, разработкой методов контроля модифицируемых алгоритмов. Последнее может быть сделано, для начала любым доступным способом, впоследствии, с развитием технологий – оптимальным. Сформулированная в статье постановка задачи служит созданию предпосылок к разрешению указанной проблемы.
References
1. Voennaya mysl' v terminakh i opredeleniyakh: v 3 t. / sost. N. N. Tyutyunnikov. M. : Pero, 2018. T. 3. Informatizatsiya Vooruzhennykh Sil. 472 s.
2. Simulin A. A. i dr. Nekotorye aspekty ispol'zovaniya robototekhniki v voennom dele // Sborniki konferentsii NITs Sotsiosfera. 2015. №27. S.67-71.
3. Hover and stare: FCS testing UAVS // Military.com. URL: https://www.military.com/defensetech/2008/05/30/hover-and-stare-fcs-testing-uavs (data obrashcheniya: 30.05.2008).
4. My ubili 4700 chelovek, no eto voina. Amerikanskii senator raskryl chislo zhertv bespilotnikov. Novosti TUT.BY. URL: https://news.tut.by/world/336031.html (data obrashcheniya: 21.09.2017).
5. Bespilotniki SShA ubivayut bol'shoe chislo mirnykh zhitelei. Novosti aviatsii i kosmonavtiki. URL: http://avianews.info/bespilotniki-ssha-ubivayut-bolshoe-chislo-mirnyh-zhitelej/ (data obrashcheniya: 21.09.2017).
6. Misheni bespilotnikov v Afganistane: terroristy ili mirnye zhiteli? Mir. URL: http://www.dw.com/ru/misheni-bespilotnikov-v-afganistane-terroristy-ili-mirnye-zhiteli/a-19200599 (data obrashcheniya: 21.09.2017).
7. Morkhat P. M. Iskusstvennyi intellekt: pravovoi vzglyad. M. : Buki Vedi, 2017. 257 s.
8. Sofge E. America's Robot Army: Are Unmanned Fighters Ready for Combat? // Popular Mechanics. Dec.18 2009. URL: https://www.popularmechanics.com/military/a2653/4252643/ (data obrashcheniya: 1.04.2019).
9. Robot targets men in Iraq // Defense Tech. April 2008. URL: https://www.military.com/defensetech/2008/04/17/robot-targets-men-in-iraq (data obrashcheniya: 19.04.2008).
10. Report of the Special Reporter on extrajudicial, summary or arbitrary executions, Christof Heyns // UN General Assembly. URL:http://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session23/A-HRC-23-47_en.pdf (data obrashcheniya: 5.02.2015).
11. Tobiast T. Gibson. Ethics and new defense technology // The Hill. 2015. URL: https://thehill.com/blogs/pundits-blog/defense/234403-ethics-and-new-defense-technology (data obrashcheniya: 30.01.2015).
12. DOD Adopts Ethical Principles for Artificial Intelligence. US Dept of Defense. URL: https://www.defense.gov/Newsroom/Releases/Release/Article/2091996/dod-adopts-ethical-principles-for-artificial-intelligence (data obrashcheniya: 05.03.2020).
13. Recommendation № 2102 (2017) of Parliamentary Assembly of the Council of Europe «Technological convergence, artificial intelligence and human rights», 28 April 2017. URL: (data obrashcheniya: 15.04.2020).
14. Recommendation № 2069 (2015) of Parliamentary Assembly of the Council of Europe «Technological convergence, artificial intelligence and human rights», 23 April 2015. URL: (data obrashcheniya: 15.04.2020).
15. GOST R 60.2.2.1-2016/ ISO 13482: 2014 Roboty i robototekhnicheskie ustroistva. Trebovaniya po bezopasnosti dlya robotov po personal'nomu ukhodu. M. : Standartinform, 2016, 78 s.
16. GOST R 60.1.2.2-2016/ISO 10218-2:2011. Roboty i robototekhnicheskie ustroistva. Trebovaniya po bezopasnosti dlya promyshlennykh robotov. M.: Standartinform, 2016. Ch. 2, 70 s.
17. V OON obsuzhdaetsya vopros zapreta primeneniya voennykh robotov // Novosti Hi-Tech. URL:http://android-robot.com/v-oon-obsuzhdaetsya-vopros-zapreta-primeneniya-voennyx-robotov (data obrashcheniya: 06.10.2015).
18. Vudvord S. Folklendskaya voina. Memuary komanduyushchego Folklendskoi udarnoi gruppy. 2005. Simferopol': Dolya, 415 c.
19. Chirov D.S., Novak K.V. Perspektivnye napravleniya razvitiya robototekhnicheskikh kompleksov spetsial'nogo naznacheniya // Voprosy bezopasnosti. 2018. № 2. S. 50-59. DOI: 10.25136/2409-7543.2018.2.22737.
20. Khripunov S.P., Blagodaryashchev I.V., Chirov D.S. Voennaya robototekhnika: sovremennye trendy i vektory razvitiya // Trendy i upravlenie. 2015. № 4. S. 410-422.
21. Khodarenok M.M., Kalinin I. Tret'ya strategiya: kak budut voevat' SShA // Sait «Gazeta.RU». URL: https://www.gazeta.ru/army/2017/11/28/11016068.shtml (data obrashcheniya: 02.12.2017).
22. Army Equipment Program in support of President’s Budget 2016 / US Army G-8, 2015. 56 p.
23. Capturing technology. Rethinking Arms Control. Conference Reader. – Berlin: German Federal Foreign Office, 2019. 50 p.
24. Vypasnyak V.I. i dr. O povyshenii effektivnosti primeneniya vysokotochnogo oruzhiya v voennykh konfliktakh lokal'nogo i regional'nogo masshtaba // Vestnik Akademii voennykh nauk. 2008. №4(25). S. 43-48.
25. Tikhanychev O.V. O pravovykh i eticheskikh aspektakh avtonomnogo ispol'zovaniya robototekhnicheskikh kompleksov v sfere vooruzhennogo protivoborstva // Voprosy bezopasnosti. 2019. № 3. S.33-42. DOI: 10.25136/2409-7543.2019.3.28960.
26. Nesterov A. V. Vozmozhny li pravootnosheniya i yuridicheskie vzaimodeistviya mezhdu lyud'mi i robotami? M. : Preprint, sentyabr' 2016. 14 s.
27. Lopatina T. M. Nekotorye aspekty problemy moral'noi otvetstvennosti komp'yuternykh sistem // Pravovye voprosy svyazi. 2005. №1. S.12-13.
28. Tikhanychev O.V., Tikhanycheva E.O. Problemy ispol'zovaniya potentsial'no opasnykh tekhnologii v sovremennom mire // Sotsiosfera. 2017. № 2. S. 33-36. DOI: 10.24044/sph.2017.2.6.
29. Bechel W. Attributing Responsibulity to Computer Systems. In: Metaphiiosophy, 1985. No.16. 189 r.
30. Johnson D. G. Computer Systems: Moral entities but not moral agents // Ethics and Information Technology. 2006. № 8. P. 195–204. DOI 10.1007/s10676-006-9111.
31. Schuller A.L. At the Crossroads of Control: The Intersection of Artificial Intelligence in Autonomous Weapon Systems with International Humanitarian Law // Harvard National Security Journal. 2017. Vol. 8. R. 379–425.
32. Kholikov I.V., Sazonova K.L. Mezhdunarodno-pravovaya otvetstvennost' v kontekste pravovoi reglamentatsii voennogo ispol'zovaniya bespilotnykh letatel'nykh apparatov // Voennoe pravo. 2017. № 4. S. 217–226.
33. Sheremet I.B., Rudianov N.A., Ryabov A.V., Khrushchev V.S. O neobkhodimosti razrabotki kontseptsii postroeniya i primeneniya avtonomnykh robototekhnicheskikh kompleksov voennogo naznacheniya // Ekstremal'naya robototekhnika. 2016. T. 1. № 1. S. 35–39.
34. Pflimlin É. Drones et robots: La guerre des futurs. Levallois-Perret (France), 2017. 96 p.
35. Bugakov I.A., Tsar'kov A.N. Intellektualizatsiya voennoi robototekhniki: terminologicheskaya i tekhnologicheskaya problemy // Izvestiya Instituta inzhenernoi fiziki. 2017. T. 3. № 45. S. 87–93.
36. Beard J.M. Autonomous weapons and human responsibilities. Georgetown Journal of International Law. 2014. Vol. 45. R. 617–681.
37. Tikhanychev O.V. Avtonomnaya robototekhnika: o probleme kontrolya modifitsiruemykh algoritmov // Voprosy bezopasnosti. 2020. № 2. S. 36-47. DOI: 10.25136/2409-7543.2020.2.31937
|