Translate this page:
Please select your language to translate the article


You can just close the window to don't translate
Library
Your profile

Back to contents

Legal Studies
Reference:

On certain aspects of public legal responsibility in the sphere of using artificial intelligence and autonomous robots

Gorokhova Svetlana Sergeevna

PhD in Law

Associate Professor, Department of International and Public Law, Financial University under the Government of the Russian Federation

109456, Russia, Moskovskaya oblast', g. Moscow, ul. 4-I veshnyakovskii proezd, 4, kab. 414

Swettalana@yandex.ru
Other publications by this author
 

 

DOI:

10.25136/2409-7136.2021.5.35557

Received:

21-04-2021


Published:

25-05-2021


Abstract: The subject of this research is certain theoretical aspects of public legal responsibility that may emerge in the spheres and situations of the use of artificial intelligence and robotic autonomous systems takes place. Special attention is given to interpretation of public legal responsibility as a legal category, and its role within the system of legal regulation of public relations in the country. The article explores the basic aspects of public responsibility in the sphere of potential use of the systems equipped with technological solutions based on artificial intelligence. The author describes the possible risks determined by the development and implementation of such technologies in accordance with trends of scientific and technological progress. The conclusion is made that currently in the Russian Federation does not have a liability system applicable particularly to damage or losses resulting from the use of new technologies, such as artificial intelligence. However, the existing liability regime at least ensures the basic protection for the victims suffered from the use of artificial intelligence technologies. However, the peculiar characteristics of these technologies and complexity of their application may hinder payment of compensations for inflicted harm in all cases when it seems justified, and not ensure fair and effective allocation of responsibility in a number of cases, including the violation of non-property rights of citizens.


Keywords:

artificial intelligence, public responsibility, artificial intelligence systems, responsibility, autonomous vehicle, guilt, legal responsibility, victim, criminal liability, administrative responsibility


Общественные отношения, существующие на данном этапе технического развития, обусловили необходимость трансформации правовой составляющей социального взаимодействия естественного (человеческого) и искусственного интеллектов, в первую очередь, путем включения новых, выходящих за рамки создаваемого веками правового тезауруса терминов, категорий и дефиниций в юридический обиход для характеристики нового экономического уклада цифрового общества. Современные возможности, и связанные с ними новые риски и угрозы для государства, общества и отдельных индивидов, формируют ситуацию, когда правовое поле, как минимум, должно подстроиться под воплощаемую реальность, и, как максимум, создать «задел» для обеспечения дальнейшего соответствия между развивающимся технологиям и социальными отношениями, в целом, и правовыми, в частности. Все это является обоснованием развития правового регулирования искусственного интеллекта (далее – ИИ), нейронных сетей на его основе, а также роботов и объектов робототехники. Формирование потребности в правовом регулировании применения ИИ, прямо зависит от появившихся с конца ХХ в. новых факторов, как позитивного, так и негативного толка, воздействующих практически на все сферы жизни общества.

Актуальной целью совершенствования уголовного и административного законодательства (ведь именно об этих видах ответственности идет речь, когда мы говорим о публичной юридической ответственности) служит уточнение видового состава субъектов права в данных сферах регулирования, параметров и условий юридической ответственности за действия и вероятный вред, причиненный системами оснащенными ИИ, различного рода роботами и объектами робототехники. Кроме того, под юрисдикцию указанных отраслей права и законодательства подпадают вопросы обеспечения законных прав и свобод человека и гражданина, в том числе - на неприкосновенность частной жизни, тайну корреспонденции, честь и достоинство личности. Так что, здесь усматривается и еще одна, отдельная цель – обеспечение и охрана законных интересов, прав и свобод всех субъектов права. Отдельно, в рамках административного права, можно говорить о создании модернизированной системы государственного управления, включающей новые органы исполнительной власти, нацеленные на преодоление сложившихся административных барьеров на пути разработки и внедрения интеллектуальных цифровых систем, которые будут заниматься вопросами этического контроля над данными разработками (в том числе и двойного назначения), лицензированием производства и готовых к эксплуатации устройств, их стандартизацией, экспертной оценкой и другими, сопряженными с указанными, вопросами. Несмотря на то, что в научном мире нет единого толкования,[1] трактующего юридическую ответственность как аксиоматичную категорию, тем не менее, виды юридической ответственности имеют статус базовых государственно-правовых институтов, входящих в правовую систему любого государства в независимости от принадлежности национальной правовой системы к той или иной правовой семье. Юридическая ответственность, обязательный элемент любой правовой конструкции, направленной на регулирование общественных отношений. Права человека, квинтэссенция светской правовой системы практически всех государств современного мира. А там, где есть право – должна быть обязанность, направленная на реализацию этого права, или же запрет, предназначенный защитить законное право или интерес от преступных посягательств. Соответственно, должны быть установлены правила, регламентирующие реализацию прав и выполнение обязанностей. И, конечно, необходима ответственность за несоблюдение правил, невыполнение обязанностей и нарушение запретов, поскольку только ответственность, в итоге, гарантирует нормальный ход человеческих отношений, урегулированных правовыми нормами.

Для того чтобы наступление правовой ответственности стало возможным, необходимо чтобы было нарушено правило, не выполнена обязанность или же не соблюден запрет, то есть лицо совершило деяние, в котором бы усматривались все признаки правонарушения. Правонарушение состоит из объективных (объект, объективная сторона) и субъективных (субъект, субъективная сторона) элементов его состава. Под составом правонарушения, в свою очередь, понимают совокупность объективных и субъективных элементов и признаков, необходимых и достаточных, для того, чтобы квалифицировать деяние как противоправное.

Можно выделить достаточно много видов юридической ответственности (материальную; гражданско-правовую; административную; уголовную, и др.), среди которых, в рамках нашего исследования, особое значение имеют административная и уголовная, так как они, как уже было отмечено, наиболее полно попадают под определение публично-правовой ответственности в праве. Так, Конституционный Суд РФ, исходит из того, что публичная ответственность – разновидность именно юридической, а не социальной ответственности. При этом, в отличие от авторов, отрицающих ее самостоятельный характер,[2] Конституционный Суд РФ рассматривает публичную ответственность как особый вид юридической ответственности, являющий собой форму государственного принуждения (Постановление КС РФ от 23.09.2014 № 24-П). Правом реализации публичной ответственности наделяется только государство в лице его компетентных органов, а, основанием для ее применения становится нарушение, которое носит противоправный и общественно опасный характер. Обязательным элементом состава публично-правового нарушения является вина правонарушителя. Формами проявления публично-правовой ответственности Конституционный Суд РФ называет административную и уголовную ответственность (например, Постановление КС РФ от 23.09.2014 № 24-П).[3]

Рассмотрим некоторые аспекты данного вида ответственности применительно к сферам использования ИИ, которых, к слову, становится все больше – техника для дома, средства транспорта, медицинское оборудование, беспилотные наземные и воздушные модули и другие устройства все чаще используют ИИ для автоматизации (автономизации) принятия решений. При этом, возрастающая степень автономии таких агрегатов, имея много преимуществ, также порождает и неизвестные риски. В частности, достаточно много вопросов возникает, когда ИИ в процессе деятельности создает опасность причинения вреда здоровью, или даже жизни людей, провоцирует возникновение иных потерь.

Уникальные особенности этих технологий – включая сложность, модификацию путем обновления или самообучения и ограниченную предсказуемость, могут затруднить определение того, что пошло не так, и кто должен нести ответственность, если это произойдет. Выявление виновных, может быть проблематичным, поскольку в процессе подготовки к применению, и собственно применения ИИ, в подавляющем большинстве случаев участвует много сторон (поставщик данных, проектировщик, производитель, программист, разработчик, пользователь и сама интеллектуальная система.[4] Еще сложнее все становится, если ошибка или дефект, вызвавшие ущерб или нарушение прав человека, детерминируются решением, которое ИИ принял сам, на основе имеющейся автономии с ограниченным участием или вообще без участия человека. Причем, ситуация с нарушением прав человека, напрямую не связанная с материальными потерями, гораздо более сложная, и тяжело поддается возмещению в рамках гражданского права. Именно здесь, крайне важно предусмотреть виды публично-правовой ответственности, которые гарантировали бы обеспечение конституционных (и иных) прав человека последствия нарушений которых не столь очевидны и значительно труднее измеримы, чем материальный ущерб.

Следует констатировать, что сегодня ситуация с определением потенциально ответственных в исторической перспективе лиц, развивается достаточно удивительным образом. Во-первых, имеют место добровольные действия со стороны ИТ-индустрии (разработчиков и производителей ИИ-технологий) и других, в том числе, правительственных организаций, [5]в принятии и публичном провозглашении своей приверженности этическим руководящим принципам, которые, как правило базируются на законах робототехники, сформулированных еще Айзеком Азимовым (робот не может причинить вреда человеку, и др.). В связи с этим отметим, что любые этические кодексы, и другие документы подобного рода не имеют никакой юридической силы, и в случае возникновения реальных юридических конфликтов, пострадавшим апеллировать к ним будет невозможно. Еще здесь необходимо указать, что к примеру, «Директива по этике ЕС»,[6] во главу угла ставит цель создания надежного ИИ. Однако, надежной, строго говоря, не может быть технология, а только люди, стоящие за ней. Таким образом, надежными (или нет) должны быть не системы ИИ, а люди, которые их программируют, и те, кто несет ответственность за юридически упорядоченные процедуры их внедрения и использования. Не может работать, по нашему мнению, и концепция моральной машины (moral machine), представленная Массачусетским технологическим институтом, по той простой причине, что возможность формирование морали у машин находится еще под большим вопросом, чем следование моральным нормам, не подкрепленным юридической ответственностью всех, без исключения, людей. Поэтому, не исключая важность разработки морально-этических норм для разработчиков ИИ-систем, мы настаиваем на их перевод в систему правовых ценностей – то есть закрепления посредством обязательных, а не рекомендательных норм.

Во-вторых, те же лица, которые представляют корпоративные этические кодексы, и убеждают всех в их достаточности, утверждают, что, поскольку системы ИИ могут действовать автономно, это освобождает их создателей от ответственности за свои решения и какие-либо косвенные неблагоприятные эффекты. В отношении этого тезиса, возникает закономерный вопрос, если не они, то кто будет отвечать?

В современной юридической литературе ведутся самые оживленные дискуссии на тему правосубъектности ИИ, в том числе, и его способности в той или иной мере самостоятельно нести юридическую ответственность. Так, ряд авторов обосновывает преждевременность постановки вопроса о придании статуса субъекта права ИИ.[7] Другие, как таковую, отрицают возможность предоставления такого статуса искусственному интеллекту, как объекту, созданному людьми, утверждая, что как субъект может рассматриваться только «спонтанный интеллект», самозародившегося в сети.[8] Или же, отмечают, что отсутствует правовая и философская необходимость придавать правовой статус субъекта ИИ, обосновывая это тем, что вместо того, чтобы предполагать, что этически спорное будущее с разумными машинами неизбежно, почему бы не выбрать управление машинами, которые строятся людьми, и бросить вызов технологическому императиву? Или человечество настолько в плену у идеи создания искусственной жизни, монстров и големов, что полагает это невозможным?[9]

Есть и сторонники позиционирования ИИ в качестве особой формы личности - «электронного лица», то есть наделения ее определенной правосубъектностью, в зависимости от различных факторов и сферы функционирования такой системы.[10]. В стане сторонников правосубъектности ИИ также имеются вариации решения вопроса. Например, некоторые считают, что возможно применение концепции коллективного субъекта права к электронному лицу, так как институт электронного лица не предполагает реального наделения юнитов искусственного интеллекта правосубъектностью физического лица, а, скорее, схож с институтом юридических лиц, однако с ещё большей нацеленностью на достижение конкретных практических целей. При этом, наделение ИИ правовым статусом электронного лица должно быть направлено не на признание автономности и самостоятельности такого юнита и освобождение физических и юридических лиц от ответственности за его действия, а наоборот, на укрепление такой подотчётности и решение проблем идентификации юнитов искусственного интеллекта и стоящих за ними реальных людей.[11]. Отметим, что вес концепции «электронного лица» придала в свое время Резолюция Civil Law Rules on Robotics Европейского Парламента,[12] предусматривавшая фактически полноценный правовой статус для ИИ, включающий права, обязанности (в т.ч. по уплате налогов) и ограниченную ответственность. Этот шаг Европейского парламента побудил ряд экспертов опубликовать открытое письмо в апреле 2018 года, призывающее комиссию игнорировать этот шаг парламента и отказаться от «электронной личности». Согласно этому письму, было бы неуместным, идеологическим, бессмысленным и непрактичным вводить такой правовой статус.[13] В настоящее время Европейская комиссия наметила свою будущую стратегию по решению проблемы ИИ, в которой его способность нести права, обязанности и ответственность – «электронная личность» на парламентском жаргоне – осталась невостребованной. [14]

Можно говорить и о таком мнении, согласно которому ИИ не субъект, а квазисубъект права. Как правило, как указывают исследователи, квазисубъект права представляет социально-правовую ценность, чья значимость является признанной в правовом сообществе. Квазисубъект обладает одним или несколькими признаками субъекта права, в отсутствии других необходимых и достаточных признаков. Чаще всего квазисубъект права не обладает признаком дееспособности, способностью нести юридическую ответственность, вырабатывать единую правовую волю. Еще одним признаком квазисубъекта является признание его правосубъектности законодателем, судом или частью правового сообщества. Есть среди квазисубъектов права и те, что получали такое признание, но никогда не обладали правовыми качествами, и не могут соответствовать правовой природе субъекта права. К ним относятся также роботы и ИИ.[15].

Еще одним подходом к определению места технологий ИИ, но правда только с поправкой на то, что речь идет о сильном или сверхсильном ИИ, является концепция частичной правоспособности, в соответствии с которой происходит наделение ИИ правами и обязанностями, в зависимости от исполняемой им функции. При этом, ответственность остается за физическими и юридическими лицами. [16]

В этой связи отметим, что в Российской Федерации определение ИИ дано в «Стратегии развития искусственного интеллекта до 2030 года», утвержденной Указом Президента РФ от 10.10.2019 N 490, [17] который определяется как «комплекс технологических решений», способных имитировать определенный ряд свойств человека и, прежде всего, такого свойства естественного разума, как способность к самообучению. Такая способность является основополагающей и актуализирует вопросы определения места ИИ в системе как уже сложившихся общественных отношений, так и тех, которым только предстоит формироваться в недалеком будущем в целях обеспечения благосостояния всех людей, национальной безопасности и экономического развития в современных условиях государственно-правового развития. Кроме того, 24 апреля 2020 года, Государственной Думой РФ, был принят Федеральный закон от 24.04.2020 N 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"», который вступил в силу с 1 июля того же года. Указанный акт, уже на законодательном уровне закрепил легальное определение ИИ в Российской Федерации, фактически дословно повторив определение, данное ранее в Стратегии.[18]

Исходя из указанной трактовки ИИ, можно сделать вывод, что на современном этапе технологического развития следует однозначно говорить о реальном существовании слабого ИИ узкого назначения (Narrow AI), а также перспективах скорого появления сильного ИИ общего назначения (General AI), в то время как сверхсильный интеллект (Super AI) пока даже не обозначен, хотя его развитие в достаточно отдаленном будущем научно прогнозируется. Существующий же в реальном времени Narrow AI работает в полной зависимости от созданного человеком алгоритма, и способен получать информацию только из того набора данных, который прямо указан в алгоритме, «помогая» людям в решении конкретной задачи. Т.е., такой вид ИИ напрямую соотноситься с определением его как системы специальных средств и приемов, используя которые компьютер, на основе уже накопленной информации, может отвечать на заданные ему вопросы, делая на базе этого экспертные выводы.[19] Не обладая подобием естественного разума, работая в заранее заданном диапазоне, слабый ИИ, безусловно, не может даже в самых смелых мечтах приблизиться к естественному интеллекту, поэтому, исходя из его внутренних свойств, не может считаться субъектом в отношениях.

Поэтому, не отвергая возможности дальнейшего технологического развития, и появления ИИ в статусе General AI, или даже Super AI, с актуализацией дискуссии о его правосубъектности, тем не менее, по нашему мнению, на текущем этапе технологического развития, единственным возможным фундаментальным и универсальным соображением об ИИ-системах является то, что нет никаких философских, технологических или юридических оснований считать их чем-то иным, кроме артефактов, порожденных человеческим интеллектом, а, следовательно - продуктов. Даже в свете существующих правил ответственности всегда теоретически возможно идентифицировать человека, который может быть признан виновным, и несет ответственность за ущерб, возникший в результате использования устройства. Поэтому, в рамках данной статьи мы не рассматриваем ИИ в качестве субъекта, который может быть наделен деликтоспособностью и сам нести ответственность за причиненный вред. Хотя очевидно, что сложности, возникающие в результате развития технологий ИИ и, в частности, машинного обучения, могут привести к повреждениям, потерям или убыткам в различных контекстах, например: в сфере права интеллектуальной собственности; обеспечения конфиденциальности; предотвращения экономических потерь; в сфере финансовых услуг.[20] Возможная дискриминация также является одним из обсуждаемых негативных эффектов от применения ИИ, поскольку системы ИИ, вынося свое решение, основываясь на статистических данных, нередко предвзяты с человеческой точки зрения, особенно по расовому и гендерному признаку - и когда они используются при наборе персонала, и когда, например, решаю вопросы о досрочном освобождении, сотрудничая с пенитенциарной системой, что может поставить в невыгодное положение определенные социальные группы.[21]

Стремительный рост числа автономных транспортных средств, и все более широкое использование ИИ в области медицины, даже исходя из теории вероятности, неизбежно повышает риск травм и телесных повреждений, связанных с ИИ. Там, где технология ИИ в конечном итоге используется на полностью автономной основе, в случае аварии или неправильного диагноза возникнут новые вопросы ответственности. Так, например, в США Большое жюри штата Аризона предъявило обвинение Рафаэле Васкес, бывшему водителю безопасности в проекте тестирования автономного автомобиля Uber, за смерть пешехода Элейн Херцберг в 2018 году в Темпе, штат Аризона. Автомобиль работал в режиме самостоятельного вождения в течение 19 минут, прежде чем он принял женщину за автомобиль, который, как он ожидал, предпримет уклоняющиеся действия. Только признав свою ошибку, он вернул управление водителю-человеку за несколько секунд до столкновения, которое водитель-человек не смог предотвратить. После происшествия власти штата запретили проводить тестирования на общих трассах, а Uber закрыл «беспилотный» эксперимент и уволил 300 операторов. Техническая ошибка не была доказана, хотя изначально предполагалась. Однако, эта ситуация поставила членов технического сообщества перед двумя неудобными, но тем не менее важными вопросами: была ли эта алгоритмическая трагедия неизбежной? И насколько мы будем готовы привыкнуть к подобным инцидентам?[22]

Кажется, маловероятным, что разработчики автомобиля могли разумно предвидеть, что система ИИ автомобиля ошибочно поверит, что женщина, толкающая велосипед с сумками покупок, свисающими с руля, была другим транспортным средством. С другой стороны, со стороны разработчиков, было бы вполне разумно предположить, что сенсорные технологии автомобиля не смогут правильно классифицировать объекты необычной формы, встречающиеся в нормальных условиях движения, и что ошибки такого рода могут привести к фатальным столкновениям.

Тем не менее, существующая юридическая практика, продолжает идти по пути поиска «стрелочника» человека-оператора (а не разработчика), как бы обосновано это не выглядело в данном случае. И вероятно, такая тенденция продолжится, в том числе и потому, что с точки зрения доказывания, это объективно проще, поскольку автономные автомобили, которые в настоящее время тестируются, могут содержать 100 метров строк кода, и, учитывая, что ни один программист не может предвидеть все возможные обстоятельства на реальной дороге, они должны еще и перманентно учиться, получать постоянные обновления.

Поэтому, по нашему мнению, разработчики этих технологий должны нести ответственность за то, что по неосторожности не предприняли шагов, которые предотвратили бы причиненный вред и правонарушения.

Но даже в этом случае возникает вопрос о наших разумных ожиданиях от технологической индустрии при принятии решения о выпуске новых технологий в реальный мир: мы правильно внедряем жесткие режимы контроля для новых фармацевтических препаратов, предпринимаем все меры для контроля развития и функционирования ядерных технологий, поддерживаем запрет на клонирование человека - разве это не также верно и для рискованных передовых цифровых инноваций?

Тем более, что в наши дни ИИ обладает способностью самообучаться и частично даже самостоятельно корректировать свое поведение. Предсказание конкретного поведения часто уже не может быть сделано его оператором. Чем больше распространяется технология, чем сложнее она становится, тем более проблематичным кажется юридическое сопоставление с производителями и пользователями.

Основой российского режима юридической ответственности всегда являлся человеческий проступок. Однако, поскольку ИИ сможет самостоятельно учиться и корректировать свое поведение по сравнению с устаревшими ИТ-системами, их поведение часто невозможно точно предсказать. Однако, и придавать статус субъекта ИИ, как мы уже обосновали выше, объективно, рано.

В силу вышеприведенных доводов, предлагаем законодательно установить административную процедуру допуска новых технологий ИИ для использования в гражданском обороте в социально значимых сферах. Установить соответствующе обязанности для всех, непосредственно причастных к появлению новой версии ИИ-продукта, что позволит, в дальнейшем разработать систему административной ответственности, адекватную создаваемым рискам.

В отношении уголовно-правовой ответственности, которая уже сегодня может возникнуть в связи с применением технологий ИИ, отметим несколько достаточно отдельных направлений, которые здесь можно рассмотреть.

В принципе, во взаимосвязи с разработкой и внедрением ИИ-технологий вероятны несколько возможных сценариев, способных потребовать вмешательства уголовно-правовой системы: в процессе проектирования системы ИИ, была допущена ошибка, спровоцировавшая наступление общественно опасных последствий, и вред объектам охраняемы уголовным законом; в процессе эксплуатации ИИ были допущены нарушения, повлекшие преступный результат;  интеллектуальная искусственная система подверглась компьютерной атаке, или каким-то иным способом был осуществлен перехват управления, что также спровоцировало последствия; ИИ был использован в преступных целях лицами в рамках служебного допуска (без захвата управления); сильный или сверхсильный ИИ, способный к саморазвитию принял решение о совершении деяния, квалифицируемого как преступное; и, наконец, ИИ был специально создан преступниками для совершения преступлений.

Наиболее прямой случай (с учетом того, что в общем смысле ИИ на сегодняшний день представляет собой информационно-телекоммуникационную технологию), когда деяния посягают на видовой объект уголовно-правовой защиты, предусмотренной главой 28 Уголовного кодекса РФ - компьютерную информацию. Так, согласно ст. 274 Уголовного кодекса РФ, нарушение правил эксплуатации средств хранения, обработки или передачи охраняемой компьютерной информации либо информационно-телекоммуникационных сетей и оконечного оборудования, а также правил доступа к информационно-телекоммуникационным сетям, повлекшее уничтожение, блокирование, модификацию либо копирование компьютерной информации, причинившее крупный ущерб, наказывается штрафом в размере до пятисот тысяч рублей или в размере заработной платы или иного дохода осужденного за период до восемнадцати месяцев, либо исправительными работами на срок от шести месяцев до одного года, либо ограничением свободы на срок до двух лет, либо принудительными работами на срок до двух лет, либо лишением свободы на тот же срок. То же деяние, повлекшее тяжкие последствия или создавшее угрозу их наступления, наказывается принудительными работами на срок до пяти лет либо лишением свободы на тот же срок.

Указанная норма вполне применима и к ситуациям с использованием ИИ. Ее бланкетный характер отсылает к конкретным инструкциям и правилам, устанавливающим порядок работы со средствами хранения, обработки или передачи охраняемой компьютерной информации, информационно-телекоммуникационными сетями и оконечным оборудованием в ведомстве или организации, нарушение которых повлекло уничтожение, блокирование, модификацию либо копирование информации, причинившее крупный ущерб. В данном случае необходимо только чтобы этот порядок работы с системами ИИ, был соответствующим образом установлен. Напомним также, что в соответствии с действующим законодательством, уголовной ответственности подлежат исключительно физические лица, хотя возможность введения корпоративной уголовной ответственности, в том числе, и за преступления в сфере компьютерной информации, по нашему мнению, следовало бы обсудить.

Неправомерный захват управлением систем ИИ может быть квалифицирован по ст. 272 Уголовного кодекса РФ.

Статья 273 УК РФ в настоящее время предусматривает ответственность за создание, распространение или использование компьютерных программ либо иной компьютерной информации, заведомо предназначенных для несанкционированного уничтожения, блокирования, модификации, копирования компьютерной информации или нейтрализации средств защиты компьютерной информации. Вероятно, следует подкорректировать ее редакцию для того, чтобы добиться более полного соответствия со случаями использования технологии ИИ, которая может создаваться не как вредоносная, но в дальнейшем модифицирована под противоправные, вредные цели. Предлагаем следующую редакцию статьи: Статья 273 Создание, использование и распространение вредоносных (модифицированных под вредоносные) компьютерных программ: "1. Создание, распространение или использование компьютерных программ либо иной компьютерной информации, заведомо предназначенных для несанкционированного уничтожения, блокирования, модификации, копирования компьютерной информации или нейтрализации средств защиты компьютерной информации, или модификация компьютерных программ под указанные цели".

Во-вторых, необходимо учитывать, что преступники могут использовать ИИ, роботов и объекты робототехники для совершения преступлений. Правоохранители по всему миру всерьез готовятся к появлению преступных групп, совершающих убийства, террористические акты, и другие преступления с использованием ИИ технологий и роботизированной техники. При этом, высокие технологии могут быть использованы не только для совершения преступлений против личности, но и для посягательств на общественную безопасность, совершения преступлений против мира и безопасности человечества, в том числе, при создании и использовании смертельного оружия. Опасность здесь обусловлена не только их способностью самостоятельно выбирать и атаковать цели без вмешательства человека, но и непониманием норм международного гуманитарного права и самой концепции ответственности за незаконные деяния, а также возможным сбоем в работе программного обеспечения или его взломом.[23]

Как мы уже отмечали, ответственность за вред, причиненный ИИ, должно нести лицо его программировавшее, либо ответственное за его эксплуатацию. Однако, здесь необходимо сделать некоторые оговорки. Такой подход станет приемлемым в рамках отечественной правоприменительной практики в случае, если ИИ, сможет быть признан источником повышенной опасности. В силу ст. 1079 Гражданского кодекса РФ,[24] юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих, обязаны возместить вред, причиненный источником повышенной опасности, независимо от наличия вины, если не докажут, что вред возник вследствие непреодолимой силы.[25] В указанной норме содержится перечень видов деятельности, являющихся потенциально опасными, однако перечень носит открытый характер, и суд, вправе признать опасной также и иную деятельность, отсутствующую в перечне.[26] Таким образом, по решению суда ИИ может быть признан источником повышенной опасности. То есть, вопрос, решаем даже в рамках действующего законодательства, тем не менее, как отмечают исследователи, более рациональным способом правового регулирования, здесь будет новая редакция п. 1 ст. 1079 ГК РФ прямо включающая в себя указание на то, что технологии ИИ представляют собой источник повышенной опасности.[27]

Кроме того, исходя из потенциальной опасности всех вновь создаваемых и вводимых в оборот технологий ИИ, по нашему мнению, следует установить административную процедуру проведения экспертного исследования внедряемых технологий, предназначенных для широкого круга пользователей, осуществляемую по принципу уже существующей экологической экспертизы, проводимой в целях опровержения потенциальной опасности планируемой хозяйственной деятельности предприятий.

Подводя итог, отметим, что поскольку ИИ является гетерогенным явлением, его регулирование не может быть единым и универсальным, даже в отношении правил ответственности. Любая попытка регулировать ИИ должна быть специфичной для конкретной технологии. Поэтому, чтобы обеспечить необходимый баланс ответственности, следует установить адаптированный под каждую технологию набор обязанностей, связанный с разработкой, производством и эксплуатацией таких систем: в том числе в отношении выбора правильной системы, мониторинга ее функционирования и обслуживания. На производителей должна быть возложена обязанность оборудовать технологию средствами регистрации информации о ее функционировании, поскольку, такая информация вероятнее всего будет необходима для установления того, материализовался ли потенциальный риск технологии.

Для обоснования предлагаемых нововведений, важно прояснить концептуальное различие между двумя различными типами неблагоприятных последствий, которые могут возникнуть (и уже возникали) в результате работы систем искусственного интеллекта: нарушения прав человека, предусмотренных Конституцией РФ и другими нормативными правовыми актами; материальный вред здоровью человека, имуществу или окружающей среде. Это отдельные и разные понятия и следствия, хотя, нарушение прав человека может произойти без какого-либо ощутимого вреда, и наоборот. Например, если технология ИИ, получит ваши личные данные в процессе обработки персональной информации для постановки медицинского диагноза, а затем использует их для выяснения ваших покупательских потребностей и формирования контекстной рекламы в интернете, это может быть рассмотрено как нарушение неприкосновенности частной жизни, но не повлечет за собой никакого ощутимого материального вреда. Или же беспилотное транспортное средство собьет на дороге дикое животное, напротив, вред будет нанесен, но права человека не пострадают. Возможна и другая ситуация, когда беспилотное транспортное средство врежется в другой автомобиль, управляемый человеком, будет нанесен и материальный ущерб, и нарушено конституционное право на жизнь.

Понимание наличия возможных комбинаций нарушений прав человека и материального ущерба крайне важно на текущий момент, потому, что, если ситуация с возмещением материального вреда достаточно легко решаема даже посредством уже существующих механизмов правовой ответственности, и может быть реализована в рамках гражданско-правовой ответственности (путем возмещения ущерба) или же с применением институтов превентивного страхования ответственности, то ситуация с нарушением прав человека, напрямую не связанная с материальными потерями, гораздо более сложная, и тяжело поддается возмещению в рамках гражданского права. Именно здесь, нужно предусмотреть виды публично-правовой ответственности, которые гарантировали бы обеспечение конституционных (и иных) прав человека, последствия нарушений которых не столь очевидны и значительно труднее измеримы, чем материальный ущерб.

References
1. Skrebneva, N. A. Yuridicheskaya otvetstvennost' v publichnom i chastnom prave: voprosy teorii i praktiki: dis. … kand. yurid. nauk: 12.00.01 / N. A. Skrebneva. –– Moskva, 2017. –– 189 s.
2. Lipinskii D. A. O sisteme prava i vidakh yuridicheskoi otvetstvennosti. // Pravovedenie. 2003. № 2 (247). S. 28.
3. Bolgova V. V. Ponyatie i priznaki publichno-pravovoi otvetstvennosti v resheniyakh Konstitutsionnogo Suda Rossiiskoi Federatsii// European science. №4(5).2015. S.29-31
4. Apostolova N.N. Otvetstvennost' za vred, prichinennyi iskusstvennym intellektom//Severo-Kavkazskii yuridicheskii vestnik. 2021. № 1. S. 112-119.
5. Ethics guidelines for trustworthy AI URL: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (data obrashcheniya: 24.04.2021)
6. Evropeiskaya eticheskaya khartiya ob ispol'zovanii iskusstvennogo intellekta v sudebnykh sistemakh i okruzhayushchikh ikh realiyakh// https://rm.coe.int/ru-ethical-charter-en-version-17-12-2018-mdl-06092019-2-/16809860f4 (data obrashcheniya: 29.04.2021)
7. Lawrence B. Solum. Legal Personhood for Artificial Intelligences// North Carolina law review. V.70 №4.1992
8. Jiahong Chen, Paul Burgess. The boundaries of legal personhood: how spontaneous intelligence can problematise diferences between humans, artifcial intelligence, companies and animals// Artifcial Intelligence and Law (2019) 27:73–92 https://doi.org/10.1007/s10506-018-9229-x (data obrashcheniya 28.04.2021)
9. Hassler S. Do We Have to Build Robots That Need Rights? [Elektronnyi resurs] // IEEE Xplore. URL: http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=7864739 (data obrashcheniya: 02.04.2021).
10. Ponkin I.V., Red'kina A.I. Iskusstvennyi intellekt s tochki zreniya prava// Pravo i novye tekhnologii. Tom 22, № 1. 2018 S.91-109
11. Morkhat P.M. Yunit iskusstvennogo intellekta kak elektronnoe litso// Vestnik Moskovskogo gosudarstvennogo oblastnogo universiteta. Seriya: Yurisprudentsiya. 2018, № 2. S.61-73
12. Civil Law Rules on Robotics European Parliament resolution of 16.02.2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). EP reference number: P8_TA (2017)005 // https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.html (data obrashcheniya: 28.04.2021)
13. Open letter to the European commission artificial intelligence and robotics https://www.politico.eu/wp-content/uploads/2018/04/RoboticsOpenLetter.pdf (data obrashcheniya 26.04.2021)
14. Revised Issues Paper on Intellectual Property Policy and Artificial Intelligence https://www.wipo.int/meetings/en/doc_details.jsp?doc_id=499504 (data obrashcheniya 26.04.2021)
15. Ponomareva E. V. Sub''ekty i kvazisub''ekty prava: teoretiko-pravovye problemy razgranicheniya: avtoreferat dis. ... kandidata yuridicheskikh nauk : 12.00.01 / Ponomareva Elena Vladimirovna; [Mesto zashchity: FGBOU VO Ural'skii gosudarstvennyi yuridicheskii universitet].-Ekaterinburg, 2019.-32 s.
16. Jan-Erik Schirmer, Gregor Bachmann. Artificial Intelligence and Legal Personality: Introducing Teilrechtsfähigkeit: A Partial Legal Status Made in Germany. Berlin.2018 https://www.rewi.hu-berlin.de/de/lf/ls/bcm/team/jan-erik-schirmer/publikationen-und-vortraege/Schirmer_RegulatingAI_Teilrechtsfaehigkeit.pdf (data obrashcheniya: 2.04.2021)
17. Ukaz Prezidenta RF ot 10.10.2019 N 490 «O razvitii iskusstvennogo intellekta v Rossiiskoi Federatsii» (vmeste s "Natsional'noi strategiei razvitiya iskusstvennogo intellekta na period do 2030 goda") // Ofitsial'nyi internet-portal pravovoi informatsii http://www.pravo.gov.ru, 11.10.2019.
18. Federal'nyi zakon ot 24.04.2020 N 123-FZ "O provedenii eksperimenta po ustanovleniyu spetsial'nogo regulirovaniya v tselyakh sozdaniya neobkhodimykh uslovii dlya razrabotki i vnedreniya tekhnologii iskusstvennogo intellekta v sub''ekte Rossiiskoi Federatsii-gorode federal'nogo znacheniya Moskve i vnesenii izmenenii v stat'i 6 i 10 Federal'nogo zakona "O personal'nykh dannykh"// Sobranie zakonodatel'stva RF, 27.04.2020, N 17, st. 2701
19. Proidakov, E.M. Sovremennoe sostoyanie iskusstvennogo intellekta / Naukovedcheskie issledovaniya. M.: Institut nauchnoi informatsii po obshchestvennym naukam RAN, 2018. S. 129-153.
20. Gorokhova S.S. Iskusstvennyi intellekt: instrument obespecheniya kiberbezopasnosti finansovoi sfery ili kiberugroza dlya bankov // Bankovskoe pravo. 2021. № 1. S. 35-46.
21. Popova A.V. Eticheskie printsipy vzaimodeistviya s iskusstvennym intellektom kak osnova pravovogo regulirovaniya // Pravovoe gosudarstvo: teoriya i praktika. 2020. № 3 (61). S. 34-43.
22. Franken-algorithms: the deadly consequences of unpredictable code URL: https://www.theguardian.com/technology/2018/aug/29/coding-algorithms-frankenalgos-program-danger data obrashcheniya: 21.04.2021)
23. Gracheva Yu. V., Aryamov A. A. Robotizatsiya i iskusstvennyi intellekt: ugolovno-pravovye riski v sfere obshchestvennoi bezopasnosti // Aktual'nye problemy rossiiskogo prava. — 2020. — T. 15. —№ 6. — S. 169—178.
24. Grazhdanskii kodeks Rossiiskoi Federatsii.Ch. 2 : feder. zakon ot 26 yanv. 1996 g. № 14-FZ // Sobranie zakonodatel'stva RF. 1996. № 5. St. 410.
25. O primenenii sudami grazhdanskogo zakonodatel'stva, reguliruyushchego otnosheniya po obyazatel'stvam vsledstvie prichineniya vreda zhizni ili zdorov'yu grazhdanina : postanovlenie Plenuma Verkhov. Suda RF ot 26 yanv. 2010 g. № 1 // Rossiiskaya gazeta. 2010. 5 fevr.
26. O primenenii sudami grazhdanskogo zakonodatel'stva, reguliruyushchego otnosheniya po obyazatel'stvam vsledstvie prichineniya vreda zhizni ili zdorov'yu grazhdanina : postanovlenie Plenuma Verkhov. Suda RF ot 26 yanv. 2010 g. № 1.
27. Khisamova Z.I., Begishev I.R.Ugolovnaya otvetstvennost' i iskusstvennyi intellekt: teoreticheskie i prikladnye aspekty // Vserossiiskii kriminologicheskii zhurnal. 2019. T. 13. № 4. S. 564-574.