Искусственный интеллект как источник повышенной опасности антонов

0
23

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ КАК УЧАСТНИК ГРАЖДАНСКИХ ОТНОШЕНИЙ: ТРАНСФОРМАЦИЯ ПРАВА Текст научной статьи по специальности «Право»

Похожие темы научных работ по праву , автор научной работы — Вавилин Евгений Валерьевич

В качестве основного аргумента невозможности наделения правосубъектностью ИИ противники выдвигают отсутствие у него воли [10]. Между тем из всех известных гражданскому праву субъектов — физического лица, юридического лица, публично-правовых образований — волей в собственно биологическом, психологическом смысле обладает исключительно физическое лицо. По отношению ко всем остальным субъектам понятие воли применяется в специальном условном смысле, подразумевая коллективное волеизъявление или иную демонстрацию намерений.

Согласно первому подходу правовая презумпция представляет собой «закрепленное в нормах права предположение о наличии или отсутствии юридических фактов, основанное на связи между ними и фактами наличными и подтвержденное предшествующим опытом» [11, с. 91]. Данный подход демонстрирует логико-философское понимание рассматриваемого понятия. Презумпция в этом смысле — отдельный вид индуктивного умозаключения (от частного к общему), который делается на основе предшествующего опыта.

Проанализированы сложившиеся подходы к пониманию правовой природы и правового статуса искусственного интеллекта как в отечественной, так и в зарубежной доктрине. Выявлены наиболее значимые позиции правоведов в данной сфере, а также спорные проблемы. Намечены возможные подходы к регулированию гражданских отношений с участием разных форм искусственного интеллекта.

В частности, в 2016 г. была предпринята попытка предложить соответствующие изменения в гражданское законодательство, дополнив Гражданский кодекс РФ главой о роботах-агентах [16]. Эта попытка не лишена рационального зерна в части способности электронных агентов иметь права и обязанности, нести гражданско-правовую ответственность. Однако во многом механическое переложение главы о юридических лицах не отразило всей специфики принципиально иной природы цифровых субъектов и отношений в сфере использования ИИ.

2. On approval of the Concept for the development of regulation of relations in the field of artificial intelligence technologies and robotics until 2024: decree of the Government of the Russian Federation no. 2129-r of August 19, 2020 (accessed 23.03.2022). (In Russ.)

Во-вторых, самостоятельно принимаемые системами искусственного интеллекта решения могут нарушать конституционные права и свободы граждан, в частности, право на равенство, а также право на неприкосновенность частной жизни. Испытание отдельных систем продемонстрировало, что в некоторых случаях их решения носят явно дискриминирующий характер [5]. Разумного же объяснения им не находится, поскольку искусственный интеллект функционирует в режиме «черного ящика», когда внутренне устройство и механизм работы системы настолько сложны, что недоступны для человеческого понимания. Проблема стоит настолько остро, что в начале текущего года Совет Федерации Российской Федерации дал министерствам поручение разработать меры, которые бы препятствовали «дискриминации граждан» искусственным интеллектом, а также предусмотреть юридическую возможность и порядок обжалования его решений [6].

TO THE QUESTION OF THE PRESUMPTION OF DANGER OF ARTIFICIAL INTELLIGENCE

может являться изложенная в части 4 статьи 5 Федерального закона от 21 декабря 2021 года № 417-ФЗ «О внесении изменений в отдельные законодательные акты Российской Федерации» новелла, которая позволит с 20 июня 2022 года выносить решения о возбуждении исполнительного производства без участия должностных лиц, то есть в автоматическом режиме [14]. Однако не исключено, что стремительность развития новых технологий в скором времени позволит говорить и о приобретении ими способности функционировать автономно.

ЧИТАТЬ ТАКЖЕ:  Что представляет собой система искусственного интеллекта построенная на логическом принципе

Если ИИ сертифицирован и прошел государственную регистрацию, то его волеизъявление прогнозируемо и одобрено государственными органами. Таким образом, будет обеспечена безопасность его деятельности, подтверждены частная и общественная польза и легитимность. В этом случае вред, причиненный действиями ИИ, должен возмещаться из государственной казны, по аналогии с вредом, причиненными действиями (бездействием) государственных органов.

При этом, как и в отношении других участников гражданских отношений, эти установления должны содержать императивы двух уровней. Первый из них — комплекс целеполагающих начал, концентрирующих в себе представления о нормальном, долженствующем развитии гражданско-правовых отношений, выраженных в форме идей, освоенных доктриной и функционирующих в процессе законотворчества. Эти принципы осуществления представляют собой концентрированные подходы к правореа-лизации и правоприменению. В данной группе начал выражены ценностные, гуманистические, социальные приоритеты, на которых должен быть основан механизм осуществления прав и исполнения обязанностей ИИ. К таковым относятся принцип гарантированного осуществления прав и исполнения обязанностей, принцип сочетания частных (личных) и общественных интересов, принцип эффективности.

Важной проблемой, требующей неспешного рассмотрения, является проблема дефиниций понятия «искусственный интеллект». Пока можно констатировать, что многочисленные попытки исчерпывающе и универсально определить указанное понятие, отражают отдельные, свойственные не всем видам цифровых, электронных, программируемых устройств, характеристики, а иногда грешат описательностью и узкоспециальным подходом [2. С. 46-91].

Если ИИ осуществляет функции государственных органов или ответственного лица, то ответственность за его действия (бездействие) должна быть возложена на государство, субъекта государства или муниципальное образование. Если ИИ действует в интересах физического лица — ответственным за деяния ИИ должен признаваться бенефициар. Не исключена в ряде случаев необходимость признавать самостоятельную ответственность ИИ за свои деяния.

Сегодня технологии искусственного интеллекта представляются в основном в позитивном свете. Они призваны избавить человека от рутинных операций. Однако возникает вопрос: могут ли новые технологии не только созидать, но и разрушать? Б. Т. Разгильдиев на данный вопрос отвечает положительно, рассуждая следующим образом: «Искусственный интеллект создается интеллектом естественным — следовательно, качества и свойства, присущие интеллекту человека, в большей или меньшей мере либо равные ему может получить и интеллект искусственный» [3, а 157]. Помимо этого, по его мнению, нужно принимать во внимание то, что в ходе разработки искусственно интеллектуальных систем человеком могут быть допущены ошибки технического характера, вследствие чего данные системы приобретают изначально непредусмотренные разрушительные свойства.

13. Arkhipov, V.V. & Naumov, V.B. (2017) Iskusstvennyy intellekt i avtonomnye ustroystva v kontekste prava: o razrabotke pervogo v Rossii zakona o robototekhnike [Artificial intelligence and autonomous devices in the context of law: on the development of the first Russian law on robotics]. Trudy SPIIRAN- SPIIRASProceedings. 55. pp. 46-62.

Obviously, an AI must be endowed with legal capacity and be responsible for its actions, otherwise we cannot use the full potential of an AI as a technology (person), and the actions of such a participant in legal relations cannot be recognised as legally significant.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь