Содержание статьи
Антонов искусственный интеллект как источник повышенной опасности
Ключевые слова
Однако, как правило, в отношении ИИ специалисты не ведут речь о самоценности цифровых актантов. Цель правовой регламентации отношений в указанной сфере — упорядочить их и создать возможности безопасного и полезного использования достижений 1Т-технологий во благо человечеству. Поэтому идея создания нового субъекта права — электронного лица -нашла достаточно активную поддержку среди правоведов [2, 7, 8].
Именно в связи с появлением новых участников гражданских отношений — различных форм ИИ — в настоящее время происходит коренное переустройство самой системы права, начиная с его субъектно-объектного состава вплоть до пересмотра базовых категорий правоспособности, делик-тоспособности, принципов осуществления прав и исполнения обязанностей.
Artificial Intelligence (hereinafter referred to as AI) carriers are active participants in civil relations. Therefore, questions of legal nature of AI units, their ability to possess rights and bear responsibilities, exercise rights and perform responsibilities, questions of liability limits for improper exercise of rights and performance of responsibilities by AI units are most relevant. For law, the defining characteristic of any participant in civil relations is its role in the exercise of rights and the performance of duties. The digital actor must also be viewed from this perspective. One of the central debates in this area is the possibility of conferring legal capacity on digital actors. This position has found supporters and opponents both in domestic science and abroad. At the same time it is necessary to take into account the specifics of will, consciousness and other anthropomorphic qualities of AI carriers. Complex neural networks have similar anthropomorphic qualities, the nature of which is a digital algorithm. AI is capable of expressing its will in accordance with the interest, goals and motives set by software algorithms, i.e. it is technological in nature. Obviously, an AI must be endowed with legal capacity and be responsible for its actions, otherwise we cannot use the full potential of an AI as a technology (person), and the actions of such a participant in legal relations cannot be recognised as legally significant. According to its purpose and registration an AI medium can be endowed with different legal personality: to be an agent — a subject with a narrow special legal capacity within certain functions, to participate in civil relations as a full subject, or to act as an object of legal relations at all. This legal capacity is conditioned by the robot having a certain set of qualities, such as the level of self-awareness, autonomy, complexity of neural networks, and competences. It is necessary to create a classification of AI forms by legal personality, by competences, which are certified through state registration. Legal statuses of different types of AI should be defined, including a new specific legal status of limited digital legal capacity. It is necessary to consider the legal personality of AI in relation to its exercise of rights, principles of law and legal content. It is necessary to create for AI varieties a certain mechanism of responsibility conditioned by the legal status assigned to it at the state registration. With respect to AI carriers the nature of law execution changes — subjective expression of will disappears, the execution becomes objective, unbiased. AI software must incorporate a system of principles for the exercise of rights and the performance of duties. In this way, the AI will be certified to a specific scope of powers, be competence-oriented and have a specific legal capacity.
Теоретическая мысль уже приходила к необходимости выработки критериев, в соответствии с которыми отдельные разновидности ИИ могут наделяться правами и обязанностями, а также деликтоспосбностью, поскольку это проблема, вызванная к жизни необходимостью оценивать юридически значимые действия ИИ.
Следует обратить внимание на тот факт, что разнообразные носители искусственного интеллекта в той или иной мере уже выполняют определенные операции, юридически значимые действия (в большей или меньшей степени автономно): с помощью голосовых сообщений боты информируют потребителей услуг, способны поддерживать простейшие диалоги, в финансовой сфере они проводят некоторые простейшие операции, транзакции, в разных сферах постепенно внедряются беспилотные транспортные средства.
Кроме того, уже сейчас умные роботы могут в разной степени «осознавать» и оценивать свои действия. Таким образом, правовой статус ИИ будет зависеть от понимания специфики его самосознания (либо отсутствия такового). Доводы о том, что ИИ не может быть субъектом, поскольку лишен способности осознавать и оценивать свои действия, опровергнуты действительностью: сложные нейронные сети уже способны самоидентифицироваться, наделены отдельными свойствами самосознания.
Похожие темы научных работ по праву , автор научной работы — Вавилин Евгений Валерьевич
Согласно действующим в ЕС правилам, ответственность за вред, причиненный действиями (бездействием) роботов третьим лицам, находится в причинно-следственной связи с действиями (бездействием) производителей, разработчиков, операторов, владельцев или пользователей, если они могли предвидеть и избежать действий роботов, в результате которых причинен ущерб, вред [17]. В Резолюции указывается на пробельность норм в случаях, когда ущерб причинен по причине самостоятельно принятых ИИ решений. В документе ставится вопрос о том, насколько автономные роботы вписываются в систему существующих правовых категорий и не следует ли рассматривать их как принципиально новую категорию права (п. AC).
Artificial Intelligence (hereinafter referred to as AI) carriers are active participants in civil relations. Therefore, questions of legal nature of AI units, their ability to possess rights and bear responsibilities, exercise rights and perform responsibilities, questions of liability limits for improper exercise of rights and performance of responsibilities by AI units are most relevant.
ИИ также способен на волеизъявление, которое повлечет определенные юридические последствия: в частности, в финансовой сфере боты, совершающие транзакции, проявляют волеизъявление, имеющее совершенно конкретные правовые последствия. То есть для права важно проявление воли вовне, а не внутренние психологические процессы [12. С. 17; 13].
В качестве еще одного аргумента в пользу признания объективированного волеизъявления ИИ служит и следующий довод: волеизъявление в его субъективном проявлении может порождать ряд негативных явлений -злоупотребление правом, шикану. Волеизъявление ИИ формируется объективно через заданные алгоритмы и в этом смысле более непредвзято, поскольку запрограммировано на достижение конкретных законных ре-
В программном обеспечении ИИ должна быть заложена выверенная система принципов осуществления прав и исполнения обязанностей. Тогда ИИ будет сертифицирован на определенный объем правомочий, ориентирован на конкретные компетенции и наделен специфичной деликтоспособностью.
Служебная функция носителей ИИ и подконтрольность не снимают возможности их самостоятельных, юридически значимых действий. Проблема заключается не в том, как относиться к юниту, а в том, как рационально и безопасно организовать его деятельность. Эта идея выражена в перечне поручений Правительству РФ, утвержденных Президентом по итогам конференции по искусственному интеллекту 31 декабря 2020 г., где