Первая страна где искусственный интеллект признан субъектом правоотношений это

0
6

Место искусственного интеллекта среди элементов состава правоотношения

Методология и результаты исследования

Представим ситуацию: человечество создало первого робота, способного выполнять работу спасателя. Произошла ситуация, в ходе которой произошло ДТП и один из автомобилей, съехав с эстакады, свернул и упал в реку. В машине находилась девочка в возрасте 12 лет и ее папа. Увидев это, бот, оснащенный ИИ, прыгнул за машиной и спас именно мужчину, потому что процент его смерти в случае чего был ниже, чем у ребенка. Именно на это запрограммирован робот. Он спасает тех, чей процент выживаемости больше. Но так ли бы поступил в этой ситуации человек?

Исторически первым подходом к определению понятия искусственного интеллекта м ожно назвать т ест Алана Т ьюринга, в соответствии с которым программное устройство следует считать искусственным интеллектом, если при общении с компьютером посредством анонимного канала связи нельзя понять, с кем идет б еседа — с человеком или м ашиной.

С одной стороны, кодирование правовой информации не м ожет т очно передать б огатство и неоднозначность юридических категорий (таких, например, как «справедливость», «вина» и др. ). Более т ого, сами юристы не всегда м огут т очно сформулировать м етоды и м ыслительные процессы, сопровождающие их деятельность. Поэтому юристы, которые не привыкли к стро гим т ребованиям языка программирования, будут ра зочарованы ра зрывом м ежду т ем, что они хотят сказать, и т ем, что им позволяет сказать язык программирования. С этой т очки зрения делегирование ра боты юриста компьютеру выглядит крайне проблематичным ( Buchanan & Headrick, 1 9 7 0 ).

Вместе с т ем, авторы подтверждают правовую необоснованность признания искусственного интеллекта субъектом права ввиду т ого, что искусственный интеллект не является носителем критически важных составляющих личности (души, свободного сознания, чувств, интенциональности, личных интересов). Поэтому, несмотря на сверхмощную скорость обработки информации, в ра зы превосходящую возможности человека, искусственный интеллект остается программой с привязанным к ней м атериально т ехническим обеспечением (Shestak & Volevodz, 2 0 1 9 ) .

Стремительное ра звитие и усовершенствование искусственного интеллекта не га рантирует продолжительного существования указанной т очки зрения. Вместе с т ем, даже сверхмощный и усовершенствованный искусственный ра зум является м аксимально упрощенной м оделью созданного м иллионами лет эволюции человеческого м озга. Поэтому сопоставление искусственного интеллекта с человеком недопустимо ни с т очки зрения физиологии, ни с т очки зрения юриспруденции.

Данный вопрос рассматривался в Европейском парламенте в комиссии по гражданским правам. В нем говорится: «В конечном счете автономия роботов ставит вопрос об их природе в свете существующих правовых категорий: о том, следует ли их рассматривать как физических и/или юридических лиц, животных или других существующих субъектов права или же следует создавать новую категорию с ее способностями и принимаемыми последствиями в контексте распределения прав и обязанностей, включая ответственность за ущерб» [5]. Исходя из этого, следует вывод: говорить о том, чтобы ИИ сделать субъектом права, пока нельзя, но можно создать такую категорию, которая удовлетворяла бы требованиям двух сторон.

Кроме т ого, ввиду способности м олниеносно анализировать, сопоставлять, обрабатывать м ассивы информации, оставаться б еспристрастным и сохранять нейтралитет, имея б езупречную ре путацию, (Gadzhiev, 2 0 1 8 ) искусственный интеллект, выступающий в качестве судьи, представляется идеалом правосудия, выраженного в цифровой объективности (Zaplatina, 2 0 1 9 ).

ЧИТАТЬ ТАКЖЕ:  Как пользоваться нейросетью для создания фото

Противоречивость подхода в определении правового статуса ИИ характерно для современных исследователей. Подобные вопросы обсуждаются на государственном уровне. Примером тому является Министерство обороны США. В статье «Обязательства о различии и пропорциональности, применимые к лицам, а не к оружию» рассказывается о том, что «закон войны не требует, чтобы оружие определяло правомерность своих действий, даже если оно может быть охарактеризовано как способное принимать юридически значимые, например, начинать ли стрелять или выбирать и поражать цель» [4].

Ключевые слова

Теоретической основой исследования послужили т руды отечественных и зарубежных ученых, посвященные анализу искусственного интеллекта как субъекта права и объекта правового ре гулирования, позволившие провести сравнительное исследование литературы, а т акже анализ программных и стра тегических документов по изучаемому вопросу.

Начать, конечно же, нужно с сотворения уникального субъекта права. В Европейском Объединении с недавних пор звучит термин «электронные лица». Возможно, испробовать, взяв его в качестве наименования, предоставить определение такового свежего субъекта. Электронное лицо — носитель искусственного разума (машина, бот, программа), владеющий интеллектом, подобным человеческому, возможностью брать на себя осмысленные и не базирующиеся на заложенном творцом подобной машины, бота, программы методе заключения, и наделенный определенными правами и прямыми обязанностями. Без колебаний, это определение нужно считать теоретическим и требующим определенной доработки. В предложенном варианте содержит значение принять его в качестве рабочего.

УДК 340.12 Направления и теории права. Правовые школы. (Философия права). Теории государства и права Сюда относится как литература представителей отдельных направлений и школ, так и литература критически к ним относящаяся. Работы о правовых системах и все правовые системы в определенные исторические эпохи относятся под индексом 340.15, например,
ББК 670 Общая теория права

Ведущий программы «Пятый этаж» Олег Антоненко говорил: «Мы хотим поговорить об искусственном интеллекте, назовем его «компьютерным мозгом», который способен думать как человек. Простейшие устройства с использованием искусственного интеллекта можно встретить уже сейчас. Вопрос в том, что эти системы не способны к обучению. Например, компьютер Deep Blue, который обыгрывал чемпиона мира по шахматам, играть в домино или шашки не умеет. Эксперты говорят, что искусственный интеллект, возможно, в полном объеме мы получим к 2050 г.» [4].

Исследователи в сфере уголовного права спорят еще более жестоко. В случае нарушения правовых норм человек обязан понести то или иное наказание за свое деяние. Искусственный интеллект не сможет понести такое же наказание, ведь этим искусственным интеллектом управляет и владеет человек. А кто же должен нести эту ответственность? В системе российского права, которая связана с лишением свободы, существует две цели: 1) фактическая; 2) теоретическая.

Правосубъектность, как и право, человек создавал исходя из своих принципов, своего сознания, разума и мышления. Человек, создавая для себя лучшие условия существования государства, основывался именно на своих потребностях и на своих чувствах. Вся система формировалась долгие годы, затрагивая разные аспекты жизни и мышления человека в целом. Более того, человеку присущи такие качества, как разумность, трезвое оценивание ситуации, сочувствие, сострадание и логика. Поэтому человек не мыслит примитивно и его нельзя запрограммировать на определенные действия. Именно в этом и возникает первая проблема, по нашему мнению, для придания правосубъектности ИИ.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь