Содержание статьи
- 1ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВА ЧЕЛОВЕКА: ЮРИДИЧЕСКАЯ И ЭТИЧЕСКАЯ ОТВЕТСТВЕННОСТЬ ЗА УЩЕРБ, ПРИЧИНЕННЫЙ ТЕХНОЛОГИЯМИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Право»
- 1.1Похожие темы научных работ по праву , автор научной работы — Хаддур З. А.
- 1.2Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВА ЧЕЛОВЕКА: ЮРИДИЧЕСКАЯ И ЭТИЧЕСКАЯ ОТВЕТСТВЕННОСТЬ ЗА УЩЕРБ, ПРИЧИНЕННЫЙ ТЕХНОЛОГИЯМИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВА ЧЕЛОВЕКА: ЮРИДИЧЕСКАЯ И ЭТИЧЕСКАЯ ОТВЕТСТВЕННОСТЬ ЗА УЩЕРБ, ПРИЧИНЕННЫЙ ТЕХНОЛОГИЯМИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Право»
Похожие темы научных работ по праву , автор научной работы — Хаддур З. А.
Проблем а правовой и этической ответственно с ти за ущерб, причиняемый системами искусственного интеллекта, активно обсуждается в юриди ч еской и научной общественности и тесно связана с вопросом определения природы и сущно с ти искусственного интеллекта. Это философский вопрос, который имеет полярные мнения о том, как искусственный интеллект рассматривается с юридической точки зрения.
Искусственный интеллект может быть полезным источником информации, поскольку он упрощает процесс доступа к информации для людей. Однако в дополнение к полезному аспекту использование технологии искусственного интеллекта существует неоспоримый негативный аспект, заключающийся в негативном влиянии искусственного интеллекта на повседневную жизнь людей, в сферах, связанных с неприкосновенностью частной жизни, дискриминацией, и создает угрозу их основным правам в некоторые случаи.
Машины работают на основе того, как их запрограммировали люди. Если в систему введены (осознанно или случайно) алгоритмы, включающие в себя человеческие предубеждения, такая система неизбежно будет их повторять. Главные опасения внушает отсутствие в системах ИИ разнообразия и инклюзии: вместо того чтобы делать наши решения более объективными, они могут укреплять дискриминацию и предрассудки. Появляется все больше подтверждений того, что алгоритмы работы, основанные на предубеждениях, дискриминируют женщин, представителей этнических меньшинств, людей с инвалидностью и лиц ЛГБТИ сообщества.
Искусственный интеллект может как укреплять, так и нарушать права человека, и для того, чтобы сделать искусственный интеллект более полезным, не создавая при этом угрозы правам человека, должен быть набор этических и юридических руководящих принципов, охватывающих темы, связанные с прозрачностью, конфиденциальностью, безопасностью и дискриминацие.
С моей точки зрения, использование ИИ затрагивает многие аспекты прав человека, которые входят в сферу моей деятельности. Так, использование указанных алгоритмов может негативно повлиять на целый ряд наших прав. Проблема осложняется отсутствием прозрачности, подотчетности и информации о том, как эти системы устроены, как они функционируют и в каком направлении могут развиваться в будущем.
Конфликт между технологиями и правами человека также проявляется и в области распознавания лиц. Будучи мощным инструментом для розыска предполагаемых террористов, он также может превратиться в средство контроля людей. Сейчас государствам стало особенно легко следить за вами, вторгаться в частную жизнь, ограничивать свободу собраний, свободу передвижения и свободу прессы.
Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВА ЧЕЛОВЕКА: ЮРИДИЧЕСКАЯ И ЭТИЧЕСКАЯ ОТВЕТСТВЕННОСТЬ ЗА УЩЕРБ, ПРИЧИНЕННЫЙ ТЕХНОЛОГИЯМИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»
ИИ потенциально может помочь людям максимально эффективно использовать свое время, расширить их свободу и сделать их более счастливыми. Но он также же способен привести нас в мир антиутопии. Поэтому чрезвычайно важно нащупать верный баланс между технологическим развитием и защитой прав человека, ведь от этого будет зависеть будущее общества, в котором мы хотим жить.
Государства также должны следить за тем, чтобы частные компании, занимающиеся разработкой и внедрением ИИ, соблюдали стандарты в области прав человека. Создатели той технологии ИИ, которая способна улучшить нашу жизнь, должны действовать в соответствии с Рекомендациями Совета Европы о соотношении бизнеса и прав человека, о роли и ответственности интернет-посредников, а также в соответствии с Руководящими принципами предпринимательской деятельности в аспекте прав человека ООН и Докладом о регулировании контента, подготовленным Специальным докладчиком ООН по вопросу о поощрении и защите права на свободу мнений и их свободное выражение. Процессы принятия решений, использующие алгоритмы, должны стать прозрачнее, чтобы стала понятна их логика, появилась ответственность за применение таких алгоритмов, а также чтобы была возможность эффективно оспаривать решения, принятые на основе автоматизированных процессов сбора и обработки данных.
На международном уровне, в статье 12 Конвенции Организации Объединенных Наций об использовании электронных сообщений в международных договорах [8] говорится, что лицо, запрограммировавшее компьютерную систему, или лицо, от имени которого она была запрограммирована, будь то физическое или юридическое
Существует острая необходимость в современной правовой базе и стандартах для решения уникальных вызовах, связанных с искусственным интеллектом, некоторые страны уже ввели правила, регулирующие технологии искусственного интеллекта. В 2012 году Европейская комиссия представила проект Robolaw, целью которого является изучение того, как новые технологии в области биоробототехники (включая искусственный интеллект) влияют на национальную и европейскую правовые системы. Наиболее важным результатом проекта RoboLaw стало «Руководство по регулированию робототехники», его целью является создание прочной правовой базы для развития робототехнических технологий в Европе. [7]
Третье поле деятельности — повышение грамотности людей в области ИИ. Государства должны больше вкладывать в просвещение и образовательные инициативы, повышать компетентность всех своих граждан и особенно подрастающего поколения, чтобы они получали положительный опыт использования ИИ и лучше понимали, как он влияет на нашу жизнь. Наконец, национальные структуры по правам человека должны уметь противостоять новым видам дискриминации, проистекающей из применения ИИ.
Другое право, которое оказывается под угрозой, это право на свободу выражения мнений. В недавней публикации Совета Европы «Алгоритмы и права человека», в частности, отмечается, что в Фейсбуке и на Ютьюбе действуют механизмы фильтрации для выявления экстремистского содержания с призывами к насилию. Однако нет никакой информации о том, какие процедуры и критерии применяются для определения такого контента, а также о том, в каких видеороликах присутствует «явно незаконное содержание». Хотя сама по себе инициатива пресекать распространение подобных материалов похвальна, непрозрачность модерации контента вызывает тревогу, поскольку она несет в себе риски ограничений законного права на свободу слова и выражение мнения. Аналогичные опасения высказывались в отношении автоматической фильтрации пользовательского контента при его загрузке в связи с предполагаемым нарушением прав интеллектуальной собственности, что вышло на передний план в предложенной директиве ЕС об авторском праве. В некоторых случаях использование автоматических технологий для распространения информации может также существенно затрагивать право на свободу выражения мнения и неприкосновенность частной жизни, когда боты, армии троллей, целевая реклама или спам распространяются в рамках применения алгоритма, определяющего контент для конкретных пользователей.
Искусственный интеллект является мощным активом, но также может представлять угрозу конфиденциальности и безопасности данных, риск несанкционированного доступа или использования персональных данных. Системы искусственного интеллекта требуют доступа к огромным объемам данных, и эти данные могут включать в себя очень важную информацию, такую как медицинские записи, финансовую информа ц ию и даже биометрические данные, такие как отпечатки пальцев или данные распознавания лиц. Эта информация может быть ценной для хакеров и киберпреступников, и существует риск ее неправомерного использования.
Вопрос ю ридической и этической ответственности за ущерб, причиненный искусственным интеллектом, становится более важным в эпоху беспилотных автомобилей и роботов-хирургов, а также использования искусственного интеллекта в управлении дорожным движением, поскольку ошибки, которые совершают системы искусст в енного интеллекта, могут привести к гибели людей, что случалось уже неоднократно. Например, в 2018 году беспилотный автомобиль сбил насмерть 49-летнюю женщину, потому что он не б ы л запрограммирован на обнаружение пешеходов. [4]