Искусственный интеллект как проблема

0
14

Искусственный интеллект: этические проблемы

ИИ позволяет более эффективно использовать системы видеонаблюдения в общественных местах в целях профилактики. Видеозаписи непрерывно анализируются специальными программами, которые фиксируют агрессивные действия и могут быстро поднять тревогу. Подобная система сейчас тестируется в переходах станции Шатле парижского метрополитена. Если такой подход к видеонаблюдению будет одобрен, единственной проблемой использования ИИ остается риск ошибки. Однако он не слишком высок, поскольку решение относительно того, требует ли ситуация вмешательства или нет, будут принимать люди.

Искусственный интеллект (ИИ) может использоваться для повышения эффективности таких дискриминационных мер, как расовое профилирование, прогнозирование поведения и даже определение сексуальной ориентации людей. Возникающие при этом вопросы этического свойства требуют выработки законодательства, способного обеспечить ответственный подход к развитию технологий ИИ.

Комитет по науке, инновациям и технологиям Великобритании опубликовал промежуточный отчет, описывающий 12 основных проблем в сфере управления искусственным интеллектом, которые должны быть учтены и решены на законодательном уровне, в том числе с международным участием.

Обеспокоенные этим возрождением физиогномики, Михаль Косински (Michal Kosinski) и Илунь Ван (Yilun Wang) из Стэнфордского университета (США) сочли необходимым продемонстрировать опасность этой, как казалось, оставшейся в прошлом псевдонаучной теории, состоявшей в изучении характера человека по особенностям и выражению его лица. Желая привлечь внимание к риску вторжения в личную жизнь, они в 2017 году создали программу «гейдар», определяющую гомосексуальность людей по их фотографиям! По заявлению авторов, погрешность программы составляет всего 20%. Применение этой технологии не только стигматизировало бы человека, но и нарушало бы его право не раскрывать свою сексуальную ориентацию.

Тем не менее, вероятность ошибки при распознавании лиц высока. Достаточно небольшой помехи при передаче изображения, и вместо лица ИИ может увидеть тостер! Особую тревогу может вызвать ощущение, что вы постоянно находитесь под наблюдением, а также рост числа ошибок.

На мой взгляд, ИИ априори не является фактором поощрения евгеники. Некоторые утверждают, что однажды человека можно будет усовершенствовать за счет использования ИИ – например, путем вживления чипов, увеличивающих память или улучшающих узнавание лиц и т. п. И если «умная» робототехника может дать нам медицинские решения проблем инвалидности (скажем, возвращение подвижности с помощью сложных протезов), то трансгуманистическая гипотеза о создании постчеловека лежит в области научной фантастики.

ЧИТАТЬ ТАКЖЕ:  Что делает искусственный интеллект в камере

Обеспокоенные этим возрождением физиогномики, Михаль Косински (Michal Kosinski) и Илунь Ван (Yilun Wang) из Стэнфордского университета (США) сочли необходимым продемонстрировать опасность этой, как казалось, оставшейся в прошлом псевдонаучной теории, состоявшей в изучении характера человека по особенностям и выражению его лица. Желая привлечь внимание к риску вторжения в личную жизнь, они в 2017 году создали программу «гейдар», определяющую гомосексуальность людей по их фотографиям! По заявлению авторов, погрешность программы составляет всего 20%. Применение этой технологии не только стигматизировало бы человека, но и нарушало бы его право не раскрывать свою сексуальную ориентацию.

Искусственный интеллект (ИИ) может использоваться для повышения эффективности таких дискриминационных мер, как расовое профилирование, прогнозирование поведения и даже определение сексуальной ориентации людей. Возникающие при этом вопросы этического свойства требуют выработки законодательства, способного обеспечить ответственный подход к развитию технологий ИИ.

Тем не менее, вероятность ошибки при распознавании лиц высока. Достаточно небольшой помехи при передаче изображения, и вместо лица ИИ может увидеть тостер! Особую тревогу может вызвать ощущение, что вы постоянно находитесь под наблюдением, а также рост числа ошибок.

На мой взгляд, ИИ априори не является фактором поощрения евгеники. Некоторые утверждают, что однажды человека можно будет усовершенствовать за счет использования ИИ – например, путем вживления чипов, увеличивающих память или улучшающих узнавание лиц и т. п. И если «умная» робототехника может дать нам медицинские решения проблем инвалидности (скажем, возвращение подвижности с помощью сложных протезов), то трансгуманистическая гипотеза о создании постчеловека лежит в области научной фантастики.

Председатель комитета по науке, инновациям и технологиям, член парламента Грег Кларк заявил: «Искусственный интеллект уже меняет наш образ жизни и, похоже, его влияние на наше общество и экономику, несомненно, претерпит взрывной рост. ИИ полон возможностей, но также таит в себе множество опасных рисков для давно установленных и почитаемых прав – от личной неприкосновенности до национальной безопасности. Люди ожидают, что политики будут защищать их права».

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь