Когда искусственный интеллект нападет на человечество

0
16

Три угрозы человечеству, которые несет искусственный интеллект

Какие опасения вызывает у МККК применение ИИ и машинного обучения в вооруженных конфликтах?

Другие предупреждают, что чрезмерная зависимость от результатов работы ИИ создает проблемы для защиты гражданского населения и соблюдения норм международного гуманитарного права, включая необходимость учитывать мнение человека при принятии правовых решений, особенно из-за непрозрачного и предвзятого характера многих современных систем машинного обучения.

Например, системы с ИИ и возможностями машинного обучения могут в автоматическом режиме искать уязвимости в компьютерных системах противника и одновременно обнаруживать слабые места в своих собственных. При нападении они могут одновременно защищаться и наносить ответные удары в автоматическом режиме.

Машинное обучение — это вид системы ИИ, которая создает свои собственные инструкции, основываясь на данных, на которых она «обучается». Затем она следует этим инструкциям для поиска решения поставленной задачи. В некотором смысле такая компьютерная программа пишет сама себя. Последние достижения в области ИИ связаны именно с машинным обучением.

Шон О’Хэггерти, исполнительный директор Центра по изучению экзистенциальных рисков и один из соавторов доклада, добавляет: «Искусственный интеллект кардинально все меняет, и этот доклад размышляет над тем, как мир может измениться в следующие 5-10 лет. Мы живем в мире, который может быть подвержен ежедневной опасности злоупотребления ИИ, и мы должны начать заниматься этой проблемой, потому что эти риски вполне реальны».

Другими словами, эти системы ИИ могут поставлять данные для принятия решений о том, на кого или на что и когда нападать. Высказывались даже тревожащие предположения о том, что системы на основе ИИ можно применять для принятия решений о применении ядерного оружия.

Растущие масштабы применения искусственного интеллекта (ИИ) в военных целях ставят перед человечеством вопросы, вызывающие глубокую обеспокоенность. Сейчас, когда Великобритания готовится принять в ноябре саммит по вопросам безопасности ИИ, мы рассмотрим некоторые ключевые вопросы и проблемы применения в вооруженных конфликтах систем ИИ, и особенно машинного обучения.

ЧИТАТЬ ТАКЖЕ:  Что понимают под обучением нейросети

Майлз Брандидж, научный сотрудник Института будущего человечества Оксфордского университета, сказал по этому поводу следующее: «ИИ изменит существующие угрозы для отдельных граждан, организаций и государств — будь то на уровне преступников, которые настроят машины на взлом или фишинг информации у отдельных лиц, или же это будет внедрение в частную жизнь путем слежения, профилирования личности и дальнейших репрессий — полный спектр воздействия этого на безопасность огромен».

«Очень часто так бывает, что системы ИИ не просто достигают человеческого уровня производительности, но намного его превосходят. Это очень печально, однако необходимо рассмотреть те последствия, к которым могут привести сверхчеловеческого уровня хакерство, слежка, методы убеждения и распознавание физической цели, а также возможности ИИ, которые хоть и не достигают человеческого уровня, но тем не менее гораздо лучше варьируются, чем человеческий труд», — полагает ученый.

Доклад призывает к следующему:

Специалист Центра по изучению экзистенциальных рисков при Кембриджском университете Шахар Авин сказал Би-би-си, что в докладе основное внимание уделяется областям ИИ, которые уже доступны или, вероятно, будут доступны в ближайшие пять лет, но нет взгляда в более отдаленную перспективу.

«Выбор надо делать уже сейчас, и наш доклад — это призыв начать действовать правительствам, организациям и отдельным лицам по всему миру. В течение долгих десятилетий шумиха вокруг ИИ и его способностей опережала реальность. Но теперь это не так. Это доклад рассматривает существующие в мире подходы, которые больше не работают, и предлагает более широкомасштабный подход: например, как создать программное обеспечение и микропроцессоры, которые труднее было бы взломать, и какие в поддержку этому нужно принять законы и международные уложения».

Например, система распознавания изображений на основе ИИ может применяться для распознавания военных объектов в ходе анализа видео с беспилотников и других потоков разведывательной информации, чтобы рекомендовать вооруженным силам цели для нанесения ударов.

С нашей точки зрения, обсуждение применения на войне систем с ИИ и машинным обучением, а также разработка дополнительных правил, норм и ограничений должно отражать более строгое соблюдение существующих обязательств в рамках международного права, и особенно международного гуманитарного права, и содействовать ему.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь