В каком году искусственный интеллект захватит мир

0
17

Павел Хакимов: «Ошибка с искусственным интеллектом может стоить жизни всему человечеству»

«Этическая проблема основывается на том, что ИИ нельзя наделять качествами, свойственными человеку»

Этические вопросы появляются и, если мы говорим о каких-то антропоморфных роботах — робот-полицейский, например. Может ли он убивать преступника или нет? Если да, то что мешает роботу ошибочно распознать преступника в законопослушном человеке и убить невиновного? Или он может использовать только шоковое оружие? Не убивать, а только отключать сознание?

Павел Хакимов родился в Ташкентской области Узбекской ССР. После развала Союза семья переехала в Ярославскую область. В 2004 году он окончил гимназию в городе Переславле-Залесском. Проучившись два года в местном университете, поступил на мехмат МГУ им. Ломоносова, кафедра «Прикладная механика и управление», окончил его в 2011 году. В течение года работал в департаменте бизнес-процессов и технологий «Тинькофф Банк Кредитные Системы» в должности аналитика. С 2013 по 2017 год жил в Шанхае, получая степень магистра прикладной математики в Восточно-Китайском педагогическом университете (ECNU).

В 2016 году был случай, когда компьютер обыграл чемпиона мира по игре в го, корейца Ли Седоль, это, в принципе, и стало доказательством того, что компьютер, ограниченный искусственный интеллект, превзошел самого умного человека на земле. Для этого эксперимента было создано два алгоритма (компанией Google DeepMind): алгоритм AlphaGo в качестве обучающего материала использовал записи игр людей, но важно, что игры Ли Седоль он не видел, то есть не мог подстроиться под стиль игры чемпиона. Даже несмотря на это, алгоритм выиграл со счетом 4:1. В партии, в которой Ли Седоль удалось обыграть AlphaGo, на мой взгляд, был сбой алгоритма, хотя организаторы этого и не признали.

Компания Samsung попала в новости, когда конфиденциальные данные клиентов были переданы в ChatGPT, что не понравилось общественности. В результате многие компании ввели ограничения на то, как их собственные сотрудники могут использовать ChatGPT в будущем.

У нас сейчас уже есть достаточно вычислительных мощностей, но нет понимания, как их задействовать на полную. Есть такой подход, при котором мы полностью моделируем поведение мозга. Насколько я знаю, ученым уже удалось смоделировать мозг червя. Там не так много нейронов, это простейшая нейросистема, но тем не менее уже удалось получить цифровую копию мозга. Значит, эти исследования продолжатся.

И эта проблема остается открытой до сих пор для всей индустрии беспилотных автомобилей. В нашем университете есть лаборатория, которая занимается автономным транспортом, разрабатывая беспилотные автомобили. Перед ними тоже встают подобные этические вопросы. Поэтому в салоне беспилотного автомобиля всегда находится человек, способный оперативно отреагировать и принять решение при возникновении нештатных ситуаций. Насколько я знаю, таких ситуаций у наших ребят не возникало.

«Кто-то взял на себя ответственность, переступив через барьер нравственности, все человечество их осуждает, но пользуется их методами»

Другой пример: компания Microsoft запустила twitter-бота, который обучался на диалогах, которые вел с людьми. Люди начали задавать ему провокационные вопросы, троллить. В итоге на часть вопросов чат-бот стал давать расистские ответы. Все это, конечно, не очень хорошо, но искусственный интеллект не понимает, что хорошо, а что плохо. В него не было такого заложено изначально. И это приводит к тому, что он ведет себя как некий антисемит. Это тоже такой этический вопрос — как говорится, на чем обучаем, то и получаем.

ЧИТАТЬ ТАКЖЕ:  Как искусственный интеллект влияет на нашу жизнь реферат

За эти сутки она взломала пару серверов, скопировав туда свой код, и продолжила самообучаться с еще большей скоростью. В данный момент, сервера Amazon и Google, предоставляют всем желающим доступ к своим вычислительным мощностям. За пару часов или дней дообучившись до уровня искусственного суперинтеллекта, она начала зарабатывать на бирже деньги или просто взламывать банковские счета, рассылать людям письма с четкими инструкциями, что делать. За месяц ей удалось наладить производство самовоспроизводящихся наноботов, способных нести в себе отравляющий химикат. К определенному моменту эти наноботы уже были в каждом уголке Земли. И в определенный момент наноботы распылили свой смертельный газ, что привело к гибели всего человечества. А люди даже не поняли, что произошло. Это, конечно, просто один из возможных сценариев. Но он заставляет нас отнестись к происходящему более ответственно, цена ошибки может стоить жизни всему человечеству.

Через какое-то время компания DeepMind создает вторую версию этого алгоритма AlphaGo Zero. Он уже обучался, играя с самим собой, не используя опыт партий, сыгранных людьми. Спустя 40 дней обучения алгоритм AlphaGo Zero выиграл у изначальной версии AlphaGo сто партий из ста.

Большим событием в мае стал анонс нового поисковика с использованием генеративного ИИ от Google. И хотя SGE — так называется платформа — до сих пор не доступна широкой публике, маркетологи ожидают, что она кардинально изменит то, как пользователи находят информацию в интернете и как они взаимодействуют с результатами поиска.

— Тот же Рэй Курцвейл сделал такую оценку по мощностям — о том, сколько операций может в секунду сделать наш мозг. По его оценкам это примерно 10 16 ops (operation per second). А по статистике за 2019 год самый мощный компьютер IBM Summit имеет производительность 122 петафлопс — это нужно 122 умножить на 10 15 , то есть он в 10 раз превосходит мозг среднего человека. То есть уже сейчас мощностей у человечества хватает. Если исходить из того, что Курцвейл не ошибся, то, в принципе, мы можем смоделировать человеческий мозг, и есть машина, сравнимая с ним. Но это, по всей видимости, не все, что нужно. Обезьяны тоже могут осуществлять какие-то операции, но, если взять 100 обезьян, они никогда не сравнятся даже с одним человеком.

— Да, конечно. Это либо программист, либо вариант случайности — условно говоря, алгоритм будет подбрасывать монетку и смотреть, кто останется жив, а кто нет. Но опять же, это этические вопросы — на них до сих пор нет четкого ответа, но даже если он есть, он не афишируется. Понятное дело, что при любом ответе это будет некий резонанс. Если сказать, что мы причиняем вред людям с низким социальным рейтингом, это поднимет волну недовольства среди этих людей.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь