Содержание статьи
Что мешает искусственному интеллекту захватить мир
«Если я и захочу, прогресс все равно не остановить. Колесо уже завертелось и набирает обороты»
Он может принимать какие-то стратегические решения. Например, поступает запрос — мы хотим снести детский садик и построить торговый центр. Он начинает анализировать: насколько это хорошее предложение. И говорит — нет, мы не будем, поскольку у нас ожидается рост рождаемости детей в таком-то году, нам нужны детские садики. Если ИИ возьмет на себя функции мэра, то это уже будет близко ко второму типу. Но при этом есть опасность того, что он, к примеру, начнет расселять людей из какого-либо района, но непонятно для чего. Либо он хочет там какой-нибудь data-центр построить, чтобы себя улучшить и поработить землю, либо он понимает, что именно туда через 100 лет упадет метеорит. Мы же не знаем — надо либо довериться и верить, либо жестко контролировать.
Тьюринг погиб задолго до того, как возникли первые социальные сети, и не увидел, насколько общение людей в них отличается от этого идеала. А современные ученые еще со времен ELIZA знают, что эта способность людей сильно зависит от нашей готовности видеть вообще какой-то смысл. Носители естественного интеллекта слишком легко видят его там, где он отсутствует, и не видят там, где он критически важен.
На этом моменте следует еще раз обратиться к тесту Тьюринга. Британский математик предложил его, считая нашу способность увидеть по словам другую личность объективной. То есть мы всегда с одного взгляда на реплики и действия можем понять, есть ли в них смысл или нет.
Этические вопросы появляются и, если мы говорим о каких-то антропоморфных роботах — робот-полицейский, например. Может ли он убивать преступника или нет? Если да, то что мешает роботу ошибочно распознать преступника в законопослушном человеке и убить невиновного?
И эта проблема остается открытой до сих пор для всей индустрии беспилотных автомобилей. В нашем университете есть лаборатория, которая занимается автономным транспортом, разрабатывая беспилотные автомобили. Перед ними тоже встают подобные этические вопросы. Поэтому в салоне беспилотного автомобиля всегда находится человек, способный оперативно отреагировать и принять решение при возникновении нештатных ситуаций. Насколько я знаю, таких ситуаций у наших ребят не возникало.
Если оценить способность машины к пониманию, мышлению, одним числом, это число будет расти — сначала медленно, набирая скорость, а затем, условно говоря, каждую секунду будет увеличиваться в два раза. Мы не успеем опомниться, как если бы вчера это был уровень развития собаки, сегодня — обычного человека, через 5 минут — уже Эйнштейна, а к вечеру — всего человечества
Как бы там ни было, а впервые вступить в диалог с машиной людям удалось спустя 10 лет после его смерти в середине 1960-х. Программа называлась ELIZA. Она успешно переставляла слова в самом вопросе и реагировала на некоторые ключевые слова в нем. Человек, которому очень хотелось с кем-то пообщаться, мог достаточно быстро забыть, что это машина, но хоть немного придирчивый собеседник легко понимал, что речь идет ни о чем.
Вместо того чтобы выполнять у себя в голове программы, неважно насколько сложные и разветвленые, мы прогоняем информацию через сеть нейронов, каждый из которых имеет определенные настройки, чтобы взаимодействовать с ней, а все вместе они работают как машина распознавания образов и ситуаций на основе предыдущего опыта.
Что нужно искусственному интеллекту, чтобы захватить мир?
— Определимся с самим понятием. Сейчас разделяют три типа искусственного интеллекта. Первый — так называемый «слабый» или «ограниченный». Это калька с английского Narrow artificial intelligence. Это интеллект, который решает какие-то узкие, ограниченные задачи, и в решении этих задач он может даже превосходить человека. Примером могут служить программы, позволяющие трансформировать устную речь в письменную, та же Siri — ей удается распознавать речь и понимать смысл сказанного. Беспилотники «Яндекса» — тоже пример первого типа ИИ. Задач у него больше, но они тоже четкие и узкие: распознавание дорожных знаков, дорожной разметки, построение маршрута следования.
И это действительно очень напоминает то, как работает Chat GPT. Поэтому многие исследователи справедливо отмечают, что как его статистические механизмы отбора правильных слов в Интернете не совершенствуй, он так и останется «китайской комнатой», которая не догадывается, что у тех символов, из которых она строит правдоподобные ответы, на самом деле есть смысл.
Тогда нейросети достали из ящика, и вот уже почти три десятилетия, когда говорят о новых успехах ИИ, то подразумевают именно их. Именно они научились узнавать людей по лицам, выигрывать в шахматы и Starcraft у людей-чемпионов и т.д. Астрономы их также широко используют для того, чтобы распознавать объекты определенных классов на снимках или находить наиболее подходящие физические модели.
Этические вопросы появляются и, если мы говорим о каких-то антропоморфных роботах — робот-полицейский, например. Может ли он убивать преступника или нет? Если да, то что мешает роботу ошибочно распознать преступника в законопослушном человеке и убить невиновного? Или он может использовать только шоковое оружие? Не убивать, а только отключать сознание?
— Думаю, он может появиться довольно случайно. В качестве примера приведу историю, написанную Ником Бостромом. Представьте, что будет создана программа, которая распознает человеческий почерк, и какая-нибудь роботическая рука, воспроизводящая его. Например, ты директор компании, у тебя тысяча сотрудников, и тебе нужно подписать тысячу открыток своей рукой. Понятное дело, что у тебя нет на это времени — ты просто заказываешь у компании такую услугу, предоставляешь им свои ручные записи, деловые письма. Они смотрят, сканируют, их искусственный интеллект просто копирует твой почерк, подписывает открытки и рассылает. Разработчики хотят зарабатывать больше денег, хотят, чтобы их алгоритм был более успешным. Он обучается, обучается и в какой-то момент говорит: «Я хочу подключиться к интернету, потому что смогу там вытащить больше образцов ручного письма, и это поможет мне работать быстрее и качественнее».
У нас сейчас уже есть достаточно вычислительных мощностей, но нет понимания, как их задействовать на полную. Есть такой подход, при котором мы полностью моделируем поведение мозга. Насколько я знаю, ученым уже удалось смоделировать мозг червя. Там не так много нейронов, это простейшая нейросистема, но тем не менее уже удалось получить цифровую копию мозга. Значит, эти исследования продолжатся.