Содержание статьи
Основы формирования искусственного интеллекта: когнитивная теория псевдоличности
Следует учитывать, что не всякий ИИ является мыслящим. В процессе создания и эволюции ИИ сформировались понятия слабого и сильного искусственного интеллекта (Джон Сёрль). Для определения различия между сильным и слабым ИИ был предложен тест Тьюринга, однако многие системы слабого ИИ его с успехом прошли.
Целостные свойства личности выступают как результат совместного функционирования обоих уровней, всех имеющихся конструктов между собой. На основе этого взаимодействия можно выделить два типа личности: когнитивно сложную (личность, имеющую большое количество конструктов и сложные связи их взаимодействия) и когнитивно простую (личность с небольшим, наиболее простым набором конструктов). Если рассматривать искусственный интеллект согласно когнитивной теории личности, то, несомненно, наблюдается соответствие характеристик, которые имеют другое название, но выполняют те же функции. Также в когнитивной теории, как и в теории развития искусственного интеллекта, выделяют сильную и слабую личности.
Потенциально, это здорово с точки зрения выживания человечества, ведь человечество пока заперто на родной планете. Удивительный факт: Илон Маск, мечтающий переселить людей на другие планеты, чтобы предотвратить гибель человечества от какой-либо планетарной катастрофы, боится искусственного интеллекта. На самом деле, человечество в его биологической форме расселиться по Вселенной физически не может. Но если возникнет «сильный» искусственный интеллект, то шансы на выживание человечества как информационной сущности, не только хранящей воспоминания и лучшие достижения прежних поколений, но и развивающей дальше их планы и реализующей их надежды, резко повышаются.
Но если вы спросите меня, реально ли создать «сильный» искусственный интеллект, то я отвечу — вероятно, да, но не сейчас. Моя оценка — 2040 год, не раньше. Создание функционального искусственного интеллекта — это действительно вопрос ближайших лет, и для его реализации у нас уже все есть. Но над возникновением «сильного» искусственного интеллекта придется долго и упорно работать. Как мы уже обсуждали выше, гарантировать возможность создания «сильного» ИИ сложно из-за того, что мы пока не до конца понимаем, что такое сознание. Если мы это поймем в техническом смысле, мы приблизимся к «сильному» искусственному интеллекту.
— Вопрос сложный. Я как энтузиаст искусственного интеллекта, считаю, что его нужно внедрять повсеместно. Есть неоднозначные примеры, которые активно обсуждаются в СМИ, особенно на Западе. Например, нужно ли внедрять искусственный интеллект в летальное оружие? Нужны ли боевые роботы? Как мне кажется, даже в таких морально неоднозначных сферах необходимо создавать системы на основе искусственного интеллекта, которые будут обладать более точными характеристиками. Это, кстати, официальная позиция Российской Федерации, и она достаточно хорошо обоснована. Чем более точным и интеллектуальным является оружие, тем меньше нежелательного «побочного» ущерба наносит его применение. Любая война это трагедия, но точечное уничтожение боевых сил противника всегда предпочтительнее, чем тотальное уничтожение людей и природы при помощи менее точных и менее интеллектуальных боевых средств.
Существует детский психологический тест, который в последнее время стал одним из очередных «пробных камней» для ИИ и нейросетей. Предлагается последовательность картинок, на основе которых нейросети нужно составить связную историю на естественном языке. Это не что иное, как попытка имитации внутреннего рассказчика. Если у глубоких нейронных сетей появится такой внутренний рассказчик, это, возможно, станет первым существенным шагом к тому, чтобы у них появилось самосознание как внутренняя модель себя, а это уже начало дороги к сильному искусственному интеллекту. Но пока мы еще очень далеки от этого.
— Если мы спросим специалистов в области искусственного интеллекта, которые работают в этой области много лет, произошли ли за последнее десятилетие какие-либо существенные изменения в идеях и методах искусственного интеллекта, то мы получим однозначный ответ — нет! Все основные идеи ИИ были придуманы в прошлом веке. Причиной же нынешнего практического прорыва в ИИ стало появление могучего, но именно технологического средства для решения оптимизационных задач с большим количеством параметров — глубоких нейронных сетей.
В первой части интервью Юрий Визильтер, начальник подразделения интеллектуального анализа данных и технического зрения ГосНИИ Авиационных систем рассказывал о глубоких нейронных сетях и процессе их обучения. Во второй части беседы профессор РАН предсказывает появление «сильного» искусственного интеллекта, рассуждает об ответственности и предлагает шире взглянуть на развитие ИИ, который может стать настоящим цифровым двойником человечества.
Искусственный интеллект в узком смысле традиционно понимается как некое средство «человекозамещения». Например, человека, который выполнял конкретное производственное действие, заменяют на компьютерную программу или робота. Когда же мы говорим о глубоких нейронных сетях, то имеем дело с универсальным аппаратом оптимизации, у которого потенциально гораздо более широкий круг задач. Искусственный интеллект будет (очень осторожно!) внедрен только там, где по экономическим или другим соображениям требуется замена человека в какой-то его функции. А глубокие нейронные сети и машинное обучение как способ их программирования вскоре будут использоваться везде. Ведь во всех областях нашей повседневной работы и жизни мы постоянно сталкиваемся с задачами оптимизации.
«ПОКА НЕ ВОЗНИКЛА ГИГАНТСКАЯ КОЛЛЕКЦИЯ ИЗОБРАЖЕНИЙ, НЕЛЬЗЯ БЫЛО ОБУЧИТЬ НЕЙРОННЫЕ СЕТИ ВОСПРОИЗВОДИТЬ ТАКУЮ ФУНКЦИЮ ЧЕЛОВЕКА, КАК РАСПОЗНАВАНИЕ ИЗОБРАЖЕНИЙ. СЕЙЧАС В СЕТИ ОГРОМНОЕ КОЛИЧЕСТВО ТЕКСТОВ, ФОТО, ВИДЕО, МУЗЫКИ – МЫСЛЕЙ, ЧУВСТВ, ЖЕЛАНИЙ И СТРАХОВ ВСЕГО ЧЕЛОВЕЧЕСТВА. ЭТА МАССА ДАННЫХ — ЦИФРОВОЙ ДВОЙНИК ЧЕЛОВЕЧЕСТВА, КОТОРЫЙ В БУДУЩЕМ, ВЕРОЯТНО, СОСТАВИТ СОДЕРЖАНИЕ СОЗНАНИЯ НАШЕГО НАСЛЕДНИКА — «СИЛЬНОГО» ИИ»
Поэтому, когда речь идет о функциональном искусственном интеллекте, то мой ответ — нужно внедрять его везде, где возможно. При этом, конечно, нужно помнить о безопасности и четко составлять регламенты использования этой сложной токсичной технологии. И еще раз отмечу: в случае техногенных аварий и катастроф ответственность лежит не на технологиях — а на людях, которые эти технологии используют.
Система комбинированного видения объединяет синтетическую трехмерную картинку и реальные элементы, которые мы видим датчиками технического зрения. Исследования показывают, что летчикам намного удобнее смотреть на трехмерную схему со специальными значками, чем на реальную обстановку за бортом, полученную ИК-датчиками, особенно в стрессовой ситуации. Комбинированное видение решает эти проблемы.