Сильный искусственный интеллект когда

0
19

Самообучение и «сильный» искусственный интеллект: когда роботы начнут готовить нам кофе

Какие технологии лежат в основе исследований генеративного искусственного интеллекта?

Модели глубокого обучения очень похожи на AGI, но пока не продемонстрировали подлинную креативность, свойственную людям. Творчество требует эмоционального мышления, которым архитектура нейронной сети пока не обладает. Например, люди реагируют на разговор, основываясь на своих эмоциональных ощущениях, а модели NLP генерируют текст на основе наборов лингвистических данных и шаблонов, на которых их тренируют.

Сильный искусственный интеллект – это AGI, который, несмотря на недостаток базовых знаний, может выполнять задачи, применяя когнитивные способности, подобные человеческим. В научной фантастике сильный искусственный интеллект часто изображают как мыслящую машину, не ограниченную рамками одной предметной области и обладающую пониманием, свойственным человеку.

Генеративный искусственный интеллект (генеративный ИИ) – это разновидность глубокого обучения, при которой система ИИ может создавать уникальный и реалистичный контент на основе полученных знаний. Модели генеративного ИИ обучаются на основе огромных наборов данных, что позволяет им отвечать на запросы людей в форме текстов, аудио или визуалов, которые, естественно, напоминают творения людей. Например, LLM от AI21 Labs, Anthropic, Cohere и Meta – это алгоритмы генеративного ИИ, которые организации могут использовать для решения сложных задач. Команды разработчиков программного обеспечения используют Amazon Bedrock для быстрого развертывания этих моделей в облаке без выделения серверов.

Машинное зрение – это технология, которая позволяет системам извлекать, анализировать и понимать пространственную информацию из визуальных данных. Беспилотные автомобили используют модели машинного зрения, чтобы анализировать сигналы с камер в реальном времени и безопасно избегать препятствий. Технологии глубокого обучения позволяют системам машинного зрения автоматизировать распознавание, классификацию, мониторинг и другие задачи обработки изображений крупномасштабных объектов. Например, инженеры используют Amazon Rekognition, чтобы автоматизировать анализ изображений в различных приложениях машинного зрения.

«Компартия Китая — это режим, основанный на непрерывном поклонении, возможно, величайшему тоталитарному массовому убийце в истории человечества», — такими заявлениями экс-сотрудник OpenAI Леопольд Ашенбреннер пытается призвать правительство США не допустить «слива» разработок по общему искусственному интеллекту КНР. В своем 165-страничном предостережении разработчик призвал обратить внимание на риски, связанные с развитием сильного ИИ, который, как оказалось, появится уже очень скоро, и сравнил его с водородной бомбой. Подробнее — в материале «БИЗНЕС Online».

Общий искусственный интеллект (AGI) – это область теоретических исследований искусственного интеллекта, которая стремится создать программное обеспечение с интеллектом, подобным человеческому, и способностью к самообучению. Цель исследований заключается в том, чтобы программное обеспечение могло выполнять задачи, для которых оно не обязательно обучалось или разрабатывалось.

Символьный подход предполагает, что компьютерные системы могут развивать AGI, представляя человеческие мысли с помощью расширяющихся логических сетей. Логическая сеть символизирует физические объекты логикой if-else, что позволяет системе ИИ интерпретировать идеи на более высоком уровне мышления. Однако символическое представление не может воспроизвести тонкие когнитивные способности на более низком уровне, такие как восприятие.

— Я не думаю, что это будет какой-то «скачок». Я думаю, это будет тот же самый «ползучий» процесс, что уже происходит буквально на наших глазах. Релиз за релизом, пару раз в год, OpenAI выпускает очередную версию ChatGPT. Включившись в гонку, Google планирует выпустить Gemini 2.0, от Anthropic ожидаем версию Claude 3.5 Opus. Пока тенденция такая: каждая последующая версия потребляет в 10 раз больше токенов и в 10 раз больше вычислительных ресурсов. По независимым оценкам GPT-4 обошлась в 100 млн долларов и «съела» 10 трлн токенов. Вот следующие четыре порядка — это наши вехи. Миллиард, десять миллиардов, сто миллиардов, триллион долларов. До суммы в триллион долларов, до десяти квадриллионов токенов всё будет идти по этой накатанной дороге. Пока тренд таков, что каждый раз при увеличении в десять раз объёма обучающей выборки и затраченного вычислительного ресурса происходит очередное, явное усиление полученного «интеллекта». Есть основания считать, что на этом пути в 4 порядка доля непосильных для искусственного интеллекта задач станет такой малой, что мы признаем его «сильным». Для осуществления этого замысла нужно по-настоящему много вычислительных ресурсов. Не в разы, а именно на порядки больше, чем есть сейчас. И лидеры в этой гонке это отлично понимают. Так OpenAI совместно с Microsoft анонсировали запуск вычислительного кластера стоимостью 100 млрд. долларов 2031-му году, — говорит Юрий Чайников.

К концу десятилетия ИИ станет умнее большинства людей

«Сегодня они (разработчики ИИприм. ред.) фактически передают ключевые секреты для создания общего искусственного интеллекта компартии Китая на блюдечке с голубой каемочкой. Обеспечение безопасности секретов и параметров AGI потребует огромных усилий, и мы не находимся на правильном пути. Ведущие китайские лаборатории будут не в Пекине или Шанхае, а в Сан-Франциско и Лондоне. Через несколько лет станет ясно, что тайны общего искусственного интеллекта — это самые важные государственные оборонные секреты США, заслуживающие такого же обращения, как чертежи бомбардировщика B-21 или подводной лодки класса Columbia, не говоря уже о ядерных разработках. Но сегодня мы относимся к ним так же, как к случайному программному обеспечению SaaS. Такими темпами мы фактически просто передаем суперинтеллект компартии Китая», — пишет Ашенбреннер.

Робототехника – это инженерная дисциплина, в рамках которой организации могут создавать механические системы, автоматически выполняющие физические маневры. В AGI робототехнические системы позволяют машинному интеллекту проявляться физически. Это крайне важно для внедрения возможностей сенсорного восприятия и физических манипуляций, необходимых системам AGI. Например, с помощью AGI роботизированная рука может чувствовать апельсины, брать их и чистить, как это делают люди. При исследовании AGI инженерные группы используют AWS RoboMaker, чтобы виртуально моделировать роботизированные системы перед их сборкой.

Фактически путь ИИ от GPT-2 (2019 года) до GPT-4 (т. е. в концепции Ашенбреннера — от дошколенка до старшеклассника), был пройден всего за четыре года, что гораздо быстрее любого человеческого ребенка. Это обусловлено ростом вычислительных мощностей (плюс 0,5 OOM в год), алгоритмическими улучшениями (также плюс 0,5) и «расковыванием моделей». Т. е. ИИ выходит из статуса классических чатботов и обретает форму более гибких агентов. Неслучайно на презентациях новых продуктов ведущие компании начали демонстрировать не просто генеративные модели, но настоящих интеллектуальных и крайне очеловеченных по манерам искинов-помощников, которые будут жить у вас в телефоне.

ЧИТАТЬ ТАКЖЕ:  Что значит слово искусственный интеллект

К слову, сам Ашенбреннер работал в команде Superalignment, которая занималась в компании Сэма Альтмана исследованиями и разработкой методов обеспечения безопасности будущих систем искусственного интеллекта, особенно тех, которые можно отнести к системам AGI, т. е. общего искусственного интеллекта (подобному человеческому и способному самообучаться). 11 апреля Ашенбреннер и его коллега Павел Измайлов были уволены. Согласно информации инсайдеров — за утечку конфиденциальной информации. Позже Ашенбреннер заявил: он был уволен из-за того, что поднимал вопросы о недостаточных мерах безопасности в компании, а также делился документами, которые, по мнению руководства, содержали в себе тайны OpenAI. Сам исследователь подобные обвинения отрицает… и пишет текст о важности борьбы со шпионажем.

Начало лета выдалось богатым на удивительно синхронные предостерегающие заявления о рисках развития искусственного интеллекта бывших сотрудников OpenAI — мирового лидера в этой области. Сначала было выпущено открытое письмо, в которых сразу 9 человек (как уже уволившихся, так и еще работающих в компании) предупреждали о безрассудной гонке за сильным искусственным интеллектом.

Коннекционный (или эмерджентный) подход направлен на воспроизведение структуры человеческого мозга с помощью архитектуры нейронных сетей. Нейроны мозга могут изменять пути передачи, когда люди взаимодействуют с внешними раздражителями. Ученые надеются, что модели ИИ, использующие этот субсимвольный подход, смогут воспроизвести интеллект, подобный человеческому, и продемонстрировать когнитивные способности низкого уровня. Большие языковые модели являются примером ИИ, использующего коннекционный метод для понимания естественных языков.

— Если порассуждать без инженерного приземления, то «слабый» искусственный интеллект — это нейросети, которые умеют решать ограниченный круг задач и никогда не решают их в неограниченно широкой области. Это такой самый яркий признак «слабости». Фактически, это тот искусственный интеллект, которым мы имеем на данный момент. Теперь можно порассуждать в обратную сторону. Что такое «сильный» искусственный интеллект? Это системы, которые смогут решать любые задачи, которые может выполнять «обычный человек», на уровне качества «обычного человека». Такой искусственный интеллект пока ещё не создан. Многие знакомы с тестом Тьюринга, по которому «обычные люди» по текстовому диалогу с трудом отличают искусственный интеллект от человека. Этот тест фактически пройден текущими большими языковыми моделями. Гораздо более сложный, так называемый «кофейный тест», пока ещё не преодолён. Робот по просьбе человека должен сделать кофе в незнакомом помещении, т.е. сориентироваться, отыскать кофейный автомат, найти всё необходимое, подставить чашечку, сделать кофе, принести и сказать: «Кофе готов». Вот такой тест пока не по силам существующему в наше время искусственному интеллекту, — отметил эксперт.

Напротив, системы AGI без вмешательства человека могут решать разные проблемы, в том числе возникающие у людей. AGI не ограничивается определенной областью, может самообучаться и решать даже те проблемы, для которых он не предназначен. Так, AGI теоретически представляет собой полноценный ИИ, способный решать непростые задачи, применяя обобщенные когнитивные способности человека.

Каковы теоретические подходы к исследованию общего искусственного интеллекта?

Хотя «сильный» искусственный интеллект, т.е. интеллект, способный самообучаться и самостоятельно решать самый широкий круг задач, которые под силу сейчас только человеку, ещё не создан, однако все тенденции развития в этой области налицо. По оценкам эксперта, мы сможем стать свидетелями появления «сильного» искусственного интеллекта уже при жизни нынешнего поколения.

«Когда я пришел в OpenAI, я не подписывался на такую позицию: „Давайте выпустим вещи в мир, посмотрим, что произойдет, и исправим их потом“», — цитирует The Times слова инженера Уильяма Сондерса. Письмо, кстати, было одобрено крестным отцом ИИ Джеффри Хинтоном, который работал над развитием нейросетей с 1970-х.

Обработка естественного языка (NLP) – это отрасль ИИ, которая позволяет компьютерным системам понимать человеческий язык и генерировать на нем информацию. Системы NLP используют компьютерную лингвистику и технологии машинного обучения для преобразования языковых данных в простые представления, называемые токенами, и понимания их контекстуальной взаимосвязи. Например, Amazon Lex – это ядро NLP, которое позволяет организациям создавать чат-боты с диалоговым ИИ.

Для достижения AGI требуется более широкий спектр технологий, данных и взаимосвязей, чем те, которые лежат в основе современных моделей ИИ. Творчество, восприятие, обучение и память необходимы для создания моделей ИИ, имитирующих сложное человеческое поведение. Эксперты в области ИИ предложили несколько методов проведения исследований AGI.

Эссе Ашенбреннера под названием «Осведомленность о ситуации: Предстоящее десятилетие» обсуждал почти весь мир. Даже в России буквально на каждой сессии ПМЭФ, посвященной ИИ, вспоминали фамилию автора. Кто-то в позитивном контексте: например, представители Сбера порекомендовали почитать документ в сокращенной версии, прогнав его через сберовский GigaChat. Кто-то в негативном: гендиректор АО «Крибрум», член совета при президенте РФ по развитию гражданского общества и правам человека Игорь Ашманов окрестил манускрипт абсолютнейшей «пургой на 165 страниц». Но все сошлись в одном — американский научный лидер, который должен быть не искушен политикой, неожиданно говорит о зловещей роли Китая и о том, что США требуется немедленно повысить защищенность своих лабораторий ИИ. Надо проверять всех сотрудников, бороться со шпионажем, а научным центрам быть готовыми сотрудничать с местными военными.

Современные модели искусственного интеллекта ограничены конкретной областью и не могут устанавливать связи между отраслями, тогда как люди способны переносить знания и опыт из одной сферы в другую. Например, с целью создания увлекательного учебного процесса в разработке игр применяются образовательные теории. Полученные в ходе теоретического обучения знания также адаптируют к реальным жизненным ситуациям. Чтобы модели глубокого обучения могли надежно обрабатывать незнакомую информацию, их нужно тщательно тренировать на определенных наборах данных.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь