Когда будет изобретен искусственный интеллект

0
22

Эволюция искусственного интеллекта, и что нас ждет в 2034 году

Повышение производительности труда с помощью ИИ

Прежде всего за всеми этими разговорами про «всемогущий» ИИ теряется главное — повышение производительности труда. Возьмем роботакси и автопилоты. Сколько лет нам обещают, что они буквально завтра станут повсеместным явлением и помогут сократить число аварий, однако пока этого не наблюдается. Та же Tesla с системой автопилота за девять месяцев 2022 года оказалась замешана в 273 авариях. Да и вообще — зачем пытаться кого-то заменить машиной? Если вместо человека автомобилем будет управлять робот, от этого что-то сильно изменится? С точки зрения повышения эффективности труда лучше менять не водителя, а транспортное средство — водитель автобуса работает многократно эффективнее, чем водитель персональной машины.

Можно с уверенностью сказать, что сейчас мы находимся в самом разгаре лета ИИ. Началом его можно назвать 2012 год, когда группа ученых из Университета Торонто представила архитектуру AlexNet. Это был настоящий прорыв — авторы впервые использовали сверточные нейросети с общей глубиной в восемь слоев и показали, что такая нейросеть может достичь значительно более высоких результатов по сравнению с традиционными моделями машинного обучения. За ней последовали другие архитектуры нейросетей, например Transformer, большие языковые модели, ChatGPT и тому подобное. Однако некоторые эксперты опасаются, что скоро наступит новая зима.

Среди потенциально интересных задач для генеративного искусственного интеллекта в духе нашего времени – генерация кода для отечественных продуктов: это ускорит миграцию на российские технологии и достижение цифрового суверенитета. Использование инструментов автоматического документирования на базе генеративного интеллекта позволит быстрее реализовывать проекты в ИТ, строительстве и науке. Следовательно, в ближайшие годы технология может повысить производительность труда и беспрецедентно изменить мировую экономику. Основным вызовом здесь станет формирование постоянно растущего спроса на новые товары и услуги и поиск рынков сбыта. Максимального результата достигнут компании, которые смогут открыть для себя эти возможности.

В 1956 году в Дартмутском колледже прошел двухмесячный семинар, на котором для обозначения новой области исследования, занимающейся моделированием человеческого разума, американский информатик Джон Маккарти предложил термин «искусственный интеллект». А за два года до этого в Джорджтауне в штаб-квартире корпорации IBM был продемонстрирован полностью автоматический перевод более 60 предложений с русского языка на английский. Презентация прошла успешно и, будучи широко разрекламированной в СМИ, побудила правительство США начать больше инвестировать в компьютерную лингвистику. И не только в нее — с 1950-х по 1970-е годы Управление перспективных исследовательских проектов Министерства обороны США (DARPA) финансировало исследования в области искусственного интеллекта с минимальными требованиями к разработке проектов — фактически исследователи ИИ могли тратить полученные средства на любые проекты, которые им придут в голову. В этот период также появился предшественние современных нейросетей — перцептрон.

Какое-то время преобладали простые модели, которые отлично справлялись с аналитическими задачами. С 2015 появляются новые решения – более совершенные, дешевые и доступные. Начинается гонка за масштабированием. В результате появляются новые архитектуры, которые позволяют языковым моделям эффективнее работать с графическими и текстовыми данными. Развиваются большие языковые модели (LLM) и улучшается обработка естественного языка, в том числе машинный перевод и языковое моделирование. Эксперты допускают, что именно этот тип архитектуры может стать ведущим в дальнейшем развитии ИИ.

Есть мнение, что сегодня мы стоим на пороге создания сильного искусственного интеллекта (AGI), способного мыслить и действовать как обычный человек. AGI – гипотетические системы, которые будут обладать такой же универсальностью, как и наш мозг, и смогут решать неограниченное количество интеллектуальных задач. Таких решений пока не существует, но работа в этом направлении уже идет. С тем, что AGI станет доступен к концу XXI столетия, согласны большинство экспертов. А по самым оптимистичным оценкам, технология может появиться уже в 2032 году. Если мы не будем сбавлять темпы, то, на мой взгляд, прогноз может оказаться вполне реальным.

Чтобы предотвратить новую зиму, необходимо сосредотачиваться на тех технологиях и тех проектах, которые принесут очевидную пользу с точки зрения производительности труда и экономики. Ресурсы человечества не бесконечны, а это значит, что их нужно использовать максимально эффективно. Касаемо «наших» нейросетей, таких как Kandinsky или GigaChat — конечно, хорошо, что мы смогли повторить успехи Америки. Но, откровенно говоря, это не лучшие достижения Соединенных Штатов. Если бы мы сделали нейросеть, которая умеет предсказывать новые материалы и лекарства, и внедрили ее в промышленность, то это дало бы ощутимую пользу и экономике, и людям. Или всерьез занялись компьютерной томографией и новыми методами, позволяющими осуществлять исследование объектов без их разрушения. Это способствовало бы прорыву в производстве авиадвигателей или иных сложных аппаратов.

Однако последние 15 лет мы наблюдаем новую волну интереса к исследованиям в области ИИ. Он начинает активно развиваться и приносить пользу людям, появляются примеры коммерческого применения. Многие задачи, над которыми человечество десятилетиями «ломало» голову, оказались решены за довольно короткий промежуток времени – благодаря искусственному интеллекту.

ЧИТАТЬ ТАКЖЕ:  Как сделать нейросеть с нуля

Экономика и экология

Отдельно стоит рассмотреть вопрос энергопотребления и экологический вред от технологий ИИ. ChatGPT потребляет не просто огромное, а чудовищно огромное количество энергии — чат-бот OpenAI отвечает на 200 млн запросов ежедневно, и серверам, на которых работает сервис, для этого необходимо 500 тыс. кВт·ч энергии (для сравнения — в год среднестатистическое домохозяйство в США использует лишь 29 кВт·ч). И это не предел — по оценкам одного из крупнейших в мире инвестиционных банков Goldman Sachs, искусственный интеллект способен увеличить потребность в электроэнергии в центрах обработки данных на 160% к 2030 году.

Конечно, мы не хотим сказать, что технологии ИИ бесполезны: во многих отраслях правильное их применение (не замена человеку, а помощь ему) дает положительный эффект. Однако инвестиции в них пока несоразмерны эффекту. Согласно статистике, 60–80% проектов, связанных с искусственным интеллектом, проваливаются, а потому сейчас можно прогнозировать, что многие финансовые вложения в эту область окажутся потрачены в никуда. А это чревато тем, что всеобщее ликование по поводу ИИ вскоре сменится, и, похоже, уже на наших глазах сменяется, всеобщим разочарованием и приостановкой инвестиций с заморозкой многих проектов.

Середина 2010-х стала точкой перелома, после которой стремительно начало развиваться глубокое обучение. Оно позволяет создавать новые типы приложений для работы с огромными объемами информации. Тогда же начали развиваться вариационные автоэнкодеры (Variational Autoencoder, VAE). Это генеративные модели, которые состоят из двух частей: одна анализирует любые данные, другая выдает на их основе похожий уникальный результат. Например, с помощью VAE можно написать музыку или создать изображение.

К началу 2024 года появилось уже несколько продвинутых генеративных языковых моделей, в том числе самая передовая на сегодня GPT-4 и ее ближайший конкурент Gemini Ultra от Google. Они очень быстро нашли применение в бизнесе и повседневной жизни. Так, всего за пару месяцев 2023-го активными пользователями ChatGPT стали 100 млн человек – исторический рекорд. Сегодня аналитики оценивают их число в 180 млн. На рынке появляется все больше решений, скорость их разработки растет в геометрической прогрессии. Возможно, пока вы читаете этот текст, появилась новая, более совершенная модель.

И это только некоторые достижения в области ИИ – наиболее яркие и революционные. Как мы видим, предыдущие 10 лет были очень динамичными и насыщенными для искусственного интеллекта – отрасль «вышла из спячки». От локального исследования потенциала глубокого обучения мы максимально приблизились к повсеместному применению технологии вплоть до бытового уровня.

Но к 1970-м всеобщий энтузиазм начал затухать. Во-первых, алгоритмы-предшественники онлайн-переводчика DeepL хоть и подавали большие надежды, но без понимания контекста предложения выдавали некорректные результаты и в целом обходились дороже людей-переводчиков. Во-вторых, в 1969 году вышла книга «Перцептроны» Марвина Мински и Сеймура Пейперти, в которой ученые заявили, что хоть первые нейросетевые модели и показывали феноменальные способности к обучению, их функциональность для решения каких-либо задач на тот момент была крайне мала. В-третьих, повлияло и принятие поправки сенатора Майкла Мэнсфилда 1969 года. В соответствии с инициативой, DARPA сокращала финансирование «общих исследований». Теперь ученые были обязаны доказать, что их ИИ-исследования имеют «прямую и очевидную» пользу для конкретных военных задач. Финальным аккордом стал отчет английского ученого Джеймса Лайтхилла, подготовленный в 1973 году. В нем английский математик дал крайне пессимистический прогноз насчет перспектив ИИ, отдельно отметив, что ни одно из открытий в этой области не оказало существенного влияния на науку и общество в целом.

Причины этого процесса понятны. Государство должно следовать воле своих избирателей, а те, во-первых, желают знать, какой контент был создан человеком, а какой — машиной. Во-вторых, они не хотят, чтобы ИИ учился на их данных. Едва ли кому-нибудь понравится, что после посещения условного сайта с квартирами на продажу ему вскоре начинают звонить и предлагать выгодные ипотеки, кредиты и тому подобное.

В 1980-х интерес к ИИ возродили экспертные системы — программы для ЭВМ, которые умели предсказывать и прогнозировать результаты какого-либо события со множеством переменных на основе полученных данных. Корпорации по всему миру начали активно их внедрять, а Министерство международной торговли и промышленности Японии даже запустило проект по созданию компьютерных систем пятого поколения, которые, как предполагалось, смогут вести беседу с людьми, интерпретировать изображения и станут основой для будущих исследований ИИ. Но затем все повторилось, как в 1970-е. Экспертные системы и вычислительные машины, на которых те запускались, было дорого обслуживать, и по итогу они проиграли конкурентную борьбу компьютерам Apple и IBM. Проект японского министерства тоже провалился, и это тоже внесло вклад в начало второй «зима искусственного интеллекта», которая продлилась с 1987 по 1994 год.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь