Кто создал первый искусственный интеллект

0
36

Искусственный интеллект: между мифом и реальностью

2000-е

Многие результаты, достигнутые с использованием технологий ИИ, превосходят человека: в 1997 году компьютер одержал победу над действующим в то время чемпионом мира по шахматам, а недавно, в 2016 году, другие компьютеры обыграли лучших в мире игроков в го и покер. Компьютеры доказывают или помогают доказывать математические теоремы; автоматически, на основе методов машинного обучения и с помощью огромных массивов данных, объем которых исчисляется в терабайтах (10 в 12-й степени) и даже в петабайтах (10 в 15-й степени), создаются знания.

1950-е и 1960-е годы стали временем активной работы над ИИ, которая усиленно финансировалась правительством. Это привело к значительным достижениям в данной сфере: например, Ньюэлл и Саймон опубликовали алгоритм решения общих задач (GPS), который не решал сложные проблемы, но заложил основы для дальнейших разработок, а Маккарти создал Lisp, язык программирования искусственного интеллекта, который используется до сих пор.

В конце 19-го и первой половине 20-го веков проводились фундаментальные работы по созданию компьютера. В 1836 году математик Кембриджского университета Чарльз Бэббидж и Августа Ада Кинг, графиня Лавлейс, воплотили в жизнь первую конструкцию программируемой машины.

Однако популярность термина «искусственный интеллект» во многом объясняется его ошибочным толкованием – в частности, когда им обозначают некую искусственную сущность, наделенную разумом, которая якобы в состоянии конкурировать с людьми. Эта мысль из области древних легенд и преданий, звучащая как миф о Големе, с недавних пор реанимируется такими нашими современниками, как британский физик Стивен Хокинг (1942-2018 гг.), американский предприниматель Илон Маск и американский инженер Рэй Курцвейл, а также сторонниками создания так называемого сильного или общего ИИ. Не будем, впрочем, говорить о данном понимании этого термина, ибо оно скорее представляет собой появившийся под влиянием научной фантастики продукт богатого воображения, а не осязаемую научную реальность, подтвержденную опытами и эмпирическими наблюдениями.

Однако при ближайшем рассмотрении становится очевидно, что работа для людей не пропадает, а трансформируется, требуя новых навыков. Точно так же независимость человеческой личности и ее свобода не подвергаются неминуемой опасности из-за развития ИИ – при условии, однако, что мы останемся бдительными перед лицом вторжения технологий в частную жизнь.

В 1950-х годах Алан Тьюринг, британский математик и взломщик кодов времен Второй мировой войны, впервые проверил на практике идею машинного интеллекта. Он создал тест, который показывал, может ли компьютер обмануть следователей, заставив их поверить, что данные им ответы принадлежат человеку.

1970-е и 1980-е

Преподаватель информатики в университете Сорбонна, профессор Жан-Габриэль Ганасия (Франция) является также научным сотрудником исследовательской лаборатории LIP6, (Laboratoire d’Informatique de Paris 6), действительным членом Европейской ассоциации искусственного интеллекта EurAI (European Association for Artificial Intelligence), членом Университетского института Франции (Institut Universitaire de France) и председателем Комитета по этике Национального научно-исследовательского центра Франции (CNRS). Его научные интересы охватывают такие темы, как машинное обучение, символическое слияние данных, компьютерная этика и цифровые гуманитарные науки.

ЧИТАТЬ ТАКЖЕ:  Как с помощью нейросети заменить лицо

Методы машинного обучения позволяют одним автоматам распознавать устную речь и записывать ее подобно секретарям-машинисткам прошлых лет, а другим – точно идентифицировать лица или отпечатки пальцев среди десятков миллионов других и обрабатывать тексты, написанные на естественных языках. Благодаря этим же методам самостоятельно движутся автомобили, компьютеры лучше врачей-дерматологов диагностируют меланомы по фотографиям родинок, сделанных с помощью сотовых телефонов, роботы воюют вместо людей; а конвейеры на заводах все больше автоматизируются.

Благодаря новым техническим возможностям компьютеров 1990-е годы знаменуется эпохой ренессанса в сфере ИИ. Именно в это время была создана благотворная почва для ИИ-достижений, которые мы наблюдаем сегодня. Развитие ИИ сильно ускоряется, и в 1997 году впервые за всю историю развития компьютерных технологий IBM Deep Blue побеждает российского гроссмейстера Гарри Каспарова.

С 2010 года мощность компьютеров позволяет сочетать так называемые большие данные (Big Data) с методами глубокого обучения (Deep Learning), которые основываются на использовании искусственных нейронных сетей. Весьма успешное применение во многих областях (распознавание речи и изображений, понимание естественного языка, беспилотный автомобиль и т.д.) позволяет говорить о возрождении ИИ.

1956 год считается отправной датой для развития современного ИИ. На летней конференции в Дартмутском колледже, которую спонсировало Агентство передовых оборонных исследовательских проектов (DARPA) собрались ученые и пионеры ИИ Марвин Мински, Оливер Селфридж и Джон Маккарти, который считается автором термина “искусственный интеллект”. Кроме того, на мероприятии была представлена революционная компьютерная программа Logic Theorist, создателями которой являются ученый Аллен Ньюэлл и когнитивный психолог Герберт А. Саймон.

ИИ подразумевает не только рациональный анализ и воспроизведение при помощи компьютеров большинства аспектов интеллекта – может быть, лишь за исключением юмора. Машины значительно превышают наши когнитивные способности в большинстве областей, что заставляет нас опасаться некоторых этических рисков. Это риски трех видов: дефицит работы, которая вместо людей будет выполняться машинами; последствия для независимости человека и, в частности, для его свободы и безопасности; опасения, что более «умные» машины будут доминировать над людьми и станут причиной гибели человечества.

Исследования не прекратились, но пошли в новых направлениях. Ученые заинтересовались психологией памяти, механизмами понимания, которые они пытались имитировать на компьютере, и ролью знаний в мыслительном процессе. Это привело к появлению значительно развившихся в середине 1970-х годов методов семантического представления знаний, а также к созданию экспертных систем, названных так потому, что для воспроизведения мыслительных процессов в них использовались знания квалифицированных специалистов. В начале 1980-х годов на экспертные системы возлагались большие надежды в связи с широкими возможностями их применения, например, для медицинской диагностики.

Могут ли машины стать умнее, чем люди? Нет, считает Жан-Габриэль Ганасия: это всего лишь миф, навеянный научной фантастикой. В своей статье он напоминает об основных этапах развития этой отрасли науки, о достижениях современной техники и об этических вопросах, все больше требующих к себе внимания.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь