В каком году появилось понятие искусственный интеллект

0
20

Искусственный интеллект: между мифом и реальностью

История

Главное отличие искусственного интеллекта от других программ в отсутствии чётко заданного алгоритма решении задачи [3] . Согласно одной из распространённых версий, есть необходимый набор свойств для программы, чтобы считаться искусственным интеллектом. Исследователи уточняют, что список может быть неполным, так как какие-то из свойств интеллекта ещё не открыты или достаточно не изучены. Список выглядит так [4] :

Однако при ближайшем рассмотрении становится очевидно, что работа для людей не пропадает, а трансформируется, требуя новых навыков. Точно так же независимость человеческой личности и ее свобода не подвергаются неминуемой опасности из-за развития ИИ – при условии, однако, что мы останемся бдительными перед лицом вторжения технологий в частную жизнь.

Искусственный интеллект (ИИ) – это отрасль науки, официально увидевшая свет в 1956 году на летнем семинаре в Дартмут-колледже (Хановер, США), который организовали четверо американских ученых: Джон Мак-Карти, Марвин Мински, Натаниэль Рочестер и Клод Шеннон. С тех пор термин «искусственный интеллект», придуманный, вероятнее всего, с целью привлечения всеобщего внимания, стал настолько популярен, что сегодня вряд ли можно встретить человека, который никогда его не слышал. С течением времени этот раздел информатики развивался все больше, а интеллектуальные технологии в последние шестьдесят лет сыграли важную роль в изменении облика мира.

Самообучающиеся интеллектуальные системы широко применяются практически во всех сферах, особенно в промышленности, банковском деле, страховании, здравоохранении и обороне. Многие рутинные процессы теперь можно будет автоматизировать, что преобразит наши профессии и, в конечном итоге, устранит некоторые из них.

Первые попытки теоретического проектирования мыслящих машин были предприняты после Второй Мировой войны сразу несколькими исследователями независимо друг от друга. В 1947 году Алан Тьюринг прочитал первую лекцию об искусственном интеллекте, в которой, вероятнее всего, первым постулировал, что построение оного будет с большей вероятностью заключаться в написании компьютерной программы, чем в проектировании вычислительной машины. Тремя годами позже он выпустил статью «Счётные машины и интеллект» (англ. Computing Machinery and Intelligence ), в которой обсудил вопросы оценки интеллектуальности машины и предложил критерий, по которому машина может считаться интеллектуальной, если она может убедительно представиться человеком информированному наблюдателю. Это было названо по имени создателя, «Тестом Тьюринга». При этом, в дальнейшем неоднократно проводились слепые тесты Тьюринга, которые показали, что большинство людей готовы признать человеком довольно глупую программу [1] .

С 2010 года мощность компьютеров позволяет сочетать так называемые большие данные (Big Data) с методами глубокого обучения (Deep Learning), которые основываются на использовании искусственных нейронных сетей. Весьма успешное применение во многих областях (распознавание речи и изображений, понимание естественного языка, беспилотный автомобиль и т.д.) позволяет говорить о возрождении ИИ.

И наконец, в противоположность некоторым утверждениям, машины не несут в себе экзистенциального риска для человечества, поскольку их автономия носит лишь технический характер и в этом смысле не соответствует цепочкам материальной причинности, идущим от информации к принятию решений. Кроме того, машины не самостоятельны в моральном плане, и потому, даже если иногда они сбивают нас с толку и вводят в заблуждение своими действиями, они все же не обладают собственной волей и подчиняются тем целям, которые мы перед ними ставим.

Исследования не прекратились, но пошли в новых направлениях. Ученые заинтересовались психологией памяти, механизмами понимания, которые они пытались имитировать на компьютере, и ролью знаний в мыслительном процессе. Это привело к появлению значительно развившихся в середине 1970-х годов методов семантического представления знаний, а также к созданию экспертных систем, названных так потому, что для воспроизведения мыслительных процессов в них использовались знания квалифицированных специалистов. В начале 1980-х годов на экспертные системы возлагались большие надежды в связи с широкими возможностями их применения, например, для медицинской диагностики.

ЧИТАТЬ ТАКЖЕ:  Midjorney нейросеть как пользоваться бесплатно

Исследование ИИ

С конца 1990-х годов ИИ стали объединять с робототехникой и интерфейсом «человек – машина» с целью создания интеллектуальных агентов, предполагающих наличие чувств и эмоций. Это привело, среди прочего, к появлению нового исследовательского направления – аффективных (или эмоциональных) вычислений (affective computing), направленных на анализ реакций субъекта, ощущающего эмоции, и их воспроизведение на машине, и позволило усовершенствовать диалоговые системы (чат-боты).

Многие результаты, достигнутые с использованием технологий ИИ, превосходят человека: в 1997 году компьютер одержал победу над действующим в то время чемпионом мира по шахматам, а недавно, в 2016 году, другие компьютеры обыграли лучших в мире игроков в го и покер. Компьютеры доказывают или помогают доказывать математические теоремы; автоматически, на основе методов машинного обучения и с помощью огромных массивов данных, объем которых исчисляется в терабайтах (10 в 12-й степени) и даже в петабайтах (10 в 15-й степени), создаются знания.

В 1960-х годах Стив Кук, Ричард Карп и другие учёные разработали теорию NP-полных задач, которые в теории решаемы, но время, необходимое на решение таких задач зависит от сложности задачи экспоненциально. При этом люди способны решать подобные задачи зачастую за гораздо меньшее время [1] . К началу 1970-х годов наука об искусственном интеллекте признала приоритет программирования систем над построением их материальной части в деле создания ИИ [6] . Примерно в это же время, начался резкий вал критики в отношении идей создания искусственного интеллекта, вылившийся в сокращение финансирования. В первую очередь это было связано с небольшими вычислительными мощностями существовавших тогда компьютеров, не позволявшими запустить сложную многоуровневую программу, из-за чего все практические образцы ИИ оставались на уровне «игрушек» (наибольшего успеха достигли программы для игры в шахматы).

Преподаватель информатики в университете Сорбонна, профессор Жан-Габриэль Ганасия (Франция) является также научным сотрудником исследовательской лаборатории LIP6, (Laboratoire d’Informatique de Paris 6), действительным членом Европейской ассоциации искусственного интеллекта EurAI (European Association for Artificial Intelligence), членом Университетского института Франции (Institut Universitaire de France) и председателем Комитета по этике Национального научно-исследовательского центра Франции (CNRS). Его научные интересы охватывают такие темы, как машинное обучение, символическое слияние данных, компьютерная этика и цифровые гуманитарные науки.

Могут ли машины стать умнее, чем люди? Нет, считает Жан-Габриэль Ганасия: это всего лишь миф, навеянный научной фантастикой. В своей статье он напоминает об основных этапах развития этой отрасли науки, о достижениях современной техники и об этических вопросах, все больше требующих к себе внимания.

ИИ подразумевает не только рациональный анализ и воспроизведение при помощи компьютеров большинства аспектов интеллекта – может быть, лишь за исключением юмора. Машины значительно превышают наши когнитивные способности в большинстве областей, что заставляет нас опасаться некоторых этических рисков. Это риски трех видов: дефицит работы, которая вместо людей будет выполняться машинами; последствия для независимости человека и, в частности, для его свободы и безопасности; опасения, что более «умные» машины будут доминировать над людьми и станут причиной гибели человечества.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь