Содержание статьи
Искусственный интеллект
1940-е
1950-е и 1960-е годы стали временем активной работы над ИИ, которая усиленно финансировалась правительством. Это привело к значительным достижениям в данной сфере: например, Ньюэлл и Саймон опубликовали алгоритм решения общих задач (GPS), который не решал сложные проблемы, но заложил основы для дальнейших разработок, а Маккарти создал Lisp, язык программирования искусственного интеллекта, который используется до сих пор.
Такие интеллектуальные системы стали применяться для выполнения самых различных задач (идентификация отпечатков пальцев, распознавание речи и т. д.), а комбинации различных методов из области ИИ, информатики, искусственной жизни и других дисциплин использовались для создания гибридных систем.
Прогресс замедлился в середине 1960-х годов. В 1965 году десятилетний мальчик одержал в шахматном матче победу над компьютером; в 1966 году в докладе, подготовленном по заказу Сената Соединенных Штатов Америки, говорилось о внутренних ограничениях, присущих машинному переводу. Около десяти лет пресса отзывалась об ИИ неодобрительно.
ИИ подразумевает не только рациональный анализ и воспроизведение при помощи компьютеров большинства аспектов интеллекта – может быть, лишь за исключением юмора. Машины значительно превышают наши когнитивные способности в большинстве областей, что заставляет нас опасаться некоторых этических рисков. Это риски трех видов: дефицит работы, которая вместо людей будет выполняться машинами; последствия для независимости человека и, в частности, для его свободы и безопасности; опасения, что более «умные» машины будут доминировать над людьми и станут причиной гибели человечества.
Искусственный интеллект — это наука и технология создания интеллектуальных машин, в первую очередь интеллектуальных компьютерных программ. Интеллект в данном случае — это вычислительная способность достигать целей в мире, присущая человеку, многим животным и некоторым машинам. При этом до сих пор в научном сообществе нет чёткого понимания, какие вычислительные функции считать интеллектом в силу понимания только части из них; по этой причине точного общепринятого определения интеллекта, не завязанного на интеллект человека, не существует. Также из-за того, что интеллект — это сложное понятие, состоящее из множества свойств и функций, некоторые из которых до сих пор не поддаются вычислительным машинам, невозможно чётко отделить «интеллектуальные» машины от «не интеллектуальных»; многие из вычислительных систем, созданных для выполнения той или иной функции можно назвать «в какой-то мере интеллектуальными» [1] .
Исследования в сфере искусственного интеллекта делятся на две категории: теоретические и практические; последние, в свою очередь имеют базовые и прикладные аспекты. Направлений исследования ИИ два. Первое, биологическое, основывается на том, что раз человек обладает интеллектом, искусственные системы должны имитировать его психологию или физиологию. Второе, феноменологическое, изучает само понятие интеллекта, проблемы, стоящие перед миром и способы достижения целей. Оба этих подхода в определённой степени взаимодействуют между собой. Также исследования ИИ тесно взаимодействуют с философией, особенно современной аналитической, так как обе отрасли науки изучают мышление [5] .
2010-е
С 2010 года мощность компьютеров позволяет сочетать так называемые большие данные (Big Data) с методами глубокого обучения (Deep Learning), которые основываются на использовании искусственных нейронных сетей. Весьма успешное применение во многих областях (распознавание речи и изображений, понимание естественного языка, беспилотный автомобиль и т.д.) позволяет говорить о возрождении ИИ.
1956 год считается отправной датой для развития современного ИИ. На летней конференции в Дартмутском колледже, которую спонсировало Агентство передовых оборонных исследовательских проектов (DARPA) собрались ученые и пионеры ИИ Марвин Мински, Оливер Селфридж и Джон Маккарти, который считается автором термина “искусственный интеллект”. Кроме того, на мероприятии была представлена революционная компьютерная программа Logic Theorist, создателями которой являются ученый Аллен Ньюэлл и когнитивный психолог Герберт А. Саймон.
Ученые также прибегают к этим методам для определения функций биологических макромолекул, в частности белков и геномов, исходя из последовательности их компонентов – аминокислот для белков и оснований для геномов. В целом, во всех науках наблюдается серьезный эпистемологический разрыв, обусловленный качественным отличием экспериментов in silico – получивших такое название потому, что выполняются на основе больших данных с помощью мощных процессоров с кремниевыми чипами – от экспериментов in vivo (на живой ткани) и особенно in vitro (в стеклянных пробирках и чашках Петри).
Одна из наиболее осуществимых систем применения ИИ — эвристика, то есть сортировка информации по категориям, используя имеющиеся данные. Пример такой деятельности — анализ контрагентов при банковских операциях [7] . Ещё одна сфера, в которой искусственный интеллект необходим — самоорганизующиеся системы, то есть компьютерные системы, способные изменять себя согласно заданным параметрам, условиям окружающей среды или необходимым к выполнению задачам [9] .
В 1960-х годах Стив Кук, Ричард Карп и другие учёные разработали теорию NP-полных задач, которые в теории решаемы, но время, необходимое на решение таких задач зависит от сложности задачи экспоненциально. При этом люди способны решать подобные задачи зачастую за гораздо меньшее время [1] . К началу 1970-х годов наука об искусственном интеллекте признала приоритет программирования систем над построением их материальной части в деле создания ИИ [6] . Примерно в это же время, начался резкий вал критики в отношении идей создания искусственного интеллекта, вылившийся в сокращение финансирования. В первую очередь это было связано с небольшими вычислительными мощностями существовавших тогда компьютеров, не позволявшими запустить сложную многоуровневую программу, из-за чего все практические образцы ИИ оставались на уровне «игрушек» (наибольшего успеха достигли программы для игры в шахматы).
Главное отличие искусственного интеллекта от других программ в отсутствии чётко заданного алгоритма решении задачи [3] . Согласно одной из распространённых версий, есть необходимый набор свойств для программы, чтобы считаться искусственным интеллектом. Исследователи уточняют, что список может быть неполным, так как какие-то из свойств интеллекта ещё не открыты или достаточно не изучены. Список выглядит так [4] :
Конечная цель практически всех исследований в области искусственного интеллекта — получить ИИ уровня, сопоставимого с человеческим интеллектом. В методах достижения этой цели единства у исследователей нет: кто-то считает, что это достижимо в обозримом будущем с применением существующих технологий и подходов путём увеличения вычислительной и запоминающей мощности несущих ИИ-устройств, а кто-то — что сроки загадывать невозможно, так как существующие подходы к созданию искусственного интеллекта требуют переработки или даже полной замены другими [1] .
С конца 1990-х годов ИИ стали объединять с робототехникой и интерфейсом «человек – машина» с целью создания интеллектуальных агентов, предполагающих наличие чувств и эмоций. Это привело, среди прочего, к появлению нового исследовательского направления – аффективных (или эмоциональных) вычислений (affective computing), направленных на анализ реакций субъекта, ощущающего эмоции, и их воспроизведение на машине, и позволило усовершенствовать диалоговые системы (чат-боты).
Исследование ИИ
Первые попытки теоретического проектирования мыслящих машин были предприняты после Второй Мировой войны сразу несколькими исследователями независимо друг от друга. В 1947 году Алан Тьюринг прочитал первую лекцию об искусственном интеллекте, в которой, вероятнее всего, первым постулировал, что построение оного будет с большей вероятностью заключаться в написании компьютерной программы, чем в проектировании вычислительной машины. Тремя годами позже он выпустил статью «Счётные машины и интеллект» (англ. Computing Machinery and Intelligence ), в которой обсудил вопросы оценки интеллектуальности машины и предложил критерий, по которому машина может считаться интеллектуальной, если она может убедительно представиться человеком информированному наблюдателю. Это было названо по имени создателя, «Тестом Тьюринга». При этом, в дальнейшем неоднократно проводились слепые тесты Тьюринга, которые показали, что большинство людей готовы признать человеком довольно глупую программу [1] .
Тогда же, в конце 1940-х годов, была впервые выдвинута идея машинного обучения. Согласно им, необходимо сделать программу, которая обладает базовым набором знаний и возможностью усваивать информацию, что позволит делать только «оболочку», которая будет самостоятельно достраивать себя до полноценного ИИ [1] .
Несмотря на то, что в самой идее искусственного интеллекта исследователи ориентируются на интеллект человека, симуляция оного на компьютере — не есть цель большей части проектов. Используемый для оценки человеческого интеллекта коэффициент (IQ) не применим для оценки машинных систем, по причине того, что он завязан на интеллектуальное развитие ребёнка и если на взрослых людей эту шкалу можно экстраполировать, то высокие результаты искусственного интеллекта в тесте на IQ не будут означать высокого интеллекта системы. При этом, некоторые из задач, используемых в этих тестах всё же помогают изучать эффективность конкретного искусственного интеллекта. Также, в то время как интеллект всех людей основывается на примерно одинаковых механизмах и развивается приблизительно по одному пути, в машинном интеллекте дело может обстоять с точностью до наоборот: при наличии превосходящих человеческие возможности вычислительных мощностей он основывается на тех принципах и цепочках, которые заложены в него разработчиком, а потому в каждой системе могут, с одной стороны, присутствовать интеллектуальные функции, развиваемые человеком только с подросткового возраста, а с другой — отсутствовать какие-то механизмы, присущие маленьким детям. Осложняется это тем, что природа человеческого интеллекта до сих пор изучена не до конца [1] [2] .
Исследования не прекратились, но пошли в новых направлениях. Ученые заинтересовались психологией памяти, механизмами понимания, которые они пытались имитировать на компьютере, и ролью знаний в мыслительном процессе. Это привело к появлению значительно развившихся в середине 1970-х годов методов семантического представления знаний, а также к созданию экспертных систем, названных так потому, что для воспроизведения мыслительных процессов в них использовались знания квалифицированных специалистов. В начале 1980-х годов на экспертные системы возлагались большие надежды в связи с широкими возможностями их применения, например, для медицинской диагностики.
Если вы хотите, чтобы ваш ребенок открыл для себя мир компьютерных технологий, запишите его на бесплатное пробное занятие по программированию в онлайн-школу Progkids. Все уроки проходят в индивидуальном формате, а также в удобное вам и вашему ребенку время, что делает их максимально комфортными. Опытные преподаватели подбирают уникальный подход к каждому юному дарованию и поощряют любые творческие начинания учеников. В нашей школе есть внутренняя образовательная платформа, на которой можно изучать программирование в формате игры. Более того, ваш ребенок может заниматься созданием арта с помощью ИИ, учиться вести собственный блог или создавать анимированные музыкальные ролики. Кстати, у нашей школы есть свое онлайн-пространство, где ученики делятся новостями, творческими проектами и достижениями, участвуют в конкурсах, а также играют в Minecraft и другие игры вместе с учителями.
В 1930-х годах британский и австрийский математики Алан Тьюринг и Курт Гёдель, а также другие математики пришли к выводу, что не существует универсального алгоритма для решения любых задач в некоторых важных математических областях. Существуют задачи, которые не решаются путём составления алгоритма, но доступны к решению человеком, так что был сделан вывод, что компьютеры по своей природе не могут делать то, что делают люди [1] .