Содержание статьи
Искусственный интеллект: краткая история, развитие, перспективы
Заключение
количество последних достаточно велико. Сетевая (коннекционистская) модель, получившая закрепление в рассматриваемой технологии, предполагает, что интеллект -это возникающее, а не имманентное качество; «высокоуровневые задачи, например, распознавание шаблонов и установление связей между ними, проявляется автоматически в результате распространения активности по сети посредством
В 1955 г. будущий нобелевский лауреат А. Ньюэлл, Х. А. Саймон и Дж. С. Шоу создали компьютерную программу «Logic Theorist» («Теоретик логики»). С помощью этой программы удалось решить 38 из 52 теорем Б. Рассела, для некоторых из которых были найдены новые, более оптимальные решения. Именно в обсуждении этой программы впервые прозвучал термин «сильный искусственный интеллект» — техническое устройство, по своим характеристикам и возможностям не уступающее человеческому разуму.
Самая ранняя успешная программа искусственного интеллекта была создана Кристофером Стрейчи в 1951 году. А уже в 1952 году она играла в шашки с человеком и удивляла зрителей своими способностями предсказывать ходы. По этому поводу в 1953 году Тьюринг опубликовал статью о шахматном программировании.
Объектом исследования является технология искусственного интеллекта. Предметом исследования выступают закономерности и факторы становления и развития данной технологии. Философские предпосылки были заложены в классических научных работах, однако фундаментом становления рассматриваемой технологии нужно считать исследования в области нейрофизиологии и теории вычислительной техники. В XX веке, с развитием компьютерной техники, данная технология получила импульс к развитию, что к настоящему времени привело к её широкому распространению и обусловило интерес к ней социо-гуманитарных наук, в первую очередь, юриспруденции и этики. В основе исследования лежат системный и историографический методы, благодаря которым была осуществлена систематизация научных источников. Также были использованы общенаучные логические методы (анализ, синтез, индукция) в целях выделения и обобщения закономерностей и факторов развития рассматриваемой технологии. В результате исследования были сформулированы следующие выводы. Методологической основой современных технологий искусственного интеллекта является теория нервной системы, по аналогии с которой конструируются системы искусственного интеллекта на базе искусственных нейронных сетей. Процесс становления и развития данной технологии был расчленён на 5 этапов. К факторам, обеспечившим широкое распространение систем искусственного интеллекта к настоящему времени, относятся: возможность моделирования процессов человеческого мышления; возможность сбора и обработки больших данных; междисциплинарный и многоаспектный характеры научных исследований данной технологии.
Некоторые ученые отмечают риски внедрения ИИ в повседневную жизнь. Так, британский ученый Стивен Хокинг считал, что создать ИИ, превосходящий человека по всем параметрам, все же удастся, но справиться с ним будет нам не под силу, и людям будет нанесен существенный вред. Илон Маск же считает, что искусственный разум в дальнейшем будет нести куда большую угрозу по сравнении с ядерным оружием.
В 1943 г. У. МакКаллох и У. Питтс в совместной статье обосновали с помощью терминологии логики высказываний (пропозициональной логики) сетевой характер обработки информации в любых системах, предложили термины «искусственный нейрон» и «искусственная нейронная сеть». Под первым понималась нелинейная функция, способная изменять свой значение в зависимости от входящих сигналов. Объединение большого количества искусственных нейронов формирует искусственную нейронную
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ИСКУССТВЕННАЯ НЕЙРОННАЯ СЕТЬ / ИСТОРИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / КОННЕКЦИОНИЗМ / БОЛЬШИЕ ДАННЫЕ / НЕЙРОН / ВЫЧИСЛИТЕЛЬНАЯ ТЕХНИКА / ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / ЗИМА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / МОДЕЛИРОВАНИЕ МЫШЛЕНИЯ / COMPUTER ENGINEERING / NEURON / BIG DATA / CONNECTIONISM / ARTIFICIAL INTELLIGENCE HISTORY / ARTIFICIAL NEURAL NETWORK / ARTIFICIAL INTELLIGENCE / ARTIFICIAL INTELLIGENCE ETHICS / AI WINTER / THINKING MODELING
На уровне прикладной компьютерной модели эта теория У. Маккалоха и У. Питтса была реализована Ф. Розенблаттом в 1957 г. под названием «перцептрон» [20, pp- 385~4081, а первое физическое воплощение она получила в виде электронного устройства «Марк-1» тремя годами позже. Несмотря на свою простоту, данное устройство было способно под
Применение ИИ в современной жизни
The object of this research is the technology of artificial intelligence . The subject of this research is the mechanisms and factors of the establishment and development of this technology. Philosophical prerequisites underlied the classical scientific works; however, the foundation for the establishment of the aforementioned technology is the studies in the area of neurophysiology and theory of computation. In the XX century, with the advancement of computer engineering , this technology received an impetus to development, which lead to its widespread proliferation and increased the interest of socio-humanitarian sciences, primarily jurisprudence and ethics towards it. The following conclusions were made. Methodological foundation of the modern technologies of artificial intelligence is the nervous system theory, which serves as prototype for designing the artificial intelligence systems on the basis of the artificial neural networks. The process of establishment and development of such technology was divided into five stages. The factors ensuring wide proliferation of the systems of artificial intelligence include: the possibility of modeling of the processes of human reasoning, collection and processing of large data, interdisciplinary and multifaceted nature of scientific research on this technology.
Аналогичной точки зрения придерживался Н. Винер, основатель современных кибернетики и науки управления. Он писал, что как биологические, так и механические системы управления стремятся к осуществлению рационального целенаправленного поведения, которое, в свою очередь, представляет собой минимизацию ошибок с
Другим основателем современной теории возможности создания машин, автоматов, конструктов, способных по своим когнитивным возможностям стать сравнимыми с человеком считается британский учёный А. Тьюринг, который при работе над усовершенствованием устройства «криптологическая бомба», созданного польскими учёными и направленной на взлом немецкой шифровальной машины «Энигма», сформулировал условия мысленного эксперимента, получившего название «игра в
В 1965 году специалист Массачусетского технологического университета Джозеф Вайценбаум разработал программу «Элиза», которая ныне считается прообразом современной Siri. В 1973 году была изобретена «Стэндфордская тележка», первый беспилотный автомобиль, контролируемый компьютером. К концу 1970-х интерес к ИИ начал спадать.
электронной лампой Г9, с- 143-1571 (в компьютерах первого поколения логические цепи строились на базе ламп). Н ейроны как таковые не могут быть названы элементарными физическими единицами когнитивных процессов, однако их объединение уже позволяет производить мыслительные операции. И менно принцип связи достаточно большого количества простых вычислительных элементов (будь это нейроны или электронные лампы) позволяет мозгу или компьютеру обрабатывать сложные массивы информации.
Таким образом, совершенствование качественно-количественных характеристик компьютерной техники, оптимизация моделей искусственного интеллекта, интеграция их в хозяйственную деятельность вывели данную технологию из области исключительно номотетического, естественно-технического знания и привлекли внимание учёных, работающих в областях знания герменевтического — в первую очередь этики и правоведения.