Содержание статьи
- 1Создание искусственного интеллекта: современные достижения и отложенные риски Текст научной статьи по специальности «Прочие социальные науки»
- 1.1Похожие темы научных работ по прочим социальным наукам , автор научной работы — Лукьянова Екатерина Дмитриевна
- 1.2Аннотация научной статьи по прочим социальным наукам, автор научной работы — Лукьянова Екатерина Дмитриевна
Создание искусственного интеллекта: современные достижения и отложенные риски Текст научной статьи по специальности «Прочие социальные науки»
Похожие темы научных работ по прочим социальным наукам , автор научной работы — Лукьянова Екатерина Дмитриевна
Социальный контроль постоянно усложняется, перерастая, по существу, в тотальный надзор. Вот лишь некоторые вехи его развития. По Э. Дюркгейму, социальный контроль — это функционирование всех социальных институтов и практик в контексте разделения труда, направленное на поддержание социального порядка; по Н. Луману — «механизм саморегуляции общества»; по П. Вирилио, в период постмодерна социальный контроль становится внутренним, осуществляется с помощью разного рода трансплантатов, а также предполагает «кибернетическое управление мыслью». Новый тип надзора контролирует поведение пользователя в социальных сетях в целях вычисления потенциально опасных для общества индивидов (например, террористов), выявления киберпреступников, подозрительных денежных транзакций и т. д. Однако данный надзор подрывает свободы индивида (право на тайну личной жизни).
article deals with the problem of the pluralization of knowledge about artificial intelligence, the use of performance mechanisms that produce fakes, absolutizing positive or negative consequences of the functioning of artificial intelligence. The article summarizes the state of the risks of artificial intelligence at the moment. Recommendations for further interdisciplinary study of artificial intelligence are presented. The article substantiates the importance of the implementation of the risk assessment of the emerging programs based on artificial intelligence.
Аннотация. В статье рассмотрена проблема развития искусственного интеллекта, его амбивалентное влияние на общество и человека. Дано определение искусственного интеллекта, очерчено проблемное поле его исследования. Проанализированы явные и латентные функции искусственного интеллекта, которые могут спровоцировать отложенные риски. Рассмотрен искусственный интеллект как сложный социобиотехнический гибрид и качественно новый механизм социального контроля. Оценены достижения, а также рискогенная роль искусственного интеллекта в современном сложном социуме в производстве отложенных рисков. Особое внимание уделяется знанию о феномене искусственного интеллекта, приобретающего междисциплинарный характер. Конкретно указаны некоторые отложенные риски, относящиеся к функционированию искусственного интеллекта. В контексте рискологического поворота рассмотрены факторы, способствовавшие созданию социобиотехнического гибрида в виде искусственного интеллекта. Рассмотрены риски нового типа иррациональной рациональности, причиной которой, по мнению автора, является внедрение информационных технологий и искусственного интеллекта в социальные процессы, отмечены побочные последствия этой рациональности. Отмечена проблема риска деинтимизации, лишения человека возможностей и права на личную информацию, что может повлечь за собой новые проявления отчуждения в виде дегуманизации социальных и природных реалий. Также рассматриваются проблема плюрализации знания об искусственном интеллекте, использование перформа-тивных механизмов, производящих фейки, абсолютизирующие позитивные или, напротив, негативные последствия функционирования искусственного интеллекта. Даны обобщения состояния рискогенности искусственного интеллекта в настоящий момент. Представлены рекомендации для дальнейшего междисциплинарного изучения искусственного интеллекта. Обоснована важность реализации оценки рискогенности программ, создаваемых на базе искусственного интеллекта.
Искусственный интеллект создаёт новую глобальную систему контроля. Фактически мы имеем дело со становлением глобального надзора, который осуществляется в контексте внетерриториальности и во «вневременном времени» (М. Кастельс). Вся информация о любом индивиде, независимо от места его проживания и нахождения, легко может быть вычислена искусственным интеллектом и использована либо ему во благо (устранение той или иной девиации), либо против него.
Конструируется искусственная реальность, которая в конечном счёте станет диктовать человеку собственные установки. Например, американская компания Amazon построила единственный в мире автоматизированный супермаркет AmazonGo. Все продукты, которые человек кладёт в корзину, считываются, и деньги списываются с карты покупателя. Amazon способен запоминать предпочтения каждого покупателя и сам предлагает покупателю подходящий товар. Это не просто означает, что искусственный интеллект будет диктовать покупателю своё мнение, он будет предвосхищать мысли человека ещё раньше, чем человек подумает о том, что он собирается сделать. Люди утрачивают возможность контролировать свои желания, так как из акторов превращаются в объекты происходящих трансформаций. В постоянном желании и попытках достичь ещё большего развития люди начинают, сами того не подозревая, подвергаться необратимой трансформации со стороны созданной ими же реальности. Происходит изменение ролей создателя и создаваемого, когда создаваемое начинает диктовать свою волю создателю.
До сих пор основной опасностью искусственного интеллекта (ИИ) было то, что люди слишком рано делали вывод, что они его понимают. Разумеется, эта проблема не ограничена ИИ. Jacques Monod пишет: «забавным аспектом теории эволюции является то, что каждый думает, что понимает её». (Monod, 1974.) Мой отец, физик, жаловался на людей, придумывавших свои собственные физические теории: «интересно знать, почему люди не придумывают свои собственные теории химии?» (Но они делают.) Тем не менее, проблема является особенно актуальной в области ИИ. Область ИИ имеет репутацию того, что она даёт огромные обещания и не исполняет их. Большинство наблюдателей считают, что ИИ труден, и это на самом деле так. Но запутанность не происходит из трудности. Трудно сделать звезду из водорода, но звездная астрофизика не имеет ужасающей репутации обещать сделать звезду и затем не смочь. Критическим выводом является не то, что ИИ труден, а то, что, по неким причинам, людям очень легко думать, что они знают об Искусственном Интеллекте гораздо больше, чем на самом деле.
Аннотация научной статьи по прочим социальным наукам, автор научной работы — Лукьянова Екатерина Дмитриевна
В значительной степени проблема искусственного интеллекта остаётся в сфере научного незнания. У. Бек пишет о том, что современное общество является обществом незнания в самом прямом смысле: «Оно не может быть преодолено ббльшим и лучшим знанием, ббльшей или лучшей наукой. Жить в среде созданного незнания означает искать неизвестные ответы на вопросы, которые никто не может ясно сформулировать» [Beck, 2010].
Выход из создавшейся ситуации есть: знание об искусственном интеллекте, цифровизации экономики и социума относится к передовым исследованиям, требующим принципиально новых теорий, предполагающим наведение мостов между социальными, естественными и гуманитарными науками [Гидденс, 2003].
Искусственный интеллект дегуманизирует и деинтимизирует частную жизнь людей. Полгода назад компания Real Botix представила своё изобретение — Генри — первого управляемого искусственным интеллектом робота для секса. М. Козинский, психолог из Стэнфорда, запустил программу, которая способна по фотографии распознать сексуальную ориентацию человека. Опыт привёл к 92% точности. Программа самостоятельно обучилась находить по внешности человека признаки гомосексуальности, которые она обнаружила, проанализировав сотни тысяч фотографий. В результате в современном обществе частная жизнь, в нынешнем понимании данного термина, исчезнет, что прямо обо-
З. Бауман называет современный мир текучим, сравнивая его с жидкостью: жидкость не фиксирует пространство и время, она текуче перемещается, жидкости обтекают одни препятствия, растворяют другие и просачиваются через третьи. Текучесть присутствует во множестве сфер: любви, времени, страхе, культуре. Мораль размывается в текучем мире и становится амбивалентной. Нет более категорий хороший / плохой, теперь всё становится амбивалентным.
Согласно концепции О. Н. Яницкого, в ходе прогресса общество создало «вторую природу», искусственную — совокупность социобиотехнических систем [Яницкий, 2016]. Искусственный интеллект является новейшим гибридом социобиотехнической системы, который характеризуется крайне быстрым и усложняющимся развитием. Он объединяет вокруг себя институты, индивидов, группы, организации и образует новую социобиотехническую реальность.
В статье рассмотрена проблема развития искусственного интеллекта , его амбивалентное влияние на общество и человека. Дано определение искусственного интеллекта , очерчено проблемное поле его исследования. Проанализированы явные и латентные функции искусственного интеллекта , которые могут спровоцировать отложенные риски. Рассмотрен искусственный интеллект как сложный социобиотехнический гибрид и качественно новый механизм социального контроля . Оценены достижения, а также рискогенная роль искусственного интеллекта в современном сложном социуме в производстве отложенных рисков . Особое внимание уделяется знанию о феномене искусственного интеллекта , приобретающего междисциплинарный характер. Конкретно указаны некоторые отложенные риски , относящиеся к функционированию искусственного интеллекта . В контексте рискологического поворота рассмотрены факторы, способствовавшие созданию социобиотехнического гибрида в виде искусственного интеллекта . Рассмотрены риски нового типа иррациональной рациональности, причиной которой, по мнению автора, является внедрение информационных технологий и искусственного интеллекта в социальные процессы, отмечены побочные последствия этой рациональности. Отмечена проблема риска деинтимизации, лишения человека возможностей и права на личную информацию, что может повлечь за собой новые проявления отчуждения в виде дегуманизации социальных и природных реалий. Также рассматриваются проблема плюрализации знания об искусственном интеллекте, использование перформативных механизмов, производящих фейки, абсолютизирующие позитивные или, напротив, негативные последствия функционирования искусственного интеллекта . Даны обобщения состояния рискогенности искусственного интеллекта в настоящий момент. Представлены рекомендации для дальнейшего междисциплинарного изучения искусственного интеллекта . Обоснована важность реализации оценки рискогенности программ, создаваемых на базе искусственного интеллекта .