Содержание статьи
Эксперт считает преувеличенной опасность сильного ИИ для человечества
О слабом и сильном ИИ
Сноуден предупредил, что представители больших корпораций могут попытаться внедрять свои взгляды и политику в «мощные модели [ИИ] и навязывать их». Вместе с тем он считает, что попытки поставить ИИ под свой контроль не будут иметь успеха из-за «слишком быстрого развития» этой технологии, добавляет Bloomberg.
«Специфический феномен использования систем ADM состоит в том, что их дискриминационный потенциал может быть заложен уже в самой системе, — отмечается в докладе. Причиной может быть качественно неполноценный, ошибочный, неподходящий для действий в задуманных целях или искаженный набор данных.
В экспертном заключении, составленном правоведом Индрой Шпикер (Indra Spiecker) и ее коллегой Эмануэлем Тауфигом (Emanuel Towfigh), характер систем, которые основаны на ИИ, описывается как «черный ящик». Тем, кого это коснулось, практически невозможно отследить причины неблагоприятных для них решений или событий — например, как при вышеупомянутом противоправном возвращении детских пособий.
Это может иметь негативные последствия для всех поселившихся там людей, поскольку, например, при выдаче кредитов они могут рассматриваться банком как финансово рискованные заемщики, которые могут оказаться не в состоянии погасить долг. В результате такие лица не получают кредит. «Дискриминация посредством статистики» — так специалисты называют практику приписывания характеристик и показателей с помощью статистических методов, основываясь на фактических или предполагаемых средних значениях для той или иной группы.
Слабый искусственный интеллект (Weak AI) — это тип ИИ, предназначенный для выполнения конкретных задач и функций. Он может быть использован для обработки данных, прогнозирования, распознавания образов и других целей. Слабый ИИ широко применяется в различных областях, таких как медицина, финансы, транспорт, создание текстов и иллюстраций, написание IT-кода.
«Как показывает история, в том числе и современная, побеждает не тот, кто обладает супер умным и высокотехнологичным оружием, а тот, кто обладает простыми и дешевыми средствами поражения, причем в массовом количестве, кроме того, может выживать и действовать при отсутствии всех благ современной цивилизации. Вспомните, как гунны победили Римскую империю, Вьетнам победил США и так далее. Поэтому и сильный ИИ вовсе не является тем супероружием, с помощью которого можно завоевать весь мир. Если сильный искусственный интеллект, появления которого сейчас многие боятся, будет превращаться в угрозу человечеству, его просто можно отключить от источников электроэнергии, что можно сделать совершенно разными способами, после чего он превратится просто в груду металлолома», — сказал он ТАСС.
Данные и режим работы ИИ — «черный ящик»
«Здесь вероятностные утверждения делаются на основе групповых характеристик, — указывает Атаман, описывая принцип работы алгоритмов. — То, что на первый взгляд кажется объективным, может автоматически воспроизводить предрассудки и стереотипы. Ни в коем случае нельзя недооценивать опасность цифровой дискриминации».
Примерами слабого искусственного интеллекта являются ChatGPT от OpenAI и YandexGPT, которые основаны на технологии нейросетей. Слабый AI ограничен в своих возможностях и не способен к самостоятельному обучению и адаптации. Он работает на основе алгоритмов и правил, заданных разработчиками.
Для таких и похожих случаев федеральная уполномоченная по борьбе с дискриминацией хочет создать при своем ведомстве арбитражную комиссию. Кроме того, Ферда Атаман требует дополнить немецкий закон о всеобщем равенстве обязательной согласительной процедурой.
В частности, американский миллиардер Илон Маск в апреле предупредил об опасности обучения искусственного интеллекта политкорректности, указав, что подобный ИИ вместо генерации толерантных изображений мог бы «воплотить их в реальность, вероятно, чтобы убить миллионы людей и достичь целей разнообразия».
К чему может привести ошибочное использование якобы неподкупных технологий, испытали на себе в 2019 году более 20 тысяч жителей Нидерландов. Их — под угрозой крупных штрафов — незаконно обязали вернуть ранее полученные детские пособия. Отчасти виноват в случившемся был и дискриминационный алгоритм, заложенный в программное обеспечение: особенно пострадали от ошибки лица с двойным гражданством.
САНКТ-ПЕТЕРБУРГ, 5 июня. /ТАСС/. Опасность для человечества сильного искусственного интеллекта (ИИ), который некоторые эксперты преподносят как страшное оружие, способное поработить весь мир, сильно преувеличена, поскольку при угрозе людям его просто можно отключить от источника электроэнергии или лишить расходных запчастей, без которых он работать не сможет, сказал ТАСС в рамках ПМЭФ один из ведущих отечественных и мировых специалистов в области компьютерных технологий, академик Российской академии наук Игорь Каляев.
В качестве аргумента в пользу необходимости принятия срочных мер она приводит устрашающие примеры из других стран. Так, в США ошибочно запрограммированные алгоритмы в кредитных картах систематически дискриминировали женщин при выдаче им кредитов. А в Австралии после ошибки в системе принятия решений, поддерживаемой искусственным интеллектом, сотни тысяч человек были вынуждены вернуть положенную им социальную помощь.
«Искусственный интеллект (ИИ) облегчает многие вещи — к сожалению, в том числе и дискриминацию», — так оценивает потенциал ИИ Ферда Атаман (Ferda Ataman), немецкая федеральная уполномоченная по борьбе с дискриминацией. Именно поэтому в конце августа она представила в Берлине подготовленный по заказу ее ведомства доклад, цель которого — надежнее защитить людей от возможной дискриминации со стороны самообучающихся алгоритмических систем принятия решений (ADM).