Искусственный интеллект почему не опасен

0
18

Эксперт считает преувеличенной опасность сильного ИИ для человечества

О слабом и сильном ИИ

В частности, американский миллиардер Илон Маск в апреле предупредил об опасности обучения искусственного интеллекта политкорректности, указав, что подобный ИИ вместо генерации толерантных изображений мог бы «воплотить их в реальность, вероятно, чтобы убить миллионы людей и достичь целей разнообразия».

Слабый искусственный интеллект (Weak AI) — это тип ИИ, предназначенный для выполнения конкретных задач и функций. Он может быть использован для обработки данных, прогнозирования, распознавания образов и других целей. Слабый ИИ широко применяется в различных областях, таких как медицина, финансы, транспорт, создание текстов и иллюстраций, написание IT-кода.

Агентство Bloomberg в среду опубликовало слова бывшего американского разведчика Эдварда Сноудена, который заявил, что правительства и крупные корпорации пытаются взять под свой контроль технологии искусственного интеллекта, но их действия едва ли увенчаются успехом.

«Здесь вероятностные утверждения делаются на основе групповых характеристик, — указывает Атаман, описывая принцип работы алгоритмов. — То, что на первый взгляд кажется объективным, может автоматически воспроизводить предрассудки и стереотипы. Ни в коем случае нельзя недооценивать опасность цифровой дискриминации».

Что тут имеется в виду, показано в отчете на типичных примерах: «Номер почтового индекса, который сам по себе не является дискриминационной характеристикой, становится таковой, выступая в качестве своеобразной замены запрещенной характеристики происхождения — поскольку в силу исторических причин многие мигранты проживают в определенных районах».

«Искусственный интеллект (ИИ) облегчает многие вещи — к сожалению, в том числе и дискриминацию», — так оценивает потенциал ИИ Ферда Атаман (Ferda Ataman), немецкая федеральная уполномоченная по борьбе с дискриминацией. Именно поэтому в конце августа она представила в Берлине подготовленный по заказу ее ведомства доклад, цель которого — надежнее защитить людей от возможной дискриминации со стороны самообучающихся алгоритмических систем принятия решений (ADM).

ИИ может воспроизводить предрассудки и стереотипы

К чему может привести ошибочное использование якобы неподкупных технологий, испытали на себе в 2019 году более 20 тысяч жителей Нидерландов. Их — под угрозой крупных штрафов — незаконно обязали вернуть ранее полученные детские пособия. Отчасти виноват в случившемся был и дискриминационный алгоритм, заложенный в программное обеспечение: особенно пострадали от ошибки лица с двойным гражданством.

ЧИТАТЬ ТАКЖЕ:  Что изучает искусственный интеллект в информатике

САНКТ-ПЕТЕРБУРГ, 5 июня. /ТАСС/. Опасность для человечества сильного искусственного интеллекта (ИИ), который некоторые эксперты преподносят как страшное оружие, способное поработить весь мир, сильно преувеличена, поскольку при угрозе людям его просто можно отключить от источника электроэнергии или лишить расходных запчастей, без которых он работать не сможет, сказал ТАСС в рамках ПМЭФ один из ведущих отечественных и мировых специалистов в области компьютерных технологий, академик Российской академии наук Игорь Каляев.

В отличие от слабого искусственного интеллекта, сильный ИИ может сам ставить себе задачи, решать их и делать выводы. Это вызывает опасения у многих экспертов, ведь невозможно предугадать, какие цели поставит себе сильный ИИ, и к каким последствиям это приведет, в том числе для всего человечества. Пока что сильный искусственный интеллект не создан, но ученые продолжают исследования в этой области.

В качестве аргумента в пользу необходимости принятия срочных мер она приводит устрашающие примеры из других стран. Так, в США ошибочно запрограммированные алгоритмы в кредитных картах систематически дискриминировали женщин при выдаче им кредитов. А в Австралии после ошибки в системе принятия решений, поддерживаемой искусственным интеллектом, сотни тысяч человек были вынуждены вернуть положенную им социальную помощь.

Для таких и похожих случаев федеральная уполномоченная по борьбе с дискриминацией хочет создать при своем ведомстве арбитражную комиссию. Кроме того, Ферда Атаман требует дополнить немецкий закон о всеобщем равенстве обязательной согласительной процедурой.

Примерами слабого искусственного интеллекта являются ChatGPT от OpenAI и YandexGPT, которые основаны на технологии нейросетей. Слабый AI ограничен в своих возможностях и не способен к самостоятельному обучению и адаптации. Он работает на основе алгоритмов и правил, заданных разработчиками.

В экспертном заключении, составленном правоведом Индрой Шпикер (Indra Spiecker) и ее коллегой Эмануэлем Тауфигом (Emanuel Towfigh), характер систем, которые основаны на ИИ, описывается как «черный ящик». Тем, кого это коснулось, практически невозможно отследить причины неблагоприятных для них решений или событий — например, как при вышеупомянутом противоправном возвращении детских пособий.

Сноуден предупредил, что представители больших корпораций могут попытаться внедрять свои взгляды и политику в «мощные модели [ИИ] и навязывать их». Вместе с тем он считает, что попытки поставить ИИ под свой контроль не будут иметь успеха из-за «слишком быстрого развития» этой технологии, добавляет Bloomberg.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь