Содержание статьи
Достоинства и недостатки нейронных сетей
Достоинства нейросетей
В тоже время, по мере развития ИИ, возникает все больше заявлений, предупреждающих о возможных негативных последствиях его распространения. Еще в 2014 г. великий ученый Стивен Хокинг в интервью BBC предупреждал, что развитие искусственного интеллекта может положить конец человеческой расе.
В 2018 г. в центре скандала оказался Amazon. Созданная им система на базе ИИ оценивала резюме соискателей на вакансию разработчика и снижала баллы женщинам. В компании объяснили, что это произошло потому, что обучение нейросети происходило на основе имеющихся у нее резюме разработчиков, 90% из которых были мужчинами.
Популярные платформы YouTube и TikTok полны созданных с помощью ИИ рекламных роликов с участием знаменитостей. Например, в конце 2023 г. в социальных сетях появился видеоролик, где президент Казахстана Касым-Жомарт Токаев призывает инвестировать в новую платформу Илона Маска и заработать до $5 тыс. Ролик был сгенерирован нейросетью. Сколько людей удалось обмануть мошенникам, неизвестно.
В мае 2019 г. в интернете было опубликовано видео спикера Палаты представителей Конгресса США Нэнси Пелоси, на котором ее речь была нечеткой и сбивчивой. Несмотря на то, что видео достаточно быстро было идентифицировано как дипфейк, разразился скандал. «Что, если кто-то создаст видео, на котором президент Трамп говорит: «Я запустил ядерное оружие против Ирана, Северной Кореи или России»? У нас не будет времени разобраться, правда это или нет. Последствия могут быть фатальными. При этом надо понимать, что технология создания подобных видео находится не в руках немногих, а в руках многих», — предостерег Хани Фарид, профессор Калифорнийского университета в Беркли.
Сегодня мир перешагнул порог еще одного удивительного открытия — появился искусственный интеллект (ИИ), способный решать задачи, еще недавно доступные только человеку. С ним связывают надежды на лучшее будущее — ему можно поручить рутинные операции, освободив время для более творческих задач. Искусственный интеллект может работать не покладая рук — он не болеет, не устает, не подвержен выгоранию, не совершает ошибок.
Одна из серьезнейших проблем — обнаружение в нейросетях дискриминационного поведения. Один из первых крупных скандалов разразился в 2015 г., когда в Google Photo появился сервис на базе ИИ, автоматически помечающий загруженные фотографии. Как выяснилось, нейросеть идентифицировала чернокожих людей на снимках как гориллу. Аналогичная проблема была у Flickr — там изображения чернокожих людей отмечались тегами «обезьяна» и «животное».
Недостатки нейросетей
Технологию дипфейков быстро взяли на вооружение мошенники. В 2019 г. директору британской энергетической компании по телефону позвонил руководитель головного офиса и попросил срочно перевести венгерскому поставщику $243 тыс. Искусственный интеллект так хорошо сымитировал голос начальника, что у жертвы не возникло ни малейших сомнений. Директор выполнил поручение. Обман вскрылся лишь когда мошенники позвонили с аналогичной просьбой во второй раз. Название пострадавшей компании не раскрывается.
В ноябре 2023 г. неправительственная британская организация Internet Watch Foundation сообщила, что только за сентябрь 2023 г. в даркнете появилось около 3 тыс. созданных при помощи дипфейков порнографических видео с участием детей. В них использовались детские фотографии, обнаруженные преступниками в открытом доступе, а также сгенерированные нейросетью изображения звезд в детском возрасте.
В 2021 г. Google выпустила приложение для распознавания заболеваний кожи. Нейросеть была обучена на данных 65 тыс. изображений 12 тыс. пациентов. Однако доля пациентов с темной кожей в выборке составляла лишь 3,5%. В результате, по словам дерматологов, приложение оказалось непригодным для диагностики людей, которые не являются белыми.
Совершая научное открытие или создавая новую технологию, ученые не всегда думают или стараются не думать о том, к каким последствиям это может привести — интерес исследователя берет верх. Самый известный пример — высвобождение энергии атома и катастрофа в японских городах Хиросима и Нагасаки.
Будущее человечества часто связывают с развитием искусственного интеллекта, в частности, нейросетей, способных имитировать работу человеческого мозга, обрабатывать огромные массивы информации и обучаться в процессе работы. Однако первый опыт использования нейросетей показывает, что технология может принести с собой новые проблемы, решить которые человечество пока не в состоянии.
Жертвами дипфейков становятся не только компании, но и обычные граждане. Так, по данным Федеральной торговой комиссии США, мошенничество с использованием технологий имитации занимает первое место по частоте использования и второе — по величине нанесенных убытков. В 2022 г. его жертвами стали более 5 тыс. человек, они перевели преступникам почти $11 млн.
Поведение нейросетей полностью зависит от того, какие алгоритмы в них закладываются и какие данные используются в процессе ее обучения. Но что будет, если алгоритмы или данные окажутся низкокачественными? Не окажется ли небольшая ошибка ИИ губительной для человека?
Нейросети позволяют создавать значения из большого количества неточных или сложных значений, а также аппроксимировать, классифицировать и распознавать более точно и быстро в сравнении с классическими алгоритмами. Хотя во многих задачах человеческий мозг превосходит возможности существующих на сегодня ИНС, их преимущества нельзя игнорировать, поэтому они имеют широкое применение. Их достоинства: