Содержание статьи
Неидеальная технология: проблемы и ограничения нейросетей
Подборка проблем в творчестве ИИ — в материале Sostav
Эту проблему продемонстрировали многочисленные эксперименты с нейросетью Lensa, в которой пользователи делали для себя аватарки в различных стилях по фото. Многие жаловались на косые глаза и странный взгляд на изображениях. Причём отбраковывать такие картинки было особенно обидно — в остальном многие из них выходили красивыми и яркими.
Однако хуже обрезанной головы может быть только плохо нарисованная голова с перекошенным лицом. Это не редкость в работах ИИ. Нейросеть может неестественно расположить части лица и слить его с пространством. Понятия «естественно» у технологии нет, а так как все люди разные, при поиске универсальных решений ошибки неизбежны.
Но, как и свой прототип, искусственная нейронная сеть несовершенна. Как у любой новой технологии, ИИ таит в себе сложности, проблемы, ограничения, непрогнозируемые последствия и даже угрозы. О чем сейчас переживают создатели нейронных моделей и какие есть варианты развития событий — читайте дальше.
Порой нейросеть рисует зубы и другие детали рта не лучше рук: рот во рту, челюсть на челюсти, кривые зубы или безумное их количество. Как и в случае с конечностями, ИИ понятия не имеет, как изобразить много похожих объектов в рамках одного, и почему конечный результат не выглядит натурально.
Также у DALLE-2 в лексиконе обнаружился набор абсурдных слов, которые соответствуют определенным визуальным концепциям и даже могут согласовываться между собой. Эти слова нейросеть сначала сгенерировала на картинках, а потом исследователи предложили их в качестве запросов и получили определенный результат. Видимо, ИИ видит в них совпадения с реальными запросами, то есть для него эти слова похожи на что-то, что уже встречалось в вводных данных.
Есть версия, что этому предшествовало письмо от штатных исследователей, в котором говорилось о прорыве в области ИИ, который может угрожать человечеству. У совета директоров возникли опасения по поводу коммерческого использования разработок до понимания последствий. Сэма Альтмана отстранили из-за того, что был недостаточно прозрачен в коммуникации с советом. Его способность возглавлять OpenAI была поставлена под сомнение.
Главная причина, по которой пользователи критикуют нейросети, — это неумение рисовать руки. ИИ не усваивает форму человеческой кисти и добавляет лишние пальцы или, наоборот, рисует «лапки динозавра», а также в целом искажает конечности. Иногда нейросети даже дорисовывают лишнюю руку или ногу целиком. Причём стиль рисовки здесь не имеет значения: безумные руки можно увидеть и у реалистичных изображений, и у «мультяшных».
Нейросети же получают и применяют знания изолированно, в рамках конкретных задач. Они не могут гибко интегрировать навыки и использовать их повторно для решения новых задач в другом контексте — ИИ, которая умеет играть в Го, не сможет перенести усвоенные игровые принципы на аналогичную игру.
«Хьюстон, у нас проблемы»: ограничения и недостатки ИИ
Через несколько дней Альтман вернулся на свой пост, чтобы дальше заниматься развитием ChatGPT. Из вышесказанного официально подтверждается только то, что в ближайшем будущем нас ждут серьезные достижения в области ИИ. Но разработка модели GPT 5 на данный момент приостановлена — разработчики работают над вопросами безопасности актуальной языковой модели GPT 4 и устранением недостатков ChatGPT.
В большинстве случаев, если это не прописано в алгоритме, нельзя определить, как нейросеть пришла к тому или иному ответу — генерация осуществляется неконтролируемо. И если для общения с человеком боты используют выбранную языковую систему, то между собой могут переходить на непонятный человеку язык.
Нейросети не могут обобщать знания и разрабатывать на их основе новые стратегии. Например, ИИ, который обучили определять рак груди на маммограммах, не может распознать аномалию на МРТ или УЗИ. Это не позволяет нейросетям выходить за рамки специализации — для распознавания лиц и животных нужно обучать две отдельные модели.
Более того, присутствие несвойственных деталей на объектах сбивает нейросеть с толку. Достаточно изменить несущественную часть изображения — и вот уже ИИ не может отличить собаку от кошки. А способность провести более глубокий сознательный анализ, абстрагироваться от поверхностных признаков и скорректировать свое первое впечатление ему пока недоступна.
Бывает такое: арт от нейросети кажется красивым и детализированным, но если начать присматриваться, то оказывается, что никакие конкретные детали там не прорисованы. Эта проблема встречается чаще, чем может показаться: вместо цветов — пятна, вместо птиц — пятна, вместо надписей — линии и пятна. Формы напоминают то, что должно быть изображено, но ничего в сущности разглядеть на таких картинках нельзя.
Искусственный интеллект — мощная технология, основанная на представлении о мозге как о компьютере. В 1943 году Уоррен Маккаллох и Уолтер Питтс предложили первую простую математическую модель биологического нейрона — сеть из таких нейронов способна обрабатывать данные аналогично тому, как это делает человеческий мозг.