Содержание статьи
Неидеальная технология: проблемы и ограничения нейросетей
Восстание нейросети
Главная причина, по которой пользователи критикуют нейросети, — это неумение рисовать руки. ИИ не усваивает форму человеческой кисти и добавляет лишние пальцы или, наоборот, рисует «лапки динозавра», а также в целом искажает конечности. Иногда нейросети даже дорисовывают лишнюю руку или ногу целиком. Причём стиль рисовки здесь не имеет значения: безумные руки можно увидеть и у реалистичных изображений, и у «мультяшных».
Мошенники могут использовать ИИ, чтобы получать доступы к чужим аккаунтам и конфиденциальным данным. Например, попросить нейросеть синтезировать голос по образцу. В Израиле провели эксперимент, в процессе которого научили нейросеть генерировать грим, который может обмануть систему распознавания лиц.
Активное применение нейросетей для создания контента может привести к тому, что интернет заполонит сгенерированная информация. Это грозит огромным количеством фейков, в том числе новостных, которые тем более опасны, чем более качественные тексты научится писать ИИ — будет все сложнее отличить информацию из источников от сгенерированных материалов с фактическими ошибками. Тем более что нейросеть умеет учитывать алгоритмы поисковых систем, и ее материалы могут занимать более высокие позиции в выдаче.
Также у DALLE-2 в лексиконе обнаружился набор абсурдных слов, которые соответствуют определенным визуальным концепциям и даже могут согласовываться между собой. Эти слова нейросеть сначала сгенерировала на картинках, а потом исследователи предложили их в качестве запросов и получили определенный результат. Видимо, ИИ видит в них совпадения с реальными запросами, то есть для него эти слова похожи на что-то, что уже встречалось в вводных данных.
Также «дипфейковые» глаза движутся неестественно быстро — это отметил журналист The Verge, протестировавший новую функцию. На части видео он смотрит в камеру, так что зритель может увидеть разницу между тем, как это выглядит до и после обработки ИИ. Наличие и отсутствие очков никак не сказалось на качестве изображения.
Бум нейросетей — тренд последних лет, который набрал обороты в конце 2022 года. Искусственный интеллект (ИИ) стал доступен широкому кругу пользователей как возможность генерировать уникальные изображения и иллюстрировать самые безумные фантазии, так что в интернете уже поговаривают о том, что профессия дизайнера изжила себя, ведь технология уже рисует лучше и быстрее. При этом есть несколько проблем, которые создателям нейросетей ещё не удалось решить до конца — Sostav рассказал о них в своём материале.
Через несколько дней Альтман вернулся на свой пост, чтобы дальше заниматься развитием ChatGPT. Из вышесказанного официально подтверждается только то, что в ближайшем будущем нас ждут серьезные достижения в области ИИ. Но разработка модели GPT 5 на данный момент приостановлена — разработчики работают над вопросами безопасности актуальной языковой модели GPT 4 и устранением недостатков ChatGPT.
Нейросети не могут обобщать знания и разрабатывать на их основе новые стратегии. Например, ИИ, который обучили определять рак груди на маммограммах, не может распознать аномалию на МРТ или УЗИ. Это не позволяет нейросетям выходить за рамки специализации — для распознавания лиц и животных нужно обучать две отдельные модели.
Сначала был нейрон — как представление о мозге превратилось в технологию
Искусственный интеллект — мощная технология, основанная на представлении о мозге как о компьютере. В 1943 году Уоррен Маккаллох и Уолтер Питтс предложили первую простую математическую модель биологического нейрона — сеть из таких нейронов способна обрабатывать данные аналогично тому, как это делает человеческий мозг.
Есть версия, что этому предшествовало письмо от штатных исследователей, в котором говорилось о прорыве в области ИИ, который может угрожать человечеству. У совета директоров возникли опасения по поводу коммерческого использования разработок до понимания последствий. Сэма Альтмана отстранили из-за того, что был недостаточно прозрачен в коммуникации с советом. Его способность возглавлять OpenAI была поставлена под сомнение.
Порой нейросеть рисует зубы и другие детали рта не лучше рук: рот во рту, челюсть на челюсти, кривые зубы или безумное их количество. Как и в случае с конечностями, ИИ понятия не имеет, как изобразить много похожих объектов в рамках одного, и почему конечный результат не выглядит натурально.
Но, как и свой прототип, искусственная нейронная сеть несовершенна. Как у любой новой технологии, ИИ таит в себе сложности, проблемы, ограничения, непрогнозируемые последствия и даже угрозы. О чем сейчас переживают создатели нейронных моделей и какие есть варианты развития событий — читайте дальше.
Анонимный источник сообщил, что модель смогла решить некоторые математические задачи, что говорит о ее больших перспективах в будущем. Освоение математики — следующий шаг в развитии ИИ, на котором он научится рассуждать, а не просто статистически предсказывать и генерировать ответы, как это сейчас делают языковые модели.
Эту проблему продемонстрировали многочисленные эксперименты с нейросетью Lensa, в которой пользователи делали для себя аватарки в различных стилях по фото. Многие жаловались на косые глаза и странный взгляд на изображениях. Причём отбраковывать такие картинки было особенно обидно — в остальном многие из них выходили красивыми и яркими.