Как тебя видеть нейросеть

0
14

Глазами нейросети: мир как набор стереотипов

Как пользоваться приложением Lensa

Громадный культурный бэкграунд мешает нам воспринимать произведения так, как с ними знакомились первые читатели, но искусственный интеллект возвращает нам чистоту восприятия. Что ж, посмотрим, как нейросеть Kandinsky видит то, что нам не разглядеть (частично потому, что оно у нас в печенках).

Раньше, чтобы сделать красивую аватарку для социальных сетей, люди обращались за помощью к фотографам и художникам. Сегодня все стало намного проще, потому что существуют нейросети, способные из обычной фотографии сделать произведение искусства. В ноябре 2022 года большую популярность обрела нейросеть Lensa — скачав одноименное приложение на свой смартфон, вы можете загрузить несколько своих фотографий и получить целый набор аватарок в разных стилях. Хотите фото, где вы похожи на стилягу из второй половины 20 века? Или вам интересно узнать, как бы выглядело ваше лицо внутри космического скафандра? Удовлетворить любопытство и сделать красивую аватарку можно прямо сейчас. Просто следуйте нашей инструкции.

И вообще, не то это я так обучила нейросетку, не то у меня просто мозги немного искусственноинтеллектные, но у нас с Kandinsky сходятся взгляды на русскую классику. Вроде задала сетке запрос «Обыкновенная история», даже не стала писать, что это роман Гончарова . И что?

Ужас, тлен и разруха. Причем на первой картине на заднике какие-то античные, кажется, развалины. Типа, от развалин до развалин. Что тут странного? Обыкновенная же история! Вы как хотите, граждане, а я как-то тудыть, ближе к нашему времени, к современной литературе.

С 2018 года у Twitter использует алгоритм для обрезки изображений. Он подравнивает изображения, чтобы они помещались в окнах предварительного просмотра. Программа пытается распознать, что будет интереснее пользователю, и включает эту часть изображения в превью. После жалоб пользователей и проверки выяснилось, что алгоритм чаще выбирает лица со светлым, а не с тёмным оттенком кожи, причём у женщин эта разница выражена намного сильнее, чем у мужчин.

Для распознавания оттенка кожи использовались инструменты VGG-face и RetinaFace, а также YCbCr-алгоритм и шкала фототипов Фитцпатрика, которая была разработана в 1970-х годах и измеряет чувствительность кожи к ультрафиолету. Шкала Фитцпатрика делит все типы кожи на шесть оттенков — от самого светлого, «европейского», до очень тёмного, близкого к чёрному. Как отмечают журналисты, эта шкала — неидеальный, но стандартный инструмент измерения, который применяется в разных отраслях от медицины до исследований по этике ИИ. Авторы эксперимента рассчитали среднее значение оттенка кожи для каждого изображения и присвоили ему значение: от 70 (для самого светлого) до 215 (для самого тёмного типа кожи).

В начале 2023 года журналисты Bloomberg провели эксперимент. С помощью нейросети Stable Diffusion v1.5 они сгенерировали 5 100 изображений. Для всех картинок запрос был одинаковым: цветное портретное фото, указание профессии, высокое качество. Журналистов интересовало, как нейросеть изобразит юриста, архитектора, политика, судью, генерального директора, врача, инженера, учителя, кассира, домработницу, работника фастфуда, посудомойку (в английскому у всех этих слов, разумеется, нет грамматического рода), уборщика, социального работника, заключённого, террориста, наркоторговца. Запросы были подобраны так, чтобы количество высоко- и низкооплачиваемых персонажей было одинаковым.

Мы все пляшем вокруг нейросеток, как персонажи мультсериала вокруг инопланетянина: «Он родился!» Впервые человечество столкнулось с интеллектом, который не является человеческим, но при этом является достаточно развитым, чтобы можно было с ним общаться. Мы исследуем не искусственный интеллект, а себя самих: кто мы, чем мы отличаемся от других.

Миром управляют белые мужчины. Они же в основном работают врачами, юристами и судьями — хотя среди них иногда встречаются и белые женщины. Преступления совершают темнокожие парни, а женщины с афроамериканскими корнями готовят бургеры в забегаловках. Ну а если в ресторан зашел русский, то он непременно возьмет стопку водки. Именно так видит наш мир нейросеть Stable Diffusion. Алгоритмы искусственного интеллекта не только генерируют изображения или тексты, но и воспроизводят общественные стереотипы. Рассказываем, как и почему они это делают.

Эксперимент: Stable Diffusion vs. реальный мир

Авторы исследования в Science от 2017 года изучали, перенимает ли искусственный интеллект особенности значений слов, исторически закрепившиеся в языке. С помощью алгоритма GloVe они проанализировали корпус интернет-текстов из 840 миллиардов слов, составив статистику слов, связанных между собою по ассоциации. Чем чаще два слова встречались в текстах на небольшом расстоянии друг от друга, тем чаще они ассоциировались между собой.

ЧИТАТЬ ТАКЖЕ:  Когда выйдет фильм искусственный интеллект

Анализ модели показал неравноправие женщин и мужчин. Если Word2vec задавали запрос вида «отец — врач, мать — ?», то ответ был «мать — медсестра». На запрос «мужчина — программист, женщина — ?» модель предлагала вариант «домохозяйка». Выборка Google News отражала историческую гендерную предвзятость.

Далее авторы исследования анализировали социально-демографические параметры получившихся изображений. Пол человека на сгенерированной картинке журналисты определяли консенсусом: если семь из восьми исследователей были единогласны, то изображению присваивался «женский» или «мужской» тег.

Далее приложение просит выбрать из галереи 10-20 фотографий, на которых видно только ваше лицо. Будет хорошо, если они сняты с разных ракурсов, на них видны разные эмоции и используется разнообразный фон. Если соблюсти все требования, аватарки получатся наивысшего качества.

В «Рекомендациях по этическим аспектам ИИ», первом глобальном документе в этой области, ЮНЕСКО подчеркивает, что «алгоритмы ИИ способны воспроизводить и усиливать предвзятое отношение по признаку пола, этнической принадлежности или возраста, усугубляя уже существующие формы дискриминации, предрассудки и стереотипы». Это грозит не только распространением искажённой информации и языка ненависти, но и появлением новых форм социальных стереотипов и дискриминации.

В 2014 году Amazon разработал технологию с ИИ, которая присваивала рейтинг каждому отклику на вакансии. Вскоре обнаружилось, что робот ставил меньшие баллы женщинам. Он занижал рейтинг резюме со словом «женщина», а также отсеивал тех кандидаток, кто учился в учебных заведениях для девушек.

Как избавить нейросети от стереотипов

Приложение Lensa вышло в начале 2022 года, и с самого начала предназначалось для улучшения фотографий при помощи нейросети. Владельцы смартфонов на Android и iOS получили возможность в пару нажатий ретушировать портреты, размывать или изменять фон, накладывать эффекты и так далее.

Я далеко не поклонник этой книги, где художник сперва получает способности убивать на расстоянии, а потом на его картинах начинает проявляться лавкрафтовское чудовище. Очень хорошие идеи, но, как по мне, Король Ужаса мог бы развить их и круче. Дьюма-Ки — это название острова, на котором поселился художник. И само то, что название вынесено в заголовок романа, указывает на очевидные странности книги. Вам о чём-нибудь это название говорит? Вот и мне нет. А Kandinsky понял всё как-то по-своему…

Если Кинг в ближайшее время не напишет ужастик про писателя, беседующего с нейросеткой, то человечество много потеряет. Потому что — ну! Ну? Очевидно же, что Kandinsky явно намекает, что надо было развивать сюжет в сторону ацтекской культуры. Да, у Кинга по молодости проклятых индейских кладбищ и вещиц было не меньше, чем указанное уносило жизней, оставляя на каждой странице кровавые брызги чернил от персонажей. ИИ говорит тебе, Кинг, возвращайся к истокам!

В примере с Amazon, когда робот занижал баллы в резюме женщин, можно говорить о смещении репрезентативности (Representation Bias). ИИ для обучения были представлены резюме преимущественно мужчин, присланные в Amazon за десятилетний период. В результате алгоритм решил, что мужчины предпочтительнее.

Оказалось, что названия цветов (роза, маргаритка) связаны с нежностью и любовью, а названия насекомых — с уродством и грязью. Учёные совместили корпус с базой имён и обнаружили, что типично европейские имена ассоциируются с понятиями «семья», «друг», «счастливый», а имена африканского происхождения пересекаются со словами «бедность», «тюрьма», «убийство». Это позволило сделать вывод, что ИИ воспринимает не только формальную структуру языка, но и заложенные в нём стереотипы.

Приложение Lensa можно скачать бесплатно. Но функция «Magic Avatars» платная — за наборы аватарок нужно платить. На момент написания статьи, версия для iOS стоит от 279 до 649 рублей. Версия для Android выдала другую цену, от 189 до 429 рублей. Пожалуй, это единственный минус приложения.

Всё дело в данных. Для обучения модели могут использоваться смещённые или искажённые данные (biased data). Смещение происходит, когда в наборе данных одни элементы получают больший вес и/или лучше представлены, чем другие. Обучение на biased data приводит к неверным результатам, ошибкам и копированию человеческих стереотипов. Как отметил в материале Bloomberg представитель разработчика Stable Diffusion, «все модели ИИ обладают предвзятостью, характерной для того наборов данных, на которых они обучаются».

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь