Нейросеть которая делает нюдсы

0
11

Apple будет сканировать хеш фотографий на наличие сексуального насилия над детьми

Критика

Однако использование лучших генераторов обнаженной натуры с использованием искусственного интеллекта не лишено противоречий. Потенциальное неправильное использование таких инструментов может привести к нарушению конфиденциальности, распространению обработанных изображений без согласия и другим вредоносным действиям. Поскольку ИИ продолжает развиваться, существование таких инструментов подчеркивает острую необходимость в этических нормах, осведомленности пользователей и нормативных мерах, чтобы гарантировать, что технологии служат более широкому благу и уважают права личности.

Я надеюсь что эту хрень свернут обратно туда откуда развернуть придумали, иначе придется отказаться от покупки устройств Apple, мне и так хватает видеть страдания тех чьи родители используют детские режимы на устройствах что бы портить своим детям жизнь и делать из них суицидников, теперь решили еще больше судеб сломать и загубить ради популистской идеи, прям средние века с их инквизицией и громкими лозунгами о защите людей от ведьм, и как всегда во все времена и по сей день страдать будут не те кто заставляет других страдать, а будут те кто наоборот ничего плохого не сделал, зато таких родителей как того человека которых я упомянул никто и пальцем не тронет, ведь они действуют в рамках закона, а закон штука довольно лицемерная и пользуются им довольно часто отнюдь не во благо а уж в России так вообще сами же нарушители закона им и манипулируют что бы сажать невиновных. А реальные похитители и работорговцы как и многие обычные пользователи просто будут пользоваться Android причем скорее всего модифицированным с отключением вообще всех возможных отслеживающих функции, проще говоря жизнь испортят множеству обычных людей а реальным похитителям ничего не будет ведь они всегда найдут как это обойти ровно так же как в России обходят законы сами же законодатели

Бороться с сексуальным насилием над детьми это, конечно, благое дело, но в целом вся схема — это палка о двух концах. В статье верно подмечено, что сейчас 15-16 летние, в особенности девочки, выглядят лет на 20. В то время как пошла мода у всяких Онлифанщиц и Вебкамерш одеваться под школьницу и пародировать подростка. И как это поймёт нейросеть да и сам человек: где ребенок, выглядящий как взрослый; а где взрослый, выглядящий как ребенок? Да и в целом отправлять друг другу и хранить нюдсы своего партнёра — обыденная вещь, даже для 15-16 летних подростков. Таки это теперь будет запрещено? Представляю ситуацию: айклауд 16-летнего пацана банят за ЦП в фотопленке, а на дели это был нюдс его девушки-сверстницы. Он подает на апелляцию в ментовку и в итоге все знают: его родители, родители его пассии, Эппл и менты, что его девушка ему голые фотки скидывала. И все их благополучным образом просмотрели. Прекрасно: режим гестапо для подростков уже здесь.

Лучшие генераторы обнаженной натуры на базе искусственного интеллекта, основанные на алгоритмах машинного обучения, замечательны своей способностью генерировать фотореалистичные изображения обнаженной натуры. Используя обширные наборы данных и сложные алгоритмы, эти генераторы могут создавать, казалось бы, достоверные изображения человеческого тела. Однако разногласия вокруг этих генераторов вызваны их доступностью и популярностью. Они доступны в Интернете, часто бесплатно, и ими может воспользоваться любой, обладающий базовыми навыками работы с компьютером. Простота доступа и широкая доступность способствовали их популярности, вызывая обеспокоенность по поводу конфиденциальности и согласия.

Эмад Мостаке, генеральный директор Stability AI, уже заявил, что компания сотрудничает с «ведущими специалистами по этике и технологиям» над механизмами ответственного использования. Одним из этих механизмов является настраиваемый инструмент AI, Safety Classifier, включенный в общий пакет программного обеспечения Stable Diffusion. Его задача – выявлять и блокировать оскорбительные или нежелательные изображения. Однако подобный классификатор безопасности можно отключить.

Если видеокарты с такими характеристиками нет, а попробовать Stable Diffusion все равно хочется, то можно использовать браузерную версию генератора. Вот только качество изображений в таком случае будет хуже, чем в релизной версии. Все это бесплатно: открытая лицензия позволяет использовать модель в коммерческих и некоммерческих целях.

Конечно, технология генерации дипфейков существует уже достаточно продолжительное время. Но Stable Diffusion представляет совершенно новое поколение систем, которые могут создавать невероятно убедительные дипфейки с минимальной пользовательской работой. Программа легко установлена, для этого не требуется особых знаний или навыков. Кроме того, разработчики ведут постоянную работу над оптимизацией своего софта, что в теории лишь увеличит его доступность.

Это изображение, которое было переведено в последовательный набор символов, понятный машинам. Эти символы помогают нейросетям определять, что именно изображено на иллюстрации. То есть, по сути, сравниваются не две фотографии, а закодированная информация этих фотографий.

Что будет дальше с фотографиями?

Потребность в лучших генераторах обнаженной натуры с использованием искусственного интеллекта возникает в различных секторах, включая искусство, развлечения и онлайн-покупки. Эти генераторы предназначены для создания гиперреалистичных поддельных изображений обнаженной натуры, которые можно использовать в различных целях. Например, художники и графические дизайнеры часто используют эти инструменты, чтобы найти надежные ссылки на свои работы. Аналогичным образом, в индустрии развлечений эти генераторы можно использовать для создания контента для веб-сайтов или приложений для взрослых. В сфере онлайн-покупок лучшие генераторы обнаженной натуры с искусственным интеллектом можно использовать для создания виртуальных моделей для демонстрации продуктов.

Другой вопрос: на каком основании Apple вообще лезет в смартфоны пользователей, анализируя их контент? Я-то понимаю, что без этого невозможен поиск по галерее айфона, но в этом случае система не уходит из самого смартфона. А тут в облаке будет храниться хеш фотографий, неправильная интерпретация которого вполне может привести к тому, что интимные фотографии сексуальных отношений двух взрослых людей могут просматриваться другими людьми со стороны компании и даже правоохранительных органов.

Вообще бесит что Apple мутит какую-то странную хрень для защиты детей, для их защиты есть другие надзорные органы, какого черта нужны всякие детские режимы для телефонов и прочего это ж такая хрень полная что всю свободу у детей отбирает, купят ребенку или подростку телефон и установят детский режим а тот не может ни приложение установить ни еще что-либо сделать без подтверждения с аккаунта родителя, а родитель моралфаг разрешает устанавливать не более 1 приложения раз в месяц или еще реже и то слово свое не держит и по пол года и более может не давать ничего установить, или установит ограничение по часам работы устройства и прочего типо 2 часа в сутки, а потом блокируется или еще какие-то функции отключаются или камеру заблокирует и так далее, я лично знаю человека кто страдает от таких функций «для защиты детей» и из-за вмешательства родителей в личную жизнь находится в депрессии, режет руки и думает о суициде, вот уж действительно защита детей, гении просто, а о том что многие родители используют эти функции для тирании над детьми, или муж тиран на женой которой он может детский режим на телефоне включить запросто а себя как родитель зарегать, никто думать не хочет, важнее ведь продать телефон большему числу моралфагов тиранов нежели реально подумать о правах несовершеннолетних которые у них отбирают как на законодательном уровне так и на семейном, а теперь еще и такую хрень мутить станут, ну ребят, потеряете прибыль чо, покупатели ваши начнут переходить на андроид потому что никому не нужны ФСБшники выламывающие дверь и дающие срок за скачанную картинку лольки с интернета или ошибку нейросети.

ЧИТАТЬ ТАКЖЕ:  Нейросеть которая говорит голосами персонажей

Искусственный интеллект произвел революцию во многих отраслях, повысив эффективность и креативность, превзойдя наши ожидания. Однако один аспект ИИ, который в последнее время вызвал споры, — это лучший генератор обнаженных изображений ИИ. Эти генераторы используют передовые алгоритмы искусственного интеллекта для создания исключительно реалистичных изображений обнаженной натуры, доступных каждому, у кого есть подключение к Интернету. Анализируя особенности и структуры входного изображения, алгоритм искусственного интеллекта создает реалистичное изображение обнаженной натуры. Хотя эта технология перспективна для различных приложений, важно глубже вникнуть в ее последствия и рассмотреть ее этические последствия.

Начнем с позитива: пользователи хвалят Stable Diffusion за доступность – ее можно запускать даже на собственном компьютере. Для этого необходимо загрузить соответствующий софт и иметь около 6.9 гигабайт видеопамяти. Запускать нейросеть рекомендуется на видеокартах Nvidia. В будущем появятся специальные версии Stable Diffusion, оптимизированные под видеокарты AMD и чипы M1/M2 от Apple.

Остальные системы искусственного интеллекта, например DALL-E 2 от OpenAI, уже давно настроили свои фильтры для отсеивания порнографических материалов. Кроме того, некоторые другие модели не позволяют изображать известных людей на картинках. Stable Diffusion, в свою очередь, технически не ограничена, что может привести к появлению большого количества неприемлемого контента, в том числе дипфейков.

Эксперты опасаются, что благодаря такому высокоэффективному и легко доступному генератору, как Stable Diffusion, личные фотографии пользователей социальных медиа могут быть использованы для целевых порнографических изображений или изображений, на которых видны незаконные действия.

Сканирование будет происходить с помощью нейросетей на самом устройстве, а не в iCloud. Apple подчёркивает, что это сделано ради конфиденциальности. Фотографии будут сверяться с хешем изображений, предоставленных Национальным центром пропавших без вести и эксплуатируемых детей (NCMEC), а также другими организациями.

Apple научит ИИ выявлять случаи жестокого обращения с детьми на фотографиях в iPhone

Новый тренд для молодо выглядящих стримерш Онлифанс будет. Делает макияж, чтобы выглядеть помоложе, одевается в школьницу, пилит контент с жестким секасом, пишет все на Айфон. А потом при попадании фоточек в правоохранительные органы многомилионный иск к Эппл за нарушение приватности.
В общем у Анастейши Стил новые возможности открываются.

Вопросы есть к работе самой системы: например, как она определит возраст человека на фотографии? То есть мы можем посмотреть в паспорт человека и сказать, что ему или ей меньше или больше 18 лет. Тем более что есть множество примеров, когда подростки выглядят старше многих совершеннолетних людей.

На этой странице представлена ​​информация о различных технологиях Undress AI и связанных с ними технологиях AI для взрослых. Хотя эти инструменты могут предлагать инновационные функции, важно использовать их ответственно и законно. Пользователи несут единоличную ответственность за соблюдение всех применимых законов при использовании информации и инструментов, описанных ниже. Эту технологию следует применять только к собственным изображениям, и любое неправомерное использование — например, использование ее на изображениях других людей без их явного согласия — может привести к серьезным юридическим последствиям и этическим нарушениям.

Новый AI-генератор изображений Stable Diffusion, способный создавать реалистичные картинки по текстовому описанию, стал очень популярен за последние дни. Публичный релиз нейросети состоялся не так давно – 22 августа. За это время разработка от Stability AI успела как обрасти поклонниками, так и нажить врагов и критиков.

В связи с этим, если Stability AI не желает или не может изменить свою технологию, роль фильтра должны выполнять фотохостинги и социальные сети. Такие площадки постоянно совершенствуют свои возможности в борьбе против дипфейков и блокируют изображения, перепрофилирующие образы знаменитостей и пользователей. И, может быть, именно они помогут решить эту проблему.

Фотографии будут загружаться в iCloud вместе с этим хешем, защищённым неназванными криптографическими методами. Тут Apple подчёркивает, что не сможет расшифровать этот ваучер безопасности, если не будет достигнуто пороговое значение известного содержимого CSAM. По словам компании, это свидетельство высокой точности.

Речь идет о сексуальном насилии, но проблема в том что не любой нюдес это обязательно насилие, например влюбленные подростки шлют друг другу свои фотки или фоткают просто самих себя что бы что-то рассмотреть вроде прыща на необычном месте допустим и к ним будет врываться отряд блюстителей морали вышибая дверь и забирая в автозак всех кто попадается под руку чем испортят жизнь как подросткам так и их родителям своим вмешательством, едва ли эти нейросети способны по фото качественно определить где реальное насилие и работорговля, а где фото сделано для себя или сверстника, а в такие дела вмешиваться полиция уже не должна, это уже переход границ личной жизни.

Если Apple даёт доступ к этой информации таким организациям, как NCMEC, то что будет, если к компании придёт авторитарное правительство и поставит условие: либо вы даёте нам доступ и не лезете, либо уходите с рынка? С помощью системы вполне можно анализировать содержимое на момент оппозиционного контента, если знать, как именно её настроить. Именно об этом говорит Мэттью Грин, профессор криптографии из Университета Джона Хопкинса:

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь