Как нейросеть видит войну

0
29

Мы все умрём в войне нейросетей

Искусственный интеллект монополизирует все

Все имеющиеся механизмы регуляции рассчитаны на работу разработчиков онлайн-платформ. К примеру, Совет Европы разрабатывает проект об искусственном интеллекте, в котором решение регуляции предусматривает маркировку контента, но именно конечными пользователями, что частично снимает эту обязанность с компаний. Проект говорит, что компании должны обеспечивать принцип прозрачности, чтобы пользователи понимали, что они взаимодействуют с искусственным интеллектом и автор продукта — искусственный интеллект, и обеспечить пользователей инструментами для маркировки.

Относительно авторских прав на генерируемые ИИ тексты вопрос законодательно не урегулирован, но, кажется, можно использовать аналогию с изображениями, видео или аудио. Сложнее ответить на вопрос о принадлежности интеллектуальной собственности, если результат получен в результате совместных усилий ИИ и пользователя, например, при превращении фотографий пользователя в цифровые картины. В таком случае авторские права будут определяться содержанием лицензионного соглашения между разработчиком ИИ и пользователем. В отдельных случаях можно говорить о соавторстве человека и ИИ, например, когда ИИ пишет аранжировку мелодии, предоставленной человеком. При этом авторские права на ту часть, которую создал ИИ должны принадлежать автору (коллективу авторов) ИИ. Под автором ИИ понимаются лица, которые не только пишут программный код системы ИИ, но и обучают систему (образно говоря, не только биологический родитель, но и воспитатель).

Компьютерное зрение. Тут алгоритм учится находить на статических изображениях или видео определенные объекты и правильно их классифицировать. Многие владельцы автомобилей уже давно привыкли получать в госуслугах штрафы. В постановлениях фигурируют фото их автомобилей, нарушающих те или иные ПДД. Эта задача как раз и решается при помощи ИИ: сначала алгоритм обучают на миллионах примеров распознавать различные типы дорожных ситуаций и классифицировать их. Затем ему на вход подают данные с уличных камер, и дело пошло. Эти же алгоритмы используются для “беспилотного” вождения, для различных промышленных задач, везде, где требуется научить компьютер “понимать”, что происходит на картинке.

Не буду пересказывать содержания всего выступления. Основная его часть посвящена вопросу эволюционирования больших языковых моделей и тем задачам, которые они сегодня способны решать и смогут решать в будущем. В частности, речь идет о том, чтобы от примитивной имитации человеческой речи, т.е. от предсказания последовательности слов, чем языковые нейросети по сути занимается сейчас, перейти к принципиально новым уровням организации алгоритма. Будущие нейросети должны научиться “мыслить логически” и самосовершенствоваться. Именно эти задачи стоят сегодня на повестке дня разработчиков.

Такие компании как Фейсбук, Твиттер, Гугл, Майкрософт уже вводят маркировку, но пока на уровне бета-тестирования. Например, Майкрософт предлагает функцию наложения на каждый аутентичный контент аналога электронной цифровой подписи. «Если публичные лица будут выпускать заявления, то технически это не будет какой-то визуально видимый водяной знак, а, по сути, часть кода загруженного видео и т.д. И можно будет проверить, совпадает ли этот код с ключом, который является публично доступным. Сгенерированный контент как раз этой подписи оригинальности иметь не будет» , — рассказывает юристка. Она предлагает и другой вариант — отмечать посты по типу, как сейчас отмечается политическая реклама или оплаченный пост . Однако все эти решения ориентированы на добросовестных авторов.

В Украине, с правовой точки зрения, точки зрения этики и Закона о медиа, пока нет ответов, как квалифицировать сгенерированный контент. А также можно ли его считать надежным и правдивым. Татьяна считает, несмотря на это, мы двигаемся в направлении регуляции. К примеру, Минцифры, как один из шагов, давало рекомендации об ответственности применения искусственного интеллекта в медиа.

И, между тем, если бы наше общество было устроено на принципах взаимного доверия, если бы государственные институты стремились нести благо людям, подобного рода «цифровизация» могла бы показаться не просто допустимой, но даже желательной. Разве плохо, когда компьютер распознаёт преступника, вычисляет мошенника, до того, как они успеют причинить вред? Разве плохо, если алгоритм диагностирует резкое ухудшение состояния здоровья до того, как случится инсульт или инфаркт, и позволяет обойтись профилактическими методами, спасти жизнь?

Данные типы уязвимостей — лишь небольшой пример из тех реальных угроз, которые открывает перед нами эпоха нейросетей. Конкретно эти ☝️ в целом уже устранены, поэтому Карпатый и рассказывает о них открыто, однако затем он упоминает о ещё целом ряде других проблем, “противоядий” для которых пока не найдено:

В чем проблема?

Временные ряды. Это задачи прогнозирования изменения графиков в будущем на основе предыдущего опыта. Например, прогнозирование результатов биржевой торговли. На вход алгоритма поступают данные о предыдущих торгах, на выходе имеем прогноз или тренд с определённым уровнем вероятности. Предсказания погоды, прогнозирование нагрузок на объекты инфраструктуры, прогнозирование спроса, трафика и т.п. типы задач, связанные с процессами, разворачивающимися во времени — все это задачи анализа временных рядов.

Социальные сети. Соцсети “знают” о нас больше, чем мы себе представляем, и даже, может быть, больше, чем мы сами знаем о себе. Потому что они тщательно хранят и анализируют всю информацию, которую мы сами загружаем в них, отслеживают наши реакции, а также реакции на наши действия других людей. Например, вы сделали фотку со своего смартфона и залили ее в запрещённую соцсеть. Казалось бы, невинная вещь. Все мы делали это тысячи раз. Но мало кто отдаёт себе отчёт, что фоточка хранит в себе еще целую кучу дополнительных параметров, например, тип вашего смартфона и данные местоположения в момент съемки. Анализируя содержание ваших картинок, алгоритм понимает, где и с кем вы были рядом. Уже сейчас спецслужбы по всему миру используют соцсети для тотальной слежки за подписчиками, однако, вычислительных мощностей пока не достаточно, чтобы в режиме реального времени просчитывать йоттабайты информации, хранящиеся на их серверах. А это всего лишь вопрос времени.

«Когда начинается генерирование контента без предупреждения или генерирование контента на чувствительные темы, это способствует тому, что к медиа создается пузырь недоверия и в долгосрочной перспективе это достаточно опасно. Это сильно подрывает попытку создать имидж надежности медиа» , — рассказывает специалистка.

Нейросеть тренируется генерировать изображение на основе уже ранее созданного человеком контента. Поэтому в инфопространстве не угасает дискуссия — этично ли использовать искусственный интеллект, когда он бесплатно и без согласия авторов использует их работы в своих целях.

«И если украинские медиа будут распространять сгенерированный контент, то будет все труднее с этим взаимодействовать, будет сложнее продвигать идею, что можно брать информацию из украинских медиа, а не полагаться только на ресурсы собственных международных расследователей, репортеров и так далее» , — добавляет она.

Вопросы правового регулирования интеллектуальной собственности, созданной с использованием ИИ, вызывают споры. В том случае, когда ИИ полностью создает новую интеллектуальную собственность — изображение, музыку и прочее, авторские права можно признать за автором, создавшим ИИ. Если, конечно, между разработчиком ИИ и пользователем не заключен договор, который предоставляет авторские права только пользователю или сразу и разработчику, и пользователю.

ЧИТАТЬ ТАКЖЕ:  Как создать простой искусственный интеллект

Авторские права ИИ

Юристка делится, по этой теме они с командой много сотрудничают с международными медиа и межправительственными организациями, чтобы постоянно опровергать нарративы и доказывать, что украинские медиа не предвзяты, соблюдают стандарты, надежны, освещают информацию такой, какой она есть.

Достаточно небольшой группы здравомыслящих людей, которые, к примеру, создадут другую нейросеть, в основу которой будут заложены иные принципы сосуществования человека, планеты и всей вселенной. Такую, которая поможет спроектировать стратегию порабощения и уничтожения, но наоборот — стратегию выживания в условиях озвученных выше угроз.

Однако, общество в котором мы живем сложно назвать справедливым. И от этого роботизация воспринимается с настороженностью. Впрочем, мы ничего и не можем с этим поделать. За нас как обычно всё уже решили, нас просто ставят перед фактом. Получается, проблема не в ИИ, но в самой системе жизненного уклада, в которой мы с вами сегодня себя обнаруживаем. Проблема в том, кто конкретно управляет алгоритмами ИИ.

Рекомендательные системы. Все мы пользуемся гуглом и яндексом, регулярно заказываем всякое барахло на маркетплейсах. Мало кто задумывается, что тут мы вступаем в непосредственное взаимодействие с ИИ. Например, когда вы покупаете какую-то вещь в озоне или на вайлдбериз, алгоритм сравнивает имеющиеся в его распоряжении ваши персональные данные — а это огромные массивы информации о вашем поведении в интернете — с соответствующей информацией о других пользователях, анализирует свойства продуктов, которые вы покупаете, сопоставляет их со свойствами других продуктов, имеющихся в продаже и… рекомендует вам приобрести другие товары, которые могут быть вам интересны. На сегодняшний день уровень точности рекомендаций уже весьма высок. Причем иногда это могут быть совершенно неожиданные соответствия, которые по человеческим меркам никак не связаны друг с другом. Скажем, вы покупаете пену для ванны, а вам предлагают добавить в заказ утеплённые легинсы или тонометр. На использовании рекомендательных систем также построены алгоритмы таргетированной и контекстной рекламы.

Татьяна говорит, прежде всего, следует помнить, что, независимо от того, кто является субъектом, определенный вид контента запрещен для распространения всем. Это язык вражды, пропаганда войны, распространение предвыборной агитации с нарушением правил ее распространения. За это человек может отвечать на индивидуальном уровне.

Итак, мы уже окружены ИИ со всех сторон. И процесс внедрения машинных алгоритмов в нашу повседневность идет опережающими темпами. Это, безусловно, настораживает. Если сегодня автомобили, смартфоны и даже пылесосы могут выполнять ваши голосовые команды и решать ваши задачи без вашего непосредственного участия, что же будет завтра? Очевидно, что цифровизация влияет на весь наш социум и идея о том, что дальнейшее развитие данного процесса несёт в себе определённые риски, весьма актуальна.

Татьяна объясняет, хуже всего, когда наши посты со сгенерированными нейросетью изображениями использует российская пропаганда: «Россияне начинают говорить, что украинцы сознательно создают ложный контент, чтобы распространять дезинформацию о российских действиях в Украине. И впоследствии на основании этого будут утверждать, что любые фото и информация — это постановка. Думаю, все помнят, когда россияне пытались массово разгонять идею того, что фотографии из Мариуполя — постановка» .

Однако вполне реально, что если такой мощный инструмент попадает в руки маньяка, одержимого идеями собственного превосходства, то исход таких событий сложно предсказать. Например, представим себе, что некий разработчик, обладающий достаточными вычислительными ресурсами, обучает свою нейросеть на генетических данных нескольких миллионов человек, животных, птиц, рыб, растений. Допустим, такая сеть оперирует несколькими триллионами параметров и на её обучение требуется потратить годы работы нескольких современных датацентров, сжечь гигаваты электроэнергии. Однако, в итоге у хозяина/заказчика всего этого дела появляется возможность генерировать любой код РНК/ДНК, в том числе — код вируса, который, попадая в биологический организм с заданными параметрами вызывает в нём контролируемую необратимую генетическую мутацию. И параллельно с этим вирусом разрабатывается некая “вакцина” — которая гарантировано нивелирует воздействие вируса на тот же самый организм.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь