Как отличить человека от искусственного интеллекта

0
14

Как распознать текст, написанный нейросетью? И можно ли это сделать с полной уверенностью

Как определить машинный текст на глаз?

Также в Scribbr пропустили машинные тексты через фильтры для поиска плагиата. В некоторых случаях это сработало: фрагменты, написанные моделью, были помечены. Видимо, дело в том, что иногда модели используют в ответах чужие тексты или очень похожие формулировки, не указывая источник. Детекторы выявляют машинные тексты значительно лучше, но, возможно, со временем их встроят в инструменты для поиска заимствований, как это уже сделано в российском «Антиплагиате».

Для выявления машинных текстов существуют специальные программы и сервисы. Одни бесплатны. Другие доступны за деньги. Третьи созданы в рамках исследований, поэтому не всеми из них удастся воспользоваться (а в остальных случаях, как правило, нужно уметь работать с хранилищами типа GitHub и хотя бы чуть-чуть владеть языками программирования, например Python).

Весной 2023 в том же духе рассуждали исследователи из Мэрилендского университета. В подтверждение они привели результаты своих экспериментов. Вместо того чтобы сразу проверять детекторами машинный текст, ученые сначала воспользовались нейросетью, которая его перефразировала. Авторство текста, пересказанного другими словами, детекторы намного чаще приписывали человеку.

По мнению американских исследователей, с текстами более совершенных языковых моделей детекторы станут практически бесполезными. Чем больше такие тексты похожи на человеческие, тем ближе точность детектора к 50%. Но с такой же точностью можно просто угадывать, кому принадлежат подозрительные слова (с этим выводом спорят другие ученые; интересно, что они с того же факультета Мэрилендского университета).

Так как модели подбирают наиболее вероятные варианты, зачастую у них получаются предложения примерно одной длины, со схожей структурой и ничем не примечательными словами. Из-за этого текст делается монотонным. Эксперты компании Scribbr, которая специализируется на академическом письме, выделяют эти и другие подозрительные признаки:

Удастся ли создать устойчивые к атакам водяные знаки, пока не ясно. Можно предположить, что перефразирование позволит обмануть детекторы и в этом случае. Или же в запросе для языковой модели можно поставить такие строгие условия, что она не сможет оставить в тексте водяные знаки. Также не исключено, что принципы, по которым модель делает маркировки, можно раскусить. В этом случае злоумышленники могли бы написать собственные тексты так, чтобы они были неотличимы от созданных определенной языковой моделью. С помощью таких текстов можно испортить репутацию разработчиков языковой модели.

ЧИТАТЬ ТАКЖЕ:  Картину которую нарисовал искусственный интеллект

Какие есть инструменты для обнаружения машинных текстов?

При обучении ИИ на определенных данных, он осваивает основополагающие закономерности и структуры этих данных. Первая ловушка для ИИ — это объем проанализированных миллиардов веб-страниц и информации до сентября 2021 года (ChatGPT) и события, информация после сентября 2021 года (версия GPT-4). Если человек задаст ИИ открытый вопрос «ловушку» о событии, которое произошло в 2024 году, то при общении с нейросетью может получить странный ответ «по настоящее время моя база обновляется, поэтому к сожалению данных нет» или ИИ напишет известные ему более старые сведения с ошибками в фактах.

Машинные тексты, на первый взгляд неотличимые от написанных человеком, появились сравнительно недавно — у разработчиков детекторов для их выявления было мало времени. Но, возможно, надежные инструменты так никогда и не появятся. Подводя итоги тестирования, специалисты Scribbr писали, что само устройство детекторов не позволяет гарантировать 100-процентную точность и что всегда есть хотя бы небольшой риск принять текст человека за машинный, поэтому результаты проверок следует рассматривать только вместе с другими доказательствами.

В конце 2022 года правительство Китая запретило использование сгенерированных искусственным интеллектом цифровых продуктов «глубокого синтеза» (текста, изображений, голоса) без специальных водяных знаков. Все, кто захотят их произвести с помощью алгоритмов ИИ, сначала должны получить разрешение от правительства, а затем привязать свои персональные данные к используемому аккаунту.

Тест Тьюринга — эмпирический тест, предложенный Аланом Тьюрингом в 1950 году. Интерпретация теста звучит так: если машина отвечает на заданные вопросы так, что человек не в состоянии определить, общается он с другим человеком или с компьютером, тест считается пройденным

Говоря про искусственный интеллект применительно к сгенерированным текстам, имеют в виду большие языковые модели. Если сильно упрощать, то модель анализирует написанное людьми и учится прогнозировать, какое слово должно следовать за предшествующими. Из слов складываются предложения, из предложений — абзацы и т.д. Как в точности у машины это получается, не знают даже разработчики , но подход вдохновлен передачей сигналов в нервной системе (поэтому вместо расплывчатого «искусственного интеллекта» используют и более конкретный термин «нейросети»).

Основной способ общения ИИ с человеком — это текст и его голосовое озвучивание. Аналитики отмечают, что использование ИИ в написании текстов само по себе не является негативным. Последние данные показывают, что человек может точно идентифицировать авторов и продукт ИИ только примерно в 50% случаев. В этой статье расскажем о некоторых способах идентификации текста, написанного искусственным интеллектом.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь