Как обучить нейросеть писать тексты

0
17

10 бесплатных нейросетей для генерации текстов на русском языке

Copilot

Сюжет детектива. Чат-бот создал конкретную сюжетную зарисовку: кто, как зовут, где, зачем. За счет описаний словно воссоздал атмосферу нуара. На просьбу описать главного героя бот уточнил даже то, во что он одет и чем увлекается. В остальном образ шаблонный: скрытный детектив с мягким сердцем.

Сначала нам нужно установить библиотеку transformers. Библиотека Transformers — это набор инструментов и функций для работы с моделями с архитектурой transformer. Простыми словами, эта библиотека помогает пользователям работать с нейросетями без необходимости писать много кода или иметь глубокие знания в области машинного обучения.

Сюжет детектива получился нуарным. Но финал слит: детектив просто опускает руки и уходит. Зато есть любопытная структура: маленькие подзаголовки можно использовать как названия глав или вдохновиться ими при проработке названия для всего произведения.

Идея рассылки «Как можно провести майские праздники». Текст больше похож на публикацию для соцсетей: есть упоминание «Инстаграма»*, призыв поделиться своими мыслями. Понравилось ностальгическое предложение построить замок из покрывал. Смутило, что сразу два пункта посвящены готовке, но одна из идей рабочая — про фестиваль блюд кухонь разных стран.

Сюжет детектива оказался больше похож на фрагмент из готового рассказа. Но это, на мой взгляд, здорово: художественность повествования задает настроение. В маленьком тексте есть драматургия. Мы узнаем про внутренние переживания преступника и инспектора. Нетипичен и несчастливый финал: несчастье кроется в извечных психологических стенаниях главного героя.

Скорость генерации: ⚡️⚡️⚡️⚡️
Качество генерации: 🤩🤩🤩🤩
Лимиты: на бесплатном плане с моделью GPT-3.5 лимитов нет
Платные функции: от 20 $⁣ ( 2000 ₽) за доступ к более продвинутой GPT-4, оплатить российской картой нельзя

Данные

Дообучение любых нейросетей требует вычислительные мощности, то есть GPU (видеокарты). Видеокарты позволяют эффективно распараллеливать вычисления, необходимые для обучения моделей. Чтобы выполнить наш гайд мог каждый, мы будем работать в Google Colab. Главное его преимущество — возможность бесплатно работать с видеокартой, которая подходит для работы с небольшими моделями.

Уточнение про шутки бот воспринял неправильно. Вместо того чтобы обращать их к читателям, предлагал им про что-то или над кем-то пошутить. Я попросила добавить в текст шутки, но бот продолжал не понимать запрос. Запрос «Попробуй сделать письмо более шутливым» тоже не помог.

ЧИТАТЬ ТАКЖЕ:  Искусственный интеллект как сделать python

Во-вторых, fine-tuning — это весело! Языковую модель можно обучить генерировать тексты в самых разных стилях: от комментариев из Одноклассников до прозы Набокова. Все, что нам нужно — данные. Для fine-tuning достаточно нескольких мегабайтов текстов, что примерно эквивалентно 10-15 произведениям.

Мы возьмем готовый корпус, состоящий из 34 произведений Достоевского. В него входит все Великое Пятикнижие кроме «Подростка», маленькие повести и рассказы. Этого объема (16.43 Мб) хватит, чтобы дообучить нейросеть переносить стиль. Поскольку мы работаем с нейронной сетью, никакой типичной предобработки не нужно: пунктуация и стоп-слова в нашем случае — важные для запоминания нейросетью элементы языка.

Copilot — чат-бот от Microsoft для генерации картинок и текстов. Имеет доступ к интернету, поэтому дает ссылки на источники при создании ответов. Поддерживает последнюю версию нейросети GPT от OpenAI, но не просит денег за работу с ней. Заходить придется с иностранного IP-адреса.

GigaChat — чат-бот от Сбера работает на его же нейросетевых моделях. Ответит на вопросы, напишет текст и код, поможет сгенерировать изображения. С текстом работает одноименная нейросеть. С картинками — «Кандинский». Основной язык — русский, но есть также поддержка английского.

Результат привел меня в бешенство: «празднички», «теплышко», «идеечки», «пикничок», «бутербродики», «шишечки». Попробовала сменить стиль на «миллениал». Появилась конкретика: предложение пойти в поход с палаткой поближе к пейзажным местам, поискать спецмероприятия в музеях, посетить театр. Стиль лично мне тоже не очень близок: «релакс», «чекните», «спешлы». Но надо отдать сервису должное: он соблюдает единообразие.

Чтобы сгенерировать какой-либо текст, нам нужно предоставить модели затравку (prompt), то есть входной текст, который она должна продолжить. Эту подводку мы сначала кодируем на понятный модели «язык», а затем задаем параметры генерации. Как результат, мы получаем закодированный сгенерированный текст, который мы затем должны декодировать с помощью простой команды. Давайте рассмотрим, как это происходит в коде. Подаем текст, с которого хотим, чтобы начиналась генерация, например, «кофе».

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь