Содержание статьи
Неидеальная технология: проблемы и ограничения нейросетей
Ограниченная доступность
Более того, чем совершеннее становится ИИ, тем опаснее наша безопасность. Совсем недавно в заметках пользователей приложения одного из банков прочитала, как при помощи нейросети, точнее дипфейка, который она создала, мошенник дважды смог обмануть службу безопасности этого банка и воспользоваться средствами автора поста. Не секрет. Что сейчас именно во избежание такого рода неприятностей банки просят предоставить биометрию, фото. Когда кто-то пытается посягнуть на ваши средства, сотрудник банка просит ответить на видеозвонок, чтобы сравнить ваше фото и лицо адресата. А дипфейк помогает обыграть службу безопасности.
Например, языковая модель Galactica по просьбе пользователя написала очень убедительную «научную статью» о пользе употребления битого стекла. В материале были ссылки на исследования и мнения экспертов, имеющие вид полноценной доказательной базы. Та же модель путала исторические даты, имена, факты — к примеру, писала о запуске медведей в космос. В итоге из-за многочисленных жалоб пользователей, тестировавших платформу, она была заблокирована.
Отдельный вопрос, кому принадлежит право на то, что создала нейросеть. И здесь, хоть нет пока чётких границ, возникает деление. Есть авторское право и право интеллектуальной собственности. В большинстве стран первое отдают создателям ИИ – корпрациям. Второе, если человек действительно участвовал в создании картинки или текста, принадлежит человеку. Ведь рисует или пишет нейросеть по вашему заданию, а, чтобы всё получилось, я уже сказала, какие усилия порой требуются.
Признаюсь, при желании, если наладить взаимопонимание с искусственным интеллектом, он здорово помогает в работе. Не надо ломать голову над иллюстрациями — составь подробный запрос, и нейросеть выдаст тебе изображение. Кроме того, нейросетям можно поручить аналитику данных, сбор информации и много чего ещё. Правда, специалисты рекомендуют информацию проверять или просить ИИ давать ссылки на источник.
Есть версия, что этому предшествовало письмо от штатных исследователей, в котором говорилось о прорыве в области ИИ, который может угрожать человечеству. У совета директоров возникли опасения по поводу коммерческого использования разработок до понимания последствий. Сэма Альтмана отстранили из-за того, что был недостаточно прозрачен в коммуникации с советом. Его способность возглавлять OpenAI была поставлена под сомнение.
«Шедеврум», как говорят айтишники, пока работает в режиме тестирования. Он доступен в мобильном приложении. Уже умеет генерировать неплохие картинки, к примеру, милоту всякого рода «Шедеврум» рисует бесподобно. Всевозможные пушистики — его конёк. С текстами, правда, сложнее. То есть он их пишет, но до GPT пока далеко.
И ЗДЕСЬ МЕДИЦИНЕ НЕ ВЕЗЁТ
Ещё одна эксклюзивная особенность человека — этика. Данное явление сложно встроить в машину, так же как и мораль, которую сложно спроектировать, поэтому, при выполнении монотонной задачи не стоит ожидать от нейросети проявления этики и морали.
Через несколько дней Альтман вернулся на свой пост, чтобы дальше заниматься развитием ChatGPT. Из вышесказанного официально подтверждается только то, что в ближайшем будущем нас ждут серьезные достижения в области ИИ. Но разработка модели GPT 5 на данный момент приостановлена — разработчики работают над вопросами безопасности актуальной языковой модели GPT 4 и устранением недостатков ChatGPT.
— Что касается работы с современными нейросетями, выбор подходящего инструмента зависит от конкретных требований проекта. GPT-3 от OpenAI зарекомендовал себя как одна из самых гибких систем для работы с текстом. Её способность к обучению на больших объёмах данных делает её удобной для широкого спектра задач.
Нейросети не могут заменить интеллектуальный труд человека хотя бы потому, что они ничего не делают сами. Их возможности —составить комбинацию из плодов деятельности людей по запросу человека (промту). И их слабое место — это объём данных. Если он мал, а обучения с оценкой результата было недостаточно, то нейросеть даёт очень слабенький итог.
Вопреки впечатлению, что нейросети сейчас используются почти всеми и повсюду, это все еще довольно дорогая технология. Нейронные сети для обучения или работы требуют значительных вычислительных мощностей для обработки данных. Далеко не во всех сферах можно внедрить такое оборудование, чтобы это было экономически оправдано.
— Распространение и усовершенствование искусственного интеллекта даёт возможность автоматизировать определённые задачи, повысить эффективность и удобство, однако важно помнить, что человеческий творческий потенциал, интуиция, креативность и эмпатия, остаются неповторимыми и важными для многих областей.
— В нашей компании 2023 год был непосредственно связан с внедрением ИИ в рабочие процессы. Причём мы внедряли как уже имеющиеся решения на рынке, так и занялись разработкой собственных продуктов на базе ИИ для использования в работе нашими сотрудниками и с прицелом на выведение данного продукта на рынок.
В работе с современными нейросетями выбор зависит от конкретной задачи. Например, для обработки изображений свёрточные нейронные сети (CNN) считаются эффективными. Для работы с последовательными данными, такими как текст, используются нейронные сети (RNN) или их вариации, такие как LSTM или GRU. Для генерации текста и ответов на запросы часто применяются модели типа Transformer (например, GPT).