Человек и искусственный интеллект кто кого

0
13

Человека заменит не ИИ, а другой человек»: как используют ChatGPT и кто этого боится

Массовая безработица и другие угрозы человечеству

Уволенные сотрудники также опасаются, что выявленные ими зоны риска проигнорировали. В частности, они упоминают свой отчет по продукту Bing Image Creator, где используется нейросеть DALL-E. В нем говорилось, что при тестировании сервиса было обнаружено, что с помощью простой подсказки, включающей только имя художника и материал (живопись, печать, фотография или скульптура), «сгенерированные изображения почти невозможно отличить от оригинальных работ». На фоне того, что в прошлом году OpenAI передал пользователям полные права на образы, сгенерированные с помощью DALL-E, команда по этике опасалась репутационных рисков для Microsoft в случае, если злоупотребления со стороны пользователей причинят ущерб авторам и их наследникам.

Один из рисков, связанных с широким внедрением сервисов на основе ИИ, о котором говорят довольно давно — всплеск безработицы. В 2020 году экономист из Массачусетского технологического института Дарон Аджемоглу посчитал, что каждый дополнительный робот на производстве заменяет в среднем около 3,3 рабочих мест в США. В опубликованном в марте 2023 года исследовании банка Goldman Sachs говорится, что если генеративный ИИ реализует свои потенциальные возможности, то он сможет автоматизировать 300 млн рабочих мест с полной занятостью во всем мире. Для этого исследователи изучили рабочие места в США и Европе и выяснили, что на этих территориях ИИ может заменить ⅔ рабочих мест, после чего экстраполировали данные на весь мир. Также по оценке Goldman Sachs, если ИИ окажет существенную помощь в работе, то мировой ВВП увеличится на 7%.

«Во многих странах постепенно сфера ИИ подвергается регулированию: такие нововведения как телемедицина, финансовые советы или обсуждение любых личных данных должны быть надежно проверены на безопасность и соответствие ценностям. Например, в России на площадке Альянса в сфере ИИ был разработан Кодекс этики в сфере ИИ, к которому уже присоединились более 170 организаций: ведущие российские технологические компании, разработчики, представители научного сообщества, государственных органов и некоммерческих организаций. Кодекс этики задал ориентиры для развития именно «ответственного» ИИ, ориентированного на соблюдение прав человека», — комментирует Татьяна Шаврина, руководитель команды AGI NLP SberDevices и научной группы NLP Института искусственного интеллекта AIRI.

Научный руководитель исследовательского центра «Сильный искусственный интеллект в промышленности» ИТМО Александр Бухановский тоже считает страхи перед массовой безработицей избыточными. По его мнению, с помощью ИИ проще имитировать действия человека в быту, чем профессиональные навыки. «Генеративные нейросети — это просто математический аппарат, который может синтезировать любые цифровые объекты с заданными свойствами. Но на практике все зависит от структуры объектов и от объемов данных, на которых обучается сеть. Так, современные большие языковые модели (например, GPT-4) хорошо генерируют структуры в символьной записи, и потому с легкостью пишут тематические тексты или коды программ. А вот, например, в лоб решить задачу мастер-планирования территории в архитектурной компании — уже труднее. И данных для обучения не так много, и не всегда дообученная на их основе универсальная нейросеть будет эффективной. Тем не менее, структура нейросетевых моделей позволяет дообучать их практически на любых данных. Но вот объяснить результаты их работы, увы, сложно», — говорит Бухановский.

Тем временем, об опасностях новых языковых моделей начали беспокоиться не только банки и сотрудники отделов кадров, но и техно-визионеры. В конце марта более 1000 человек, включая Илона Маска, Юваля Ноя Харари и Стива Возняка, призвали остановить обучение систем искусственного интеллекта более мощных, чем GPT-4. Пауза, по их мнению, нужна, чтобы создать, внедрить и апробировать общие протоколы безопасности. Иначе, предостерегают они, ИИ заменит людей. На момент публикации открытое письмо подписали почти 13 000 человек.

«Человека заменит не искусственный интеллект, а другой человек, который будет пользоваться искусственным интеллектом, — считает Александр Крайнов, директор по развитию технологий искусственного интеллекта компании «Яндекс». — Искусственный интеллект — это просто следующий способ сделать так, чтобы один человек за единицу времени производил больше благ. Многие профессии будут со временем трансформироваться под влиянием технологий. То есть произойдет, во-первых, постепенная трансформация известных нам профессий, а во-вторых, перемещение людей из одних профессий в другие, возникшие в результате развития ИИ. Эти процессы будут проходить довольно плавно».

ЧИТАТЬ ТАКЖЕ:  Как включить нейросеть яндекс

Как компании и государство регулируют ИИ

В 1942 году фантаст Айзек Азимов сформулировал в одном из рассказов три закона, или правила, поведения для роботов: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред»; «Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону»; «Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».

Развитие искусственного интеллекта дошло до стадии, когда захватило внимание всех людей — от школьников и студентов до руководителей корпораций и глав государств. Что привело к новым ограничениям. В Италии правительство запретило ChatGPT, потому что OpenAI незаконно собирала личные данные пользователей и в ней не было системы проверки возраста, чтобы предотвратить доступ несовершеннолетних к неприемлемым материалам. «Мы активно работаем над сокращением количества персональных данных при обучении наших систем ИИ, таких как ChatGPT, потому что мы хотим, чтобы наш ИИ узнавал о мире, а не о частных лицах», — заявили в компании. — Мы также считаем, что регулирование ИИ необходимо».

Такие модели, как ChatGPT от OpenAI и LaMDA от Google, могут выполнять множество языковых задач: перевод, генерация разных типов текста, поиск информации. Эти же модели можно преобразовать к другие генеративные инструменты. Например, Copilot от Microsoft обучается на репозиториях GitHub и умеет писать код. А DALL-E от OpenAI генерирует реалистичные изображения.

Документ не имеет обязательного статуса, ограничиваясь рекомендациями. Но при этом Кодекс вводит инструменты контроля — в частности, институт регуляторов. Могут создаваться коллегиальные отраслевые органы — внутренние комиссии по этике в сфере ИИ для рассмотрения актуальных или спорных вопросов в сфере этики ИИ. Кроме того, в целях исполнения Кодекса создается комиссия по его реализации. На местах предусмотрено создание позиции уполномоченного по этике ИИ.

Портал SuperJob посчитал, что 17% россиян опасаются потерять работу из-за автоматизации и ИИ. Они переживают, что их рабочие обязанности сократят или вовсе перестанут быть востребованными. Однако 43% не боятся ИИ и большинство из них уверенно, что ИИ не заменит человека.

На фоне такой озабоченности в отношении этичности ИИ, новость о том, что в марте в рамках сокращений Microsoft уволила всю команду по этике искусственного интеллекта, вызвала некоторое недоумение у мировой общественности — и у Илона Маска. Компания заявила, что «за последние шесть лет увеличилось количество сотрудников в продуктовых командах и в Управлении ответственного ИИ, которые, как и все в компании, следят за соблюдением принципов работы ИИ». Но, по словам сотрудников, именно сокращенная команда по этике и обществу играла ключевую роль в том, чтобы принципы ответственного ИИ действительно отражались в дизайне конечных продуктов.

При этом Кодекс, пытаясь защитить человека от дискриминации со стороны ИИ, не дает определения понятию «искусственный интеллект». Но ИИ — понятие маркетинговое, объединяющее десятки различных технологий. И если уж авторы Кодекса решили задать вектор этике в сфере ИИ, то неплохо было бы для начала договориться, что понимать под этим термином.

Функцию чат-бота с искусственным интеллектом встроили в свои сервисы такие компании как Snap — пользователям Snapchat он помогает с планами на выходные и поисками рецептов разных блюд, сервис доставки Instacart — там чат-бот может помочь выбрать нужные продукты взамен отсутствующих или подсказать, что нужно для определенного блюда, Salesforce добавил чат-бота в популярный мессенджер Slack, а в приложении для изучения иностранных языков Speak ИИ имитирует реального собеседника. Популярный сервис для изучения иностранных языков Duolingo также анонсировал новую функцию Duolingo Max на основе языковой модели GPT-4. Другие же компании, тоже заметив появление нового инструмента на рынке, предпочли проявить осторожность. Крупные международные банки, такие как JPMorgan Chase, Bank of America, Goldman Sachs и Deutsche Bank запретили своим сотрудникам пользоваться ChatGPT. Ограничение на использование чат-бота ввела для своих работников и компания Amazon, который отдельно призвал их не делиться с ботом конфиденциальной корпоративной информацией. В то же время, продавцы, выставляющие свои товары на маркетплейсе активно используют для составления описания своих товаров.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь