Содержание статьи
3 лучших бесплатных переводчика на базе искусственного интеллекта
ДЛЯ ЧЕГО ИССЛЕДОВАТЬ ВОПРОСЫ БЕЗОПАСНОСТИ ИИ?
Изобретение революционных технологий, а сверхразум ‒ одна из них, может помочь человечеству искоренить войны, болезни и бедность. Само по себе создание подобной технологии может стать крупнейшим событием во всей истории человечества. Однако, некоторые эксперты предполагают, что если человек не научится синхронизировать свои цели с задачами ИИ до того, как тот превратится в сверхразум, это событие может оказаться для него последним. Есть и те, кто сомневается в возможности создания сильного ИИ, и те, кто считает, что создание сверхразвитого ИИ гарантированно принесет человечеству пользу. Институт «Будущее жизни» признает возможность развития обоих сценариев событий и понимает, что ИИ может преднамеренно или непреднамеренно стать источником большой беды. Мы уверены, что структурное исследование вопроса сегодня поможет подготовиться к потенциально негативным сценариям и предотвратить их в будущем, даст возможность избежать опасных моментов, связанных с ИИ, а вместо этого использовать его преимущества.
Еще одно ложное умозаключение связано с опасением, что машины перейдут на темную сторону силы. В действительности же нужно опасаться не намеренного вредительства со стороны технологии, а некомпетентности разработчиков. Сверхмощный ИИ по определению будет невероятно эффективен в достижении поставленных целей (неважно, каких именно). Поэтому необходимо убедиться наверняка, что цель ИИ синхронизирована с потребностью человека. Человечество в целом равнодушно к муравьям и при достижении собственных целей не особенно считается с их потребностями. Люди умнее и могут себе это позволить. Поэтому цель тех, кто занимается разработкой безопасного ИИ ‒ предупредить ситуацию, в которой человечество окажется на месте муравьев.
Если вы нажмете левой кнопкой мыши по одному из слов или по целому словосочетанию, ниже появится целый список с доступными заменами в виде синонимов (если это возможно). Иногда очень полезно обратиться к такому списку и узнать точное значение каждого выражения. Возможно, окажется правильным взять разговорную фразу или выбрать более лаконичный вариант.
Существует и родственный миф, который культивируют люди обеспокоенные тем, что от создания сверхмощного ИИ нас отделяет всего несколько лет. Однако большинство тех, кто открыто заявляет о своей обеспокоенности, в действительности видят возможность создания сверхмощного интеллекта лишь десятилетия спустя. Они аргументируют свои заявления так: поскольку нет стопроцентной гарантии того, что прорыв ИИ не произойдет в этом столетии, разумно было бы начать исследования в области безопасности этой технологии для того, чтобы подготовиться к непредвиденным событиям. Многие проблемы безопасности связанные с равным человеку ИИ настолько значительны, что на их решение могут понадобиться десятилетия. Поэтому, чтобы не пришлось поспешно разбираться с последствиями того, что может натворить компания программистов, окрыленная напитками Red Bull, дальновиднее будет начать исследование вопроса уже сегодня.
К примеру, техно-скептик, знакомый с позицией Билла Гейтса по публикациям в таблоидах, может ошибочно считать, что Гейтс твердо уверен в неизбежности создания сверхразумного ИИ. Таким же образом, кто-то из про-технологичного движения может быть совершенно не знаком с позицией Эндрю Ына в целом, но помнить цитату про перенаселенный Марс и считать, что Ын не озадачен проблемой безопасности искусственного интеллекта, однако это неправда. Суть в том, что прогнозы Эндрю Ына предполагают более поздний прорыв технологий искусственного интеллекта, и в приоритет он, как правило, ставит не долгосрочные задачи, связанные с ИИ, а краткосрочные.
Среди исследователей искусственного интеллекта было проведено множество опросов, с целью выяснить их прогнозы относительно того, как скоро, с вероятностью хотя бы в 50%, может появиться сверхразумный ИИ. Опросы показали, что ведущие эксперты всего мира расходятся во мнениях, поэтому мы просто не знаем ответа. Например, в одном из таких опросов исследователей искусственного интеллекта в 2015 году на конференции в Пуэрто Рико, посвященной ИИ, среднестатистический ответ был «к 2045 году», но при этом некоторые исследователи называли сроки в сотни лет или даже больше.
САМЫЕ ПОПУЛЯРНЫЕ МИФЫ ОБ ИИ
Переводчики на базе искусственного интеллекта – более гибкие инструменты, превосходящие по качеству и возможностям привычные сайты или приложения. Они анализируют больше словарей и различных учебников на многих языках, благодаря чему быстро показывают максимально верный перевод фразы или даже предлагают несколько на выбор, что зависит от контекста. Пока что эта сфера только начинает активно развиваться, но каждый уже может бесплатно использовать как минимум три хороших переводчика на базе ИИ, о которых я и хочу рассказать далее.
Институт «Будущее жизни» считает, что процветание цивилизации возможно до тех пор, пока мы не позволим растущей силе технологий взять верх над благоразумным использованием оных. Что касается технологий ИИ, нам кажется, ключ не в том, чтобы препятствовать их развитию, но в том, чтобы путем исследований в области обеспечения безопасности ИИ, сделать упор на их разумное использование.
Остается только посочувствовать Родни Бруксу и другим новаторам в области робототехники, которые, по вине провоцирующих панику таблоидов, незаслуженно оказались в роли последних злодеев. Все потому, что некоторые журналисты зациклены на робото-фобии и неизменно включают в свои материалы изображения зловещих металлических конструкций с красными сверкающими глазами. Но основное опасение движения за безопасный ИИ заключается не в роботах, но в интеллекте как таковом, а точнее, в ИИ, цели которого расходятся с нашими. Для того, чтобы стать причиной неприятностей, такому сверхразуму не нужно роботизированное тело ‒ достаточно интернет-соединения. С его помощью он сможет обмануть финансовые рынки, превзойти научных исследователей, подчинить себе влиятельных личностей и разработать оружие, устройство которого человеку и понять не удастся. Даже если бы конструкция роботов была физически невозможна, получив неограниченный доступ к деньгам, сверхразумный ИИ теоретически мог бы платить многим людям или манипулировать ими, чтобы те, сами того не подозревая, служили исполнителями его замыслов.
Еще одно распространенное заблуждение заключается в том, что люди, сомневающиеся в ИИ и отстаивающие необходимость исследования его безопасности ‒ луддиты, не знакомые с технологией ИИ. Когда Стюарт Рассел, автор стандартного учебника по ИИ, высказал такое мнение в ходе конференции в Пуэрто Рико, аудитория рассмеялась. С этим заблуждением связано еще одно ‒ о том, что возможность поддержки исследований безопасности ИИ очень сомнительна. Но на самом деле, для внесения скромного вклада в исследования не обязательно быть уверенным в неизбежности рисков, достаточно лишь знать, что они не исключены. Подобно этому, даже минимальная возможность пожара ‒ достаточное основание для того, чтобы потратить небольшую сумму на страховку дома.
Пока что в DeepL поддерживается 31 язык, а также есть возможность переводить текстовые файлы, просто загружая их на сервер. Язык оригинала определяется автоматически, поэтому вам достаточно просто начать вводить фразу. Язык для перевода вы выбираете из списка справа.
Для многих разработчиков ИИ заголовок «Стивен Хокинг предупреждает, что искусственный интеллект ‒ угроза для человечества» ‒ все равно что красная тряпка для быка. Многие потеряли счет подобного рода пугающим статьям. Иллюстрируют такие материалы обычно злобным вооруженным андроидом, намекая, что мы должны опасаться роботов, которые выйдут из-под контроля, восстанут и начнут убивать. Если говорить менее серьезно, подобные тексты впечатляют, потому что в сжатом виде суммируют тот сценарий, о котором разработчики ИИ даже не задумываются. Этот сценарий состоит из трех самостоятельных заблуждений, базирующихся на опасениях касательно осознанности, зла и роботов.