Ученые работают над созданием искусственного интеллекта что

0
16

Как возникает ИИ

Как ИИ учится?

Обучение с подкреплением
При обучении с подкреплением обучающая система принимает решения, в соответствии с которыми она впоследствии действует. За каждое действие система получает положительную или отрицательную обратную связь. Таким образом, алгоритм все лучше и лучше узнает, насколько успешны отдельные действия в различных ситуациях. Глубокое обучение – это метод обучения с подкреплением в искусственных нейронных сетях, которые имитируют работу мозга. Такая нейронная сеть состоит из нескольких слоев. Отдельные слои состоят из множества искусственных нейронов, которые связаны друг с другом и реагируют на нейроны соответствующего предыдущего слоя. Чем больше сеть, тем более сложные ситуации могут быть обработаны.

Контролируемое обучение
При контролируемом обучении люди оценивают обучающие и тестовые данные и распределяют их по группам. В период обучения ИИ учится правильно называть изображения кошек, например, «кошка». Если алгоритму, обученному выбирать между собакой и кошкой, показать фотографию слона, ИИ не сможет решить эту задачу. Однако, ограниченные узкой областью, эти алгоритмы очень надежны и точны, если обучающие данные достаточно обширны и качественны.
Анализ изображений с помощью обучающих методов уже играет важную роль в диагностике изображений. Несколько исследований показывают, что ИИ может ставить более быстрые и зачастую более точные диагнозы, чем многие медицинские работники, например, при оценке рака кожи. Наилучшие результаты достигаются при совместной работе человека и ИИ: сначала ИИ оценивает, является ли это раком кожи вообще или безопасным изменением кожи. После этого лечение определяется специалистами.

Автономное вождение
Автопроизводители уже несколько десятилетий работают над автоматизацией вождения с помощью различных систем содействия управлению транспортным средством. Многие вещи уже стали реальностью, например, автоматическая адаптация скорости или помощь при парковке. Главной целью является автономное вождение, когда компьютерные программы с ИИ полностью контролируют автомобиль, а люди являются лишь пассажирами. С одной стороны, это позволило бы предотвратить многие дорожные происшествия, потому что сегодня очень много аварий происходит из-за человеческого фактора. Но, с другой стороны, есть и принципиальные вопросы: кто несет ответственность в случае столкновения с автомобилем без водителя?

«Сегодня у нас есть машины, которые уже могут относительно хорошо учиться, но у нас еще нет машин, которые могут думать. Разработка таких машин — вот главная задача».
Бернхард Шёлькопф, директор Института интеллектуальных систем Общества Макса Планка в Тюбингене

Давай, исследуй со мной
Маленький четырехногий робот SOLO 8, который также приветствует посетителей на выставке, посвященной теме ИИ, – это творение робототехнических лабораторий Института интеллектуальных систем Общества Макса Планка в Тюбингене и Штутгарте. Робот-исследователь является проектом с открытым исходным кодом. Руководство по разработке и документация по GitHub находятся в открытом доступе. Большинство деталей поступает с 3D-принтера, остальные можно легко купить в магазине. Это означает, что исследователи во всем мире могут недорого и легко воспроизвести и продолжить разработку робота SOLO 8. Идея проекта заключается в том, что любая исследовательская лаборатория робототехники может использовать эту технологию, создавая, таким образом, единую исследовательскую платформу по всему миру. Ведь если многие ученые проводят эксперименты на одной и той же платформе, то получают сопоставимые данные. Это позволяет ускорить прогресс в области робототехники.

Вопрос в трактовке понятия «заменит». Если искусственный интеллект − это помощник человека, то он не может без человека (кому тогда помогать?). Даже если ИИ полностью берет на себя обработку данных и управление тем или иным процессом из жизни человека, то человек все равно остается как потребитель результата. Например, управление беспилотным автомобилем происходит с помощью ИИ, без вмешательства человека. Но цель управления определяется конкретной потребностью человека − довезти пассажира, доставить груз и т.п.

Полное вытеснение (замена) человека означает, что ИИ будет решать задачи, которые не нужны человеку, т.е. исходным целеполаганием занимается не человек, а ИИ. Современный ИИ таким независимым от человека целеполаганием заниматься не умеет. Ученые работают над созданием сильного ИИ (или общего ИИ), в котором ИИ обладает способностью мыслить и осознавать себя как отдельную личность (в т.ч. понимать собственные мысли). Но пока это лишь гипотеза, неясно возможно ли создание сильного ИИ в принципе. На текущей стадии развития ИИ есть опасность, что ИИ как помощник при отборе информации для человека будет допускать ошибки. Например, пропускать важную информацию или отбирать не ту информацию, которая важна. Понятно, что такие ошибки вызываются ошибками в алгоритмах (а алгоритмы разрабатывает человек или ИИ по спецификации от человека). Но не только. Отбором информации можно управлять, т.е. кто-то (человек сам или ИИ в интересах этого человека) будет разрабатывать алгоритмы с требуемыми ему свойствами отбора информации. Но это уже давно известное свойство технологического развития. Когда появляется новая технология, всегда может найтись человек, который применит эту технологию себе на пользу, но во вред другим людям. Возможное решение здесь − это встраивать средства защиты в саму технологию. Для ИИ-технологий такие средства защиты могут разрабатываться на основе доверенного (доверительного) ИИ и объяснимого (объяснительного) ИИ. В этом случае, ИИ предоставляет человеку не только результат отбора информации, но и объясняет, почему именно такой результат получен, а также дает другие доказательства, почему можно доверять результату. Также есть понятие «этика ИИ», в рамках которой рассматриваются моральные вопросы, как работает ИИ и как результаты этой работы влияют на человека.

Сложный вопрос, но уверен, что нет. Человек останется лицом, принимающим решения. Сегодня технологии искусственного интеллекта, скорее, ориентированы на помощь в принятии того или иного решения человеком и формировании рекомендаций для него на основе большого объема исторических данных или текущей ситуации.

© Институт информатики Общества Макса Планка, Саарбрюккен
Изучение языков с помощью ИИ
Онлайн-курсов по изучению языка существует «как песка в море». Но предложение часто сильно отличается по качеству и цене. Особенно перспективными являются курсы, на которых учащиеся получают много обратной связи от преподавателей. Но такие курсы дорогие. Вейценбаум-институт – совместный исследовательский проект Берлина и Бранденбурга – совместно с Гете-Институтом разрабатывает ИИ, который позволит максимально эффективно использовать время преподавателей и сосредоточиться на таких областях, как написание собственных текстов и обучение правильному произношению. Программа, помимо прочего, может проверить не только новую лексику в свободно сформулированных текстах, но и правильность использования недавно изученной грамматики. Она даже может определить, переводили ли ученики текст самостоятельно или «жульничали» с помощью программ-переводчиков. Таким образом, ИИ может взять на себя рутинные задачи преподавателей.

ЧИТАТЬ ТАКЖЕ:  Как научиться пользоваться искусственным интеллектом

© Решения Bosch для обеспечения мобильности
Идеальное взаимодействие
Фильмы и сериалы дублируются для крупных кинорынков, таких как Германия. Переводчики должны при этом не только правильно передать содержание сказанного, новый текст также должен соответствовать движениям губ и мимике актеров. Но все может измениться: техника ИИ под названием «Глубокие видеопортреты», разработанная в Институте информатики Общества Макса Планка, позволяет адаптировать выражение лица и мимику актеров для наилучшего перевода. Для этого записываются движения лица и положение головы актеров дубляжа. Система переносит это на актеров в фильме. В результате мимика, взгляд, положение головы и даже подмигивание глаз идеально соответствуют произносимым словам. Однако подобные приемы делают возможной фальсификацию медиаконтента, известную как «дипфейк». Сегодня, например, в уста политиков можно вложить любое заявление, каким бы абсурдным оно ни было. Поэтому мы должны привыкнуть критически относиться даже к кажущимся объективными доказательствам.

Распознавание взаимосвязей
Одним из текущих направлений исследований Бернхарда Шёлькопфа в Институте интеллектуальных систем им. Макса Планка в Тюбингене является так называемая каузальная интерференция. При этом речь идет об алгоритмах, которые на основе данных также могут выявлять причинно-следственные связи, т.е. связь между причиной и следствием. Одна из целей – сделать системы ИИ более устойчивыми к внешнему вмешательству. Хорошим примером здесь также является автономное вождение: если дорожный знак в жилом районе с ограничением скорости установлен таким образом, что на нем вместо 30 км/ч написано «130», человек сразу понимает, что это не может быть правдой – именно потому, что окружающая обстановка дает множество дополнительных подсказок. Для ИИ, с другой стороны, это непростая задача. И все же он должен быть в состоянии справляться с ней, прежде чем автомобили смогут действительно ездить автономно, иначе серьезные аварии будут неизбежны.

Человек с древних времен придумывал себе помощников в виде различных инструментов (палка, колесо, очки, трактор). Эти помощники помогают человеку решать задачи в его жизни. ИИ и цифровые сервисы − это новый вид помощников. Таким образом, в будущем нас ждет увеличение числа и разнообразия помощников человека в форме компьютерных программ, работающих на различных цифровых устройствах. В первую очередь, помощь связана в делегировании ИИ первичной обработки данных, отбору из этих больших и разнообразных данных той информации, которая нужна сейчас человеку. На основе отобранной информации человек уже сам принимает решения.

Машинное обучение означает, что компьютер учится на примерах и опыте принимать решения – без программирования на решение конкретной задачи. Специальные алгоритмы учатся на демонстрационных данных и разрабатывают модели, которые затем могут использовать для новых, ранее еще не встречавшихся данных. Когда самообучающиеся машины обучаются на очень большом количестве примеров, они самостоятельно разрабатывают обобщенный процесс принятия решений. Однако как самообучающиеся программы приходят к своим решениям, обычно не могут понять даже сами программисты. В зависимости от сложности различают разные уровни машинного обучения: контролируемое обучение, неконтролируемое обучение, обучение с подкреплением и глубокое обучение.

Первоначально работа ведется над символьным ИИ, основанном на правилах. Но эта форма ИИ сильно ограничена. Она подходит только для тех областей, в которых можно определить четкие правила для всех возможных ситуаций. С 1980-х годов был достигнут очень большой прогресс в области самообучающихся программ.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь