Искусственный интеллект что мешает

0
20

Завышенные ожидания или временные трудности. Что мешает развитию искусственного интеллекта

Вывод

Искусственный интеллект активно используется в образовательной отрасли, он приносит огромную пользу и студентам, и преподавателям. Безусловно, заменить живого человека, как какой-то робо-учитель, он не в состоянии, хоть подобные проекты и существуют (пока, правда, они находятся на стадии тестирования). ИИ в образовании выглядят как компьютерные программы, применяющие модели машинного обучения для решения конкретной задачи.

Несмотря на то, что внедрение нейросетей в образование началось сравнительно недавно, они уже сегодня помогают студентам подбирать оптимальные учебные курсы и программы, соответствующие сфере их интересов. ИИ анализирует опыт изучения курсов другими людьми, предлагает эффективный порядок их освоения конкретным учеником/студентом, предоставляет полезные рекомендации относительно более внимательного изучения той или иной темы и т.д. То же самое касается и преподавателей – искусственный интеллект способен подсказать, как лучше изложить обучающие материалы, чтобы учеба стала еще более эффективной.

Российский бизнес пока что взвешивает все за и против, принимая решения о вложениях в ИИ. Так, 32% отечественных компаний хотят внедрить технологию в перспективе ближайших пяти лет, и примерно столько же (35%) — не планируют это делать. Во многом, конечно, нежелание использовать ИИ связано с необходимостью немалых вложений. Именно поэтому сегодня так важно сотрудничество между бизнесом, академическими учреждениями и государством — это обеспечит совместное финансирование исследований и разработок, а также поможет создать стимулы для инноваций в области ИИ.

Нейросети в последние года два демонстрируют стремительный рост и невероятно активное развитие. Они повсеместно внедряются во все сферы человеческой жизни, не стало исключением и образование. Об угрозе, которую якобы несет в себе искусственный интеллект, сегодня не говорит разве что ленивый. Так что же он собой представляет вообще и для образовательной отрасли в частности? Попробуем в этом разобраться!

В-третьих, ИИ-системы могут унаследовать предвзятость тех данных, на которых они обучались. Так, нередки новости о дискриминации в заключениях ИИ. Например, по этой причине Amazon закрыли проект, который должен ускорить процесс найма сотрудников. Алгоритм справлялся со своей задачей, однако по результатам его отбора кандидаты-мужчины были всегда предпочтительнее женщин.

Второй вызов касается этической стороны. На сегодняшний день пока нет принятого консенсуса — можно ли без угрозы здоровью пациента использовать искусственный интеллект для диагностики заболеваний и назначении лечения и правильно ли передавать судьбу человека «в руки» машины. Дело в том, что при правильном и качественном обучении искусственный интеллект способен выявлять множество патологий, включая злокачественные образования и различные патологии на ранней стадии, что даст больше уверенности в благоприятном прогнозе. Но что, если у пациента есть анатомические особенности или патология настолько редкая, что ИИ с ней ни разу не встречался? В этом случае разработчикам необходимо найти соответствующие новые данные, которые будут иллюстрировать эти особенности, чтобы машина могла учитывать их в новых исследованиях с минимальной погрешностью. И тут у специалистов возникает логичный вопрос: кто является истинным владельцем медицинских данных — пациент, врач, клиника, страховая компания или кто-то ещё? И кто имеет право ими распоряжаться? А если ИИ допустит ошибку и будет нанесен ущерб пациенту? Эти нравственные вопросы особенно беспокоят медицинское сообщество и препятствуют проникновению новых технологий в здравоохранение.

Искусственный интеллект — одна из самых обсуждаемых тем последних лет, считает Геннадий Штех, руководитель R&D-направления в компании Embedika. Он рассказал «Снобу» об объеме инвестиций в технологии, а также о том, какие барьеры на пути развития ИИ существуют сегодня и как это влияет на рынок

Несмотря на существующие препятствия, перспективы для развития искусственного интеллекта в медицине есть. По данным Deloitte, к 2020 году мировые расходы на здравоохранение достигнут $8,7 трлн — 10,5% от общемирового ВВП. Такие прогнозы ставят государство и бизнес перед необходимостью внедрять технологии ИИ в лечебные учреждения, чтобы предоставить врачам новые возможности, повысить эффективность использования существующих ресурсов и таким образом сократить расходы. ИИ позволит справиться с большими массивами данных пациентов и оказывать поддержку врачей в принятии клинических решений. ИИ будет особенно востребован в сфере радиологии, патоморфологии и геномике.

Соблюдать нормы этики

Благодаря способности собирать и анализировать информацию, ИИ может повысить роль профилактики заболеваний всего населения. Например, лаборатория Philips Research изучает возможности искусственного интеллекта для раннего выявления туберкулеза. Специалисты разработали решение на основе ИИ, которое анализирует большое количество медицинских снимков и делает выводы о наличии заболевания. В ходе проведенных исследований ученые выяснили, что результаты, предоставленные ИИ, ничуть не уступают по качеству работе специалиста.

Так, глава компании SoftBank уже потерял около $150 млрд за все время своих вложений в ИИ. Другой яркий пример — OpenAI. Каждый день на поддержку ChatGPT уходит порядка $700 тыс. При этом желанной прибыли чат-бот пока что не приносит. Так, в 2022 году убыток компании составил $540 млн. Но OpenAI продолжает развивать продукт благодаря большим инвестициям, например, от Microsoft. Компания уже вложила в стартап $1 млрд и планирует инвестировать еще $10 млрд.

Такие, вполне логичные, действия государств в отношении ИИ могут значительно затормозить процесс развития технологии. Этим крайне обеспокоен бизнес: недавно 160 топ-менеджеров крупнейших ИТ-компаний подписали открытое письмо, в котором призвали пересмотреть законопроекты в сфере ИИ. Предприниматели опасаются, что подобные инициативы приведут к кратному повышению издержек на соблюдение необходимых требований и препятствиям для распространения технологии. Такие примеры уже тоже есть: весной власти Италии ограничили использование ChatGPT в стране из-за несоблюдения правил конфиденциальности.

С 2015 года мир наблюдал активный рост корпоративных инвестиций в технологии искусственного интеллекта. Так, к 2023 году более половины компаний (54,6%) утверждают, что тестируют возможности генеративного ИИ для собственных задач, а 18,2% — уже внедрили его в свою деятельность. Несмотря на очевидный рост темпов развития технологии, в 2022 году был впервые зафиксирован спад инвестиций: они составили $189,59 млрд, что на $86,55 млрд меньше, чем в предыдущем году. Интерес обычных пользователей тоже начал понемногу снижаться. Так, в июне этого года посещаемость сайта ChatGPT упала почти на 10%, по сравнению с предыдущим месяцем.

Наипростейший пример использования искусственного интеллекта в образовательной сфере – автоматическое оценивание, исключающее человеческий фактор. Оно, с одной стороны, сводит к нолю риск ошибки, а с другой – способствует объективному оцениванию и получению максимально точных, не ангажированных результатов.

Чтобы искусственный интеллект показывал максимально точные результаты, его нужно сначала обучить. Для этого необходим массив качественно подготовленных данных для обучения. К сожалению, сегодня в здравоохранении такой информации в распоряжении специалистов в области Data Science немного, часто она является неполной, неточной или «сырой». Дело в том, что данные для обучения ИИ предоставляются лечебными учреждениями и перед тем как предоставить информацию, их необходимо подготовить (разметить, структурировать, оцифровать патологию и т.д.). Этот процесс ручной и занимает много времени и требует больших затрат. На данный момент специалистов, занимающихся подготовкой этих данных в системе здравоохранения, недостаточно. Это один из вызовов ну пути к созданию систем ИИ, способных давать результаты сопоставимые с результатами специалистов. Одна из главных задач в сфере ИИ сегодня, над которой работают программисты, — создание автономной «умной» системы, способной самообучаться. Пока что в медицине большее распространение получили алгоритмы ИИ, которые были обучены на основе подготовленных данных, алгоритмы ИИ, которые могут проходить обучение без участия специалиста, пока находятся на этапах разработки и тестирования. В этих условиях разработчикам будет необходимо работать в тесной связи с врачами: чем больше будет подготовлено качественный данных, тем больше медицинских задач сможет взять на себя искусственный интеллект.

ЧИТАТЬ ТАКЖЕ:  Чем отличается искусственный интеллект от машинного обучения

Разработка и обучение ИИ-систем требуют использования больших объемов данных — это является критическим аспектом развития и применения технологии. Специалисты выделяют два типа информации, на которых обучаются алгоритмы: высококачественная и низкокачественная. К первой относятся научные статьи, диссертации, исследования, мировая художественная литература. Во вторую категорию входят менее достоверные источники — посты пользователей в социальных сетях и комментарии к ним, обсуждения в ветках форумов, развлекательные статьи в СМИ. По прогнозам экспертов, острую нехватку именно первого типа материалов можно будет наблюдать уже к 2026 году. Более того, ошибочные, устаревшие и недостоверные данные уже сегодня существенно снижают эффективность ИИ.

Чтобы решить эту задачу и укрепить доверие граждан к системе безопасности их данных, необходимо посмотреть на нее с двух сторон. Во-первых, нужно расширять возможности клиник для обмена данными о пациентах в рамках медицинского сообщества, с другой — обеспечить более эффективный контроль и защиту, чтобы пациенты могли быть уверены в том, что их личная информация не станет достоянием широкой общественности. Это процесс, безусловно, долгий и трудоемкий, он требует участие как государства, так и бизнеса, но в конечном итоге, только он может реально повлиять на безопасность конфиденциальных данных пациентов.

Риски и этика

С повсеместным распространением ИИ растут и риски. Во-первых, системы могут ошибаться. Только за первый квартал 2023 года зафиксировано 45 инцидентов с участием ИИ. Наиболее частые происшествия — ДТП с участием беспилотных автомобилей, а также распространение ложной информации.

Сегодня искусственный интеллект (ИИ) находит свое применение во многих сферах нашей жизни — от транспорта и промышленности до финансов и медицины — и тем самым привлекает все больше внимания со стороны инвесторов. Например, в здравоохранении возможности ИИ уже сейчас позволяют оптимизировать работу клиник, повысить эффективность оказания помощи и сделать процесс диагностики более точным. По данным PWC, во втором квартале 2018 года искусственный интеллект стал одним из наиболее прорывных направлений для инвестиций в США с объемом финансирования $2,3 млрд. Россия серьезно отстает от США и Китая по инвестициям в развитие искусственного интеллекта, однако популярность ИИ в нашей стране растет. Несмотря на это, российские врачи неоднозначно относятся к возможностям ИИ в здравоохранении, указывая на нехватку инфраструктуры и погрешность в работе. Какие барьеры стоят на пути внедрения ИИ в систему российского здравоохранения? И удастся ли отечественным врачам найти общий язык с новыми технологиями?

Поэтому сейчас на повестке стоит вопрос о том, кто должен заниматься безопасностью интеллектуальных технологий. Главные разработчики ИИ предлагают передать вопросы регулирования самому бизнесу, а не государству. Для этого OpenAI, Microsoft, Google и Anthropic, например, создали свою организацию, которая будет заниматься стандартами безопасности ИИ. Однако очевидно, что решение этих проблем требует открытого содействия и сотрудничества между бизнесом, государством и обществом.

Проблемы с развитием критического мышления. Бытует мнение, что из-за тотального распространения нейросетей у учащихся будут наблюдаться сложности с принятием важных решений, так как множество задач они смогут решать автоматически благодаря искусственному интеллекту.

Разработка продвинутых ИИ-систем, особенно в области глубокого обучения и нейронных сетей, требует значительных финансовых и технических ресурсов. Это включает в себя затраты на оборудование, вычислительные ресурсы, специалистов по работе с данными и исследователей в области ИИ. Вложения в разработку ИИ могут быть высокими, но окупаемость и успех проектов не всегда гарантированы. Особенно это актуально на начальной стадии, когда технология экспериментальная и не имеет непосредственных рыночных применений. Как правило, такие проекты в области ИИ ориентированы на инновации и не нацелены на быстрые результаты.

Во-вторых, принятые ИИ решения могут быть сложно объяснимы, особенно это критично в таких областях, как медицина и судопроизводство. Более того, не секрет, что алгоритмы часто могут «фантазировать». Например, некоторые уголовные дела, составленные ИИ, настолько правдоподобны, что в них может поверить даже опытный адвокат. Однако к реальности они не имеют никакого отношения. Это создает препятствия для прозрачности и доверия к технологии.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь