Какое модное слово в мире техники тесно связано с искусственным интеллектом

0
17

Искусственный интеллект: защитить и защититься

Дополнительные термины и их определения

Частично контролируемое обучение или обучение с частичным привлечением учителя (англ. Semi-supervised learning) — способ машинного обучения, в котором комбинируется небольшое количество размеченных наборов данных и большое количество неразмеченных. Такой подход оправдан тем, что получение качественных размеченных наборов данных является достаточно ресурсоемким и длительным процессом.

Кроме ИТС широкое применение ИИ находит во всех сегментах транспортной отрасли: при моделировании транспортных потоков с использованием искусственного интеллекта, в методах построения логистических маршрутов для доставки крупногабаритных и опасных грузов, при использовании БПЛА и технологии компьютерного зрения для анализа дорожной ситуации, в системах принятия решений транспортных отраслей различной модальности при объединении их в единую транспортную систему, при мониторинге состояния дорожной инфраструктуры и предиктивном анализе ее состояния и, конечно же, при защите от атак на критическую информационную инфраструктуру.

— Целостность гарантирует, что системы искусственного интеллекта не будут имплантированы, подделаны, заменены или подделаны на любой части жизненного цикла (например, сбор, обучение или вывод), моделей алгоритмов, данных, инфраструктуры и приложений продукта, таких как защита от атак выборки и атак отравления данными.

— Справедливость относится к созданию различных проектных групп в процессе разработки систем ИИ, принятию различных мер для обеспечения того, чтобы данные были действительно репрезентативными и представляли разнообразную группу людей, чтобы избежать предвзятых или дискриминационных результатов, возникающих в результате использования ИИ.

Технология глубинного обучения сейчас является неотъемлемой частью исследований в области распознавания речи, изображений, при создании систем управления беспилотными автомобилями, диагностике заболеваний и решении других сложных задач. Развитием технологии глубинного обучения стала реализованная IBM летом 2017 г. технология распределенного глубинного обучения (DDL), позволяющая на порядок сократить время обучения искусственной нейронной сети.

Первая проблема — нарушение авторских прав. С этим мы уже столкнулись в 2023 году: художники, сценаристы, музыканты и другие создатели контента возмутились тем, что нейросети пользуются результатами их труда — при этом авторы ничего за это не получают. Иск художников суд отклонил.

Введение

Искусственный интеллект (ИИ) находит применение во всех сегментах транспортной отрасли — в первую очередь, в интеллектуальных транспортных системах (ИТС) и при моделировании транспортных потоков с использованием ИИ, в методах построения логистических маршрутов, при использовании БПЛА и технологии компьютерного зрения для анализа дорожной ситуации и, конечно же, при защите от атак на критическую информационную инфраструктуру. Специалисты ФГУП «ЗащитаИнфоТранс» в своем аналитическом обзоре структурируют обширный пласт информации, касающейся роли ИИ в обеспечении транспортной безопасности.

1) создание программы для игры в шахматы (в 1954 г. аналитики корпорации REND А. Ньюэлл, Дж. Шоу и Г. Саймон начали писать программу игры в шахматы. Помочь им вызвались А. Тьюринг и К. Шеннон, а также группа голландских психологов. В 1957 г. шахматная программа (NSS) была написана. В основе ее работы лежали эвристики, т.е. правила выбора решения в отсутствие теоретических оснований [23]);

Стандарты безопасности и этики ИИ включают стандарты безопасности, относящиеся к самому ИИ и его платформам, технологиям, продуктам и приложениям, а также спецификации, связанные с этикой и защитой конфиденциальности. В настоящее время стандарты безопасности и этики искусственного интеллекта — это в основном стандарты безопасности для некоторых приложений в таких областях, как распознавание биометрических характеристик и автоматическое вождение, а также вспомогательные типы стандартов безопасности, такие как безопасность больших данных, защита конфиденциальности и прочих.

13. Разработка нормативно-правовой базы использования роботов. «Роботы как субъекты права еще законодательно не оформлены ни в одной стране мира, поскольку для этого нужно официально признать, что робот — это не просто вещь, а создание, наделенное пусть и искусственным, но интеллектом, а также собственной волей. Поэтому в мире еще нет законов, которые что-то предписывают либо запрещают роботам напрямую. Перед законодателями лежит отнюдь не простая задача — обеспечить баланс между интересами технического прогресса, безопасности общества и государства, потребностями отдельно взятого человека. В Южной Корее в 2008 г. приняли «Закон о содействии развитию и распространению умных роботов». В феврале 2017 г. Европар-ламентом принята резолюция Civil Law Rules on Robotics — Нормы гражданского права о робототехнике [25].

В дополнение к SC 42 подкомитет ISO/IEC JTC 1/SC 27 по информационной безопасности, кибербезопасности и защите частной жизни в рамках своей собственной рабочей группы WG 5 по управлению идентификацией и технологиям конфиденциальности учредил исследовательский проект «Влияние ИИ на конфиденциальность». Подкомитет ISO/IEC JTC 1/SC 7 по разработке программного обеспечения и системной инженерии также разрабатывает ISO/IEC/IEEE 29119-11 по разработке программного обеспечения и системной инженерии «Тестирование программного обеспечения», целью которого является стандартизация тестирования систем искусственного интеллекта.

Из-за такой технологии становится сложнее определить, что правда, а что — искусная подделка. Это может приводить к нарушению права на частную жизнь и использоваться в целях клеветы и мошенничества. В связи с этим в США, например, уже предлагают запретить дипфейки — скоро этим вопросом займутся и другие государства.

ЧИТАТЬ ТАКЖЕ:  Какой тип систем не входит в классификацию систем искусственного интеллекта

Воздействие атаки

Проблемы внедрения ИИ также связаны с распределением зон ответственности: в какой мере можно делегировать системам ИИ принятие важнейших решений, кто именно будет нести ответственность за принимаемые системой решения. Проблема может быть легко устранена, если система всегда будет работать в связке с оператором, который примет важнейшие решения. Тогда и вся ответственность за решения и использование этого инструмента ляжет на него. Необходимо аккуратно отслеживать правовые аспекты действия систем ИИ. Пока в этой части полностью доверять системам ИИ мы не можем.

это совокупность алгоритмов и методов, позволяющих научить компьютеры делать выводы на основании имеющихся данных. Добавление обучающих примеров позволяет улучшить результаты распознавания. Таким образом происходит как бы самообучение программы. По этой технологии по большой базе фотографий компьютер научили распознавать лица, причем он делает это точнее, чем человек. Настоящий прорыв в обучении машин произошел в начале 2016 г., когда программа Google AlphaGo сумела обыграть в игру го ее абсолютного чемпиона Ли Седоля. Эта игра является наиболее интеллектуально сложной игрой в мире, намного сложнее шахмат (в го доска 19 х 19 клеток и возможных позиций намного больше, чем в шахматах), в которой для победы необходимо не просто перебирать всевозможные ходы. Добиться победы в го над ее чемпионом позволила технология «глубинного машинного обучения» (deep learning, DL), которая сейчас является самым трендовым направлением развития искусственного интеллекта. Этот термин применяемся к искусственным нейронным сетям (ИНС), где используется больше одного скрытого слоя, поэтому формально «глубинный» указывает еще и на более многослойную архитектуру нейронной сети (см. с. 134). Уникальным для глубинного обучения является то, что машина сама находит признаки (ключевые черты чего-либо, по которым легче всего отделить один класс объектов от другого) и структурирует их иерархично: из более простых складываются более сложные. У термина «глубинное обучение» нет формального определения, поскольку он объединяет целую группу различных технологий [29]. Таким образом, компьютер учится на примерах и своем собственном опыте. Программа AlphaGo сначала проанализировала 29,4 млн ходов в 160 тыс. партий профессиональных игроков, а затем две копии программы начали играть одна с другой, добавляя новые партии в обучающую выборку. Сыграв миллионы партий, программа научилась оценивать наиболее выгодное положение камней на доске для достижения победы [12].

Перспективной программой стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021-2024 годы от 22.12.2020, утвержденной Министерством экономического развития Российской Федерации и Федеральным агентством по техническому регулированию и метрологии, предусмотрена разработка и утверждение части стандартов в области ИИ и сертификации систем с использованием ИИ на транспорте. Это относится к интеллектуальным транспортным системам (ИТС), методам испытаний и средствам обеспечения их безопасности, системам прогнозирования, беспилотным транспортным средствам, сетям и системам связи для поддержки управления беспилотным транспортом (V2X) и порядку оценки соответствия требованиям безопасности.

Этот уровень обеспечивает доступ к данным телематической безопасности автомобиля и данным партнеров через набор стандартных интерфейсов доступа к этим данным и пересылает данные безопасности на уровень вычислительной платформы (security data) для обеспечения эффективного канала передачи данных в режиме реального времени с платформой автопроизводителя и удовлетворения требований по доступу к данным подключенных транспортных средств разных автопроизводителей, разных моделей и разных регионов.

Нижний уровень иерархии — слабый ИИ, где применяются нейронные сети, алгоритмы и формы эволюционирующих вычислений, обеспечивающие понимание процессов адаптации, восприятия, воплощения и взаимодействия с окружающим физическим миром.
Посредством некоторого частично понятного процесса этот набор вычислительных схем преобразуется в более определенные схемы второго уровня — сильный ИИ, шаблоны логического вывода, где рассматриваются и изучаются схемы дедукции, абдукции, индукции, поддержки истинности, а также другие многочисленные модели и принципы рассуждений. На этом уровне абстракции проявляется стремление специалистов воплотить закономерности социальных процессов в ИИ, передаче и подкреплении знаний. Здесь речь идет о разработках систем экспертных, интеллектуальных агентов, систем понимания естественного языка.
Высший уровень Artificial general intelligence (AGI) — сильный искусственный интеллект — это сам разум, превосходящий человеческий. Создаваемый сегодня ИИ подразумевает любую деятельность компьютера, имитирующую человеческий интеллект, сильный ИИ — только такую, которая претендует на что-то универсально общее, похожее на то, как мыслит человек.
Искусственный сверхинтеллект (ASI) — «интеллект, который намного умнее лучших человеческих умов практически в любой сфере, в том числе научного творчества и социальных навыков».

EDR (Endpoint Detection and Response) — платформы обнаружения атак на рабочих станциях, серверах, любых компьютерных устройствах (конечных точках) и оперативного реагирования на них. С помощью технологий ИИ продукты данной категории могут обнаруживать неизвестные вредоносные программы, автоматически классифицировать угрозы и самостоятельно реагировать на них, передавая данные в центр управления. ИИ принимает решения на основе общей базы знаний, накопленной путём сбора данных со множества устройств. Некоторые продукты данного типа используют технологии ИИ для разметки данных на конечных точках и дальнейшего контроля их перемещения, чтобы выявлять внутренние угрозы.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь