Содержание статьи
- 1Сильный ИИ – не хайп, а фейк. Почему его невозможно создать
- 1.1Искусственный интеллект, конечно, не совсем интеллект. По сути, это обычная программа, но с нечетко прописанным алгоритмом (хотя бывают и такие). При этом у нее есть определенная самостоятельность в принятии решений, а значит, и существует элемент случайности полученного результата. И это уже похоже на работу мозга человека. Расскажем, как человек позволяет нейросетям «думать» самим и что из этого выходит.
- 1.2
Сильный ИИ – не хайп, а фейк. Почему его невозможно создать
Искусственный интеллект, конечно, не совсем интеллект. По сути, это обычная программа, но с нечетко прописанным алгоритмом (хотя бывают и такие). При этом у нее есть определенная самостоятельность в принятии решений, а значит, и существует элемент случайности полученного результата. И это уже похоже на работу мозга человека. Расскажем, как человек позволяет нейросетям «думать» самим и что из этого выходит.
Решить эти проблемы, возможно, получится с помощью обучения с самоконтролем — это тип МО, при котором нейросети дают возможность самой определять релевантность результата, иначе говоря — что важно, а что нет. В этом случае человек создает пробелы в данных и просит ИИ заполнить их на «свое усмотрение » . Например, обучающий алгоритм дает программе несколько первых слов предложения и просит ее определить следующее по смыслу. Такой подход оказался чрезвычайно успешным в моделировании человеческого языка и распознавании изображений.
Именно последний вариант больше всего приближает работу компьютера к тому, как функционирует человеческий мозг. И хотя это самое непредсказуемое направление развития ИИ, здесь уже есть впечатляющие успехи. Так, 10 лет назад нейронную сеть AlexNet научили классифицировать не известные ей изображения. Благодаря этому нейробиологи разработали первые вычислительные модели зрительной системы приматов. При этом обнаружилось удивительное сходство в том, как реагируют на изображение нейроны в мозге обезьян и компьютерная нейросеть.
Г. Попытки строить ИИ лишь на основе корреляций, а не причинности – тупиковы. Причинность – важнейшая часть человеческого мышления. Компьютеры не могут справиться с причинностью, потому что они не могут вмешиваться в мир. Их просто нет в мире, потому что они не воплощены. Они не являются агентами, способными своими действиями что-либо менять в своем окружении. До тех пор, пока компьютеры не станут действующими агентами, принадлежащими к определённой культуре, они не приобретут человекоподобный интеллект. Что, впрочем, не помешает использовать их в задачах автоматизации.
2. Современная трактовка Фьелланда ещё более радикальная, чем аргументация Дрейфуса (равно как и автора этого поста). Фьелланд препарировал вопрос так, что показал принципиальную невозможность создания сильного ИИ, не просто в обозримом будущем, а вообще никогда.
Некоторые нейробиологи оценивают в 90 % схожесть того, как работают с информацией наш мозг и ИИ при обучении с самоконтролем. Мы способны предугадывать движение объекта или предсказывать следующее слово в предложении точно так же, как алгоритм обучения с самоконтролем заполняет пробел в тексте или изображении.
Ученые воодушевились и стали разрабатывать искусственный интеллект для распознавания звуков и даже запахов. Однако пыл их несколько угас, когда вскрылись серьезные ограничения работы ИИ. Во-первых, программу можно было легко обмануть. Во-вторых, у нее не получалось избежать ошибок при изменении типа входных данных. В-третьих, ей не хватало характерной для мозга гибкости.
Искусственный интеллект стоит на машинном обучении (МО). Иначе говоря, человек объясняет программе, как обрабатывать большие объемы данных, на что обращать внимание, а она делает на основе этого анализа выводы и потом использует их. В МО существуют разные педагогические подходы от контроля каждого шага до предоставления полной свободы действий. Как и в обычном образовании, педагог вправе вести ученика за руку или лишь обозначить направлен ие и дать тому заниматься самостоятельно. Здесь будет кстати и аналогия с изучением иностранного языка: кто-то годами постигает грамматику и зубрит слова, кто-то проходит поверхностный месячный курс, а есть и такие, которые приезжают в чужую страну и начинают методом проб и ошибок на ходу вникать во все с нуля.
Воспринимать изображение примерно так же, как это делает мозг, ИИ научили в McGill University . Вместо одного пути обработки информации исследователи разделили алгоритм на две части — подобно тому, как зрительная система человека получает информацию через вентральный и дорсальный зрительные пути . Ученые обнаружили несомненное сходство в работе разработанного ими алгоритма и функционировании мозга мыше й.
В. Вера в обретение бессмертия путём создания супер-ИИ (техносингулярность и т. д.), является выражением новой религии, выраженной через инженерную культуру (см. также мой предыдущий пост). Зачастую утверждения, что компьютеры способны дублировать человеческую деятельность, крайне упрощены и искажены. Проще говоря: переоценка технологий тесно связана с недооценкой людей.
С сильным ИИ получается, как с термоядерным синтезом. Его взрывной вид (самую мощную в мире бомбу) сделали почти 70 лет назад. Тогда же собрались освоить управляемый вид (построить термоядерные электростанции). Но не судьба. Спустя почти 70 лет ситуация, как и с сильным ИИ. Может, после 2045 года что-то появится. А может и нет.
1. Проф. Фьелланд – знаменитый норвежский физик и философ, – не просто прокричал ещё раз «а король-то голый!» с высокой научной трибуны журнала Nature. Фьелланд на современном уровне переформулировал знаменитую аргументацию невозможности создания сильного ИИ, опубликованную Хьюбертом Дрейфусом (Hubert Dreyfus) более полувека назад в работе «Алхимия и искусственный интеллект».
Б. Важная часть человеческих знаний является неявными (невербализуемыми – tacit) знаниями («неявными знаниями» – ред.). Эти знания не могут быть сформулированы в компьютерной программе. Надежды, что обучение нейронных сетей, позволяющее им учиться без явных инструкций, решит проблему неалгоритмических способностей и неявных знаний, – ошибочны. В равной степени можно пытаться научить ребёнка кататься на велосипеде, не имея его, и лишь используя инструкцию.
ИТОГО. Мы являемся телесными и социальными существами, живущими (чувствующими, думающими и действующими) в материальном и социальном мире. Наш разум – основной механизм, позволяющий это. Ну а компьютерный ИИ (слабый или сильный) вообще не имеет к этому отношения. Раньше это был хайп, теперь – чистый фейк.
Обучение с самоконтролем можно успешно использовать в области компьютерного зрения. Это доказала команда ученых из компании Facebook AI Research , которая в конце 2021 года представила новую модель автокодировщика. Он случайным образом маскировал изображения, скрывая почти три четверти каждого из них. Открытые части картинки переформатировались в математические описания, содержащие информацию об объекте. Алгоритм обучался достраивать снимок до тех пор, пока не стал делать это достаточно хорошо.
А. Компьютерная мощь никогда не разовьётся в человеческий разум, потому что они фундаментально различны. Человеческое мышление в основном неалгоритмично. Это относится к важнейшим качествам разума: благоразумие – способность принимать правильные решения в конкретных ситуациях, и мудрость – способность видеть целое.
Схожий результат показал ИИ и в обработке звуковых сигналов. В этом году команда из Meta AI научила нейронную сеть Wav2Vec 2.0 преобразовывать звук в скрытые сигналы. Для обучения системы распознавания речи разработчики использовали около 600 часов аудиозаписей. Примерно такой объем звуковых сигналов обрабатывает мозг ребенка в первые два года жизни. Были выявлены схожие черты между работой настоящего и искусственного интеллекта: активность самых глубоких слоев ИИ совпала с активностью префронтальной коры головного мозга.