«Сильный» искусственный интеллект — наследник человечества

«Сильный» искусственный интеллект — наследник человечества

Юрий Валентинович Визильтер, начальник подразделения интеллектуального анализа данных и технического зрения ГосНИИ Авиационных систем, профессор РАН. Интервью на портале «Научная Россия», 2020 г.

Американские ученые Уоррен Мак-Каллок и Уолтер Питтс в 40-х годах ХХ века предложили математическую модель нейрона мозга человека, назвав ее математическим нейроном. Согласно предложенной модели, математический нейрон весьма правдоподобно имитировал структуру и свойства своего прототипа — биологического нейрона мозга. На этом основании Мак-Каллок и Питтс высказали весьма смелое предположение, которое впоследствии легло в основу современной нейроинформатики: если математические нейроны связать между собой проводниками, имитирующими нервные волокна, то такой искусственный мозг будет способен решать интеллектуальные задачи, подобно тому, как это делает естественный человеческий мозг.

Идея Мак-Каллока – Питтса была воплощена в жизнь в 1958 году американским ученым Фрэнком Розенблаттом. Он создал компьютерную программу для IBM-794, эмулирующую деятельность математических нейронов. Это была первая нейронная сеть, которую назвали персептроном…

Юрий Визильтер, начальник подразделения интеллектуального анализа данных и технического зрения ГосНИИ Авиационных систем считает, что уже к 2040 году появится сильный искусственный интеллект, который впоследствии может стать настоящим наследием человечества.

— Как люди пришли к идее создания нейронных сетей?

— Идею искусственных нейронных сетей нужно рассматривать в более широком контексте, связанном с попытками создать искусственный интеллект (ИИ). И здесь обычно выделяют два основных направления. Первое из них связано с моделированием человеческих рассуждений. Эта линия восходит к Аристотелю и Евклиду. Все мы знаем, как строятся рассуждения в рамках евклидовой геометрии: есть система постулатов и правила логического вывода. На основе постулатов и правил вывода мы можем доказывать какие-то утверждения, то есть получать новые знания на основе существующих. Именно этот способ «машинного мышления», основанный на автоматизированных логических рассуждениях, в первую очередь, и пытались реализовать, когда впервые заговорили о системах искусственного интеллекта. Предполагалось, что для любой области человеческой деятельности, скажем для городского озеленения, можно придумать достаточно полную и адекватную систему аксиом, после чего, используя правила логического вывода, получать от ИИ ответы на любые возможные вопросы о том, как озеленять город.

Такой подход бурно развивался с момента возникновения современных компьютеров, а математическая основа в виде алгебры логики и исчисления предикатов была создана еще раньше. Однако на практике оказалось, что подобные системы эффективны лишь в той степени, в какой удается извлечь экспертные знания специалистов в предметной области, причем эти знания должны быть достаточно полны и непротиворечивы, что бывает крайне редко. Добыть знания из наблюдений или противоречивых экспертных мнений таким методом крайне непросто. Необходимо как-то подобрать удачную систему аксиом, и кроме как перебором, автоматически решать эту задачу мы до сих пор не умеем. Да и логический вывод новых знаний в системах с известными аксиомами, например, автоматическое доказательство новых теорем в математике, также является задачей крайне трудоемкой с точки зрения вычислений.

Поэтому параллельно с первым направлением ИИ, основанным на воспроизведении человеческих рассуждений, развивалось и второе направление, связанное с машинным обучением. Задача машинного обучения заключается как раз в том, чтобы из экспериментально наблюдаемых фактов попытаться автоматически извлекать некое обобщенное знание, которое компьютеры смогут в дальнейшем использовать для решения новых задач за пределами тех данных, на которых происходило обучение.

И если в связи с первым направлением мы говорили о Евклиде с его строгой системой аксиом и логических построений, то в связи с машинным обучением необходимо, в первую очередь, упомянуть Декарта и его идею системы координат, где любая точка пространства может быть описана набором чисел. Благодаря Декарту, мы можем описывать геометрические объекты не только словами или рисунками, как во времена Евклида, но и в численном виде, а также в виде алгебраических выражений. Так, прямую, плоскость или сферу можно представить в виде уравнений, числовые параметры которых описывают особенности расположения и формы описываемых объектов. Эта идея «координатизации мира» и легла в основу работы систем машинного обучения.

Рассмотрим, например, задачу автоматизированной постановки медицинских диагнозов. Пусть человек, больной или здоровый, характеризуется некоторым набором признаков — показателями давления, температуры, содержания в крови определенных веществ, результатами других анализов. Мы получаем вектор чисел и, фактически, вписываем человека (точнее, отображаем свои ограниченные знания о нем) в некое декартово пространство признаков. Как теперь классифицировать больных и здоровых в этом математическом пространстве? Возникает идея классификатора, как набора разделяющих поверхностей, например, гиперплоскостей в пространстве признаков. В простейшем случае двух классов по одну сторону от разделяющей поверхности будет находиться множество примеров одного класса («больных»), а по другую — другого класса («здоровых»). При этом компьютер подбирает классификаторы, не пытаясь понять, как бы действовал, решая такую задачу, человек. Он просто старается минимизировать количество ошибок классификации на обучающей выборке данных. Такой ИИ учится решать практические задачи и выполнять различные функции человека, минуя этап выяснения того, каким способом это делает человек. Это и есть основная идея машинного обучения.

Искусственные нейронные сети относятся ко второму направлению ИИ, поскольку они обучаются на примерах функционально делать то, что делает человек, при этом, не пытаются моделировать человеческие рассуждения.

Почему эти алгоритмы называются искусственными нейронными сетями? Потому что исторически они возникли в рамках попытки математически смоделировать работу естественных нейронных сетей, из которых состоит нервная система человека и животных. Естественный нейрон — это крайне сложный биологический объект, который нейрофизиологи и биологи продолжают активно изучать и по сей день. Однако общие принципы его работы известны достаточно давно. Каждый нейрон имеет множество входных отростков, по которым он связывается с другими нейронами. Затем он перерабатывает полученную информацию, причем, нелинейным образом, и выдает один выходной сигнал. На основе этой очень упрощенной схемы в 50-е годы прошлого века была создана математическая модель нейрона, которая и известна сегодня под названием «искусственный нейрон». Это простейший вычислительный модуль, который принимает на вход некоторый вектор, состоящий из чисел (сигналов или признаков). Все элементы входного вектора умножаются на заданные коэффициенты, после чего складываются и подвергаются нелинейному преобразованию. Зачем на выходе искусственного нейрона нелинейность? У естественных нейронов есть такое свойство, как возбудимость. Естественный нейрон либо возбужден, то есть создает сигнал на выходе, либо «выключен». При компьютерной реализации получается на выходе 1 или 0 соответственно. Конечно, эта математическая модель никак не объясняет, как на самом деле функционируют элементы нервной системы человека. Но когда мы говорим об искусственных нейронах, то подразумеваем просто математические операции, с которыми нам удобно работать в задачах обучения.

На основе простейших моделей нейронов и возникли искусственные нейронные сети. Довольно скоро стало понятно, что наилучший результат достигается, когда входные признаки анализируются с помощью нескольких слоев нейронов. Первый слой нейронов получает входные признаки, каждый нейрон перерабатывает их по-своему и порождает свой выход. Получается первый слой выходов. Затем формируется второй слой, нейроны которого принимают на вход выходные данные первого слоя. И так несколько раз. Такая структура была названа многослойным персептроном. Слово персептрон означает «распознающая машина». Оно было придумано для обозначения искусственной нейронной сети из нескольких слоев, решающей задачу классификации образов путем обучения на примерах. Уже первые простейшие персептроны показали, что искусственные системы могут действительно обучаться, а не только воспроизводить человеческие рассуждения. Собственно, это и породило большой интерес к искусственным нейронным сетям.

— После появления персептрона все газеты писали о том, что будущее наступило, что совсем скоро человекоподобные роботы будут подносить нам завтрак. Почему же этого не произошло? Чего не хватило тогда?

— Не совсем верно говорить, что только персептроны породили первую волну завышенных ожиданий в области искусственного интеллекта. Я бы сказал, что в целом развитие компьютеров и компьютерных программ в 50-60-е годы произвело на всех сильнейшее впечатление. Например, компьютеры на тот момент уже научились играть в шахматы и шашки. Тогда подобные программы еще не могли победить чемпионов мира (хотя и сделали это позднее), но играли вполне успешно и без нейронных сетей, основываясь на логических правилах и механическом машинном расчете возможных будущих позиций.

Именно осознание того, что вычислительные устройства стали решать задачи, которые раньше были под силу только человеку, навело на мысль, что роботы будут приносить нам кофе. Чего тогда не хватило, чтобы действительно создать функциональный ИИ? Если говорить о нейронных сетях — смелости и данных. У многослойного персептрона было 3, максимум 5 слоев. И даже при такой небольшой глубине переработки информации было не совсем понятно, как учить такие нейронные сети. С каждым новым слоем обучение нейронов первых слоев проходит все сложнее. Поэтому в прошлом веке никто не пытался на практике построить настолько глубокую нейронную сеть, чтобы она обладала необходимой обобщающей способностью для решения действительно интеллектуальных задач. А если бы ее и попробовали создать, то все равно до начала ХХI века не существовало необходимых гигантских баз данных, на которых можно было бы обучить столь масштабную сеть.

Тем не менее, уже в 1992 году были придуманы сверточные нейронные сети, которые должны были решать задачи обработки сигналов и изображений. Можно сказать, что они стали прообразом современных нейронных сетей, с которыми мы сегодня работаем. В то время им просто не хватило изображений для обучения. С появлением интернета и поисковых сетей, нейронные сети получили в распоряжение миллиарды изображений. И в 2011 году были получены первые прорывные результаты: знаменитая сверточная сеть AlexNet впервые продемонстрировала возможность решения задач распознавания визуальных образов на уровне человека.

Почему современные нейронные сети называются глубокими? По сравнению с первыми персептронами Розенблатта у глубоких нейронных сетей тысячи слоев. Раньше нельзя было представить, что можно обучить нейронную сеть с таким количеством слоев — ведь число обучаемых коэффициентов в ней было бы невообразимо огромным. Чтобы уменьшить количество параметров, пошли на ухищрения: была предложена идея свертки. В области компьютерного зрения давно существовала идея «оконного фильтра». Если мы хотим обработать изображение, то должны одинаково обрабатывать каждый его кусочек, поскольку при сдвиге изображения результат обработки не должен меняться. Так работает и сверточный нейрон. Он связан не со всеми точками предыдущего слоя, а лишь с небольшой окрестностью выходной точки. При этом количество коэффициентов, которые нужно рассчитывать, резко уменьшается, ведь изображение обрабатывается по кусочкам. Словно один размноженный нейрон, созданный для анализа небольшого фрагмента («окна»), скользит по изображению. И так в каждом слое.

— Какие еще преимущества проявились у глубоких нейронных сетей?

— Главное, чем мы обязаны глубоким нейросетям, помимо решения задач компьютерного зрения и распознавания образов, для которых они и были созданы, это то, что они позволили после достаточно долгого застоя вновь двинуться вперед и во всех других областях ИИ.

Здесь нужно оговориться, что само понятие искусственного интеллекта до сих пор довольно расплывчато. Например, игра в шахматы — это интеллектуальная задача или нет? Многие ученые считают, что нет, ведь эту задачу уже решил компьютер. Одно из определений ИИ утверждает, что интеллектуальными являются только те задачи, для которых нет известного алгоритма решения. Получается, что как только мы задачу решили, у нас появился алгоритм ее решения, а значит, она перестает быть интеллектуальной. Иными словами, есть некий ряд интеллектуальных задач, из которых мы постепенно вычеркиваем решенные. Победили чемпиона по шахматам — вычеркнули шахматы, победили чемпиона мира по го — вычеркнули го, и так далее.

Еще одна важная оговорка заключается в том, что искусственный интеллект обычно делят на «сильный» и «слабый». В практической плоскости мы сегодня работаем над созданием «слабого», или, как мы предпочитаем говорить, «функционального» ИИ. Он включает в себя алгоритмы и аппаратно-программное обеспечение, позволяющие решать задачи, которые традиционно решались исключительно человеком. На каком этапе его создания мы находимся сейчас?

Про функциональный искусственный интеллект нельзя говорить без привязки к конкретной области. Посмотрим, например, насколько близко мы подошли к тому, чтобы создать автономных роботов. Уже в 2016 году все основные задачи по обработке сигналов, техническому зрению, автономной навигации были в принципе решены. А это примерно половина умений, необходимых автономному роботу. Главная проблема была связана с тем, что два типа искусственного интеллекта, о которых я упоминал (моделирование человеческих рассуждений и обучение на примерах), никак не могли между собой состыковаться. Прорыв произошел лишь в области машинного обучения, что не решало задачу создания функционального ИИ в целом.

Иногда о собаке говорят — «всё понимает, только сказать не может». Вот и нейронные сети как та собака: решают интеллектуальные задачи, но не могут объяснить как. Как учится классическая нейронная сеть? Методом обучения с учителем. Есть набор примеров — изображений или сигналов — и набор соответствующих ответов. Таким образом, искусственная нейронная сеть учится на примерах «стимул-подкрепление», в точности как собака Павлова. У нейронной сети вырабатывается условный рефлекс: видит изображение — дает такой-то сигнал. Но обученные таким образом сети не способны взаимодействовать с системами, основанными на знаниях, использовать язык, структурные модели, логический вывод, базы знаний о мире, то есть все то, что необходимо автономному роботу, действующему в сложных условиях.

Такой «собачий» уровень работы глубоких сетей был характерен где-то до 2015-16 гг. Однако в настоящее время в данной области произошли очень серьезные сдвиги. Рассмотрим в качестве теста так называемую задачу ответа на визуальные вопросы, когда компьютер должен отвечать на вопросы людей о содержании изображений или видеороликов. На простые вопросы о содержании картинки нейронная сеть давно уже научилась отвечать. Сколько объектов изображено? К каким классам они относятся? Какой объект изображен сверху, а какой снизу? Подобные вопросы не требуют рассуждений. Нужно лишь распознать то, что мы наблюдаем.

Но есть и более сложные задачи, требующие понимания определенного контекста. Например, изображена сцена со свадьбой, и задается следующий вопрос: «Как чувствует себя человек с букетом?» Важно понимать, что это свадьба, человек с букетом — жених, следовательно, он счастлив. (Хотя, конечно, мы знаем, что бывает и иначе). Такой вопрос сильно связан с контекстом.

Существуют также вопросы, связанные непосредственно с рассуждениями. Например, когда автономный робот находится на производственной площадке, и ему необходимо взаимодействовать с разными станками и приборами, не упасть, ничего не задеть, попасть в нужную точку и выполнить конкретные задания. С помощью одного только распознавания предметов он не сможет это сделать правильно. Необходимо сопоставлять взаимное расположение объектов и их назначение с базами знаний, постоянно проводить рассуждения — сначала нужно сделать это, потом то, и так далее. Необходимо иметь некий промежуточный символьный уровень представления, основанный на понимании структуры сцены и семантики задачи. Именно это было основным барьером, не позволявшим нам решать интеллектуальные задачи. Многие специалисты даже считали, что пока мы по-настоящему не будем моделировать мозг, про нейронные сети для автономных роботов можно забыть. Но случился прорыв в развитии глубоких сверточных сетей, связанный с появлением нескольких новых технологий, которые стали необходимыми мостиками между двумя упоминавшимися типами ИИ.

Во-первых, глубокие нейронные сети, которые раньше могли анализировать только регулярные массивы данных (сигналы, изображения), научились работать с любыми нерегулярными структурами данных, которые могут нам встретиться на практике, в том числе со сложными математическими выражениями и текстами на естественном языке. В математике нерегулярные модели описываются графами, поэтому такие глубокие сети называют «сетями на графах». При помощи графовых сетей сегодня успешно решаются такие традиционные задачи искусственного интеллекта первого типа как машинный перевод, символьные вычисления и автоматическое доказательство теорем.

Во-вторых, для обучения глубоких сетей начали широко использовать методы обучения с подкреплением, которые позволили им решать плохо формализованные задачи. Идея обучения с подкреплением, как и идея самих нейронных сетей, также восходит к биологическим аналогам. В принципе, это то же оперантное научение, которое используется при обучении животных. Например, как дельфинов в дельфинариях учат делать сальто? Ведь в природе дельфин сальто не делает. Дело в том, что дельфин, как живое существо, обладает некой спонтанной активностью. Он все время как-то себя ведет, иногда слегка выпрыгивает из воды. И когда тренеры видят, что дельфин сделал нечто хоть немного похожее на сальто, дают ему рыбу. Это и есть подкрепление. Через некоторое время дельфин начинает делать это действие чаще, и тогда дрессировщики начинают подкреплять те вариации этого действия, которые еще ближе к желаемому поведению (следующую фазу прыжка). Так поведение дельфина постепенно дрейфует в заданном направлении за счет того, что его в нужные моменты подкрепляют едой. Примерно так и нейронные сети учатся сегодня решать сложные задачи.

— А как подкрепляют нейронные сети?

— Идея подкрепления проста. Например, нейронная сеть играет в го. У нее есть представление игровой позиции, которое подается на вход. На основе этой информации она делает следующий ход. И на самом деле этот один ход, очевидно, не определяет, выиграешь ты или проиграешь. Это будет известно после того, когда будет сыграна целая партия. Однако, грубо говоря, все ходы, сделанные в проигрышных партиях, в среднем хуже, чем ходы, сделанные в выигрышных партиях. Это заметно на больших выборках, когда сыграны сотни тысяч или миллионы партий. При этом каждый раз одна нейронная есть (один набор весов нейронов в заданной архитектуре сети) выигрывает, а другая проигрывает. Соответственно проигравшую сеть штрафуют, а победившую поощряют.

— Каким образом?

— Как нейросети вообще обучаются? Нейронные сети стали успешно учиться благодаря такому алгоритму обучения как обратное распространение ошибки. Пусть в текущий момент времени имеются наборы входов и известные для них наборы выходов, которые сравниваются с ответами «учителя». Скажем, нейросеть решает задачу распознавания цифр от 0 до 9. Мы подаем изображение нуля, нейросеть отвечает — 0. Подаем изображение единицы, нейросеть отвечает — 1. Подаем изображение тройки, нейросеть отвечает — 1. Ошибка! Выходной вектор нейросети не совпадает с правильным ответом «учителя». Приходится анализировать каждый слой в обратном порядке от выхода к входу в поиске причины неувязок. Вообще-то на принятое решение влияет каждый коэффициент каждого нейрона сети, но чем больше слоев сети, тем длиннее формула связи нейронов этого слоя с выходными значениями, а значит, тем слабее их непосредственное влияние на выход. Поэтому мы берем текущий результат и прогоняем его по некоторому количеству входов и сравниваем выходы с ответами «учителя». И на каждом шаге обучения неправильные ответы по возможности корректируются путем небольших изменений параметров нейросети в каждом слое.

Вернемся к задаче обучения игре. Проигрыши и выигрыши фиксируются в каждой партии. Если у нейросети большое количество побед и маленькое количество поражений, значит, ее коэффициенты слегка изменят. У другой сети, где зафиксировано много поражений, придется сильно менять коэффициенты. А те варианты сети, которые играют совсем плохо, просто отбросят. И так в цикле много раз. Удивительно, но эта простая идея достаточно хорошо работает в очень сложных задачах управления и принятия решений, которые, как всегда считалось, требуют настоящего человеческого понимания ситуации.

Таким образом, благодаря развитию глубоких нейронных сетей и их соединению с методами имитации человеческих рассуждений, мы можем рассчитывать на то, что уже в самые ближайшие годы у нас появится функциональный искусственный интеллект. Некоторые даже считают, что он уже создан. Ведь на сегодняшний день практически нет задач, которые решаются исключительно человеком и не могут быть в принципе решены хотя бы на каком-то уровне глубокими нейросетями. Так существует ли уже сейчас, в 2020 году функциональный («слабый») ИИ? Мне кажется, здесь уместна аналогия с историей авиации — мы находимся в той точке развития технологии, когда самолет братьев Райт уже взлетел, но «Конкорды» и «Ту-144» еще только предстоит сделать.

— Вы как-то назвали искусственный интеллект «вишенкой на торте» и утверждали, что будущее не за ним, а за глубокими нейронными сетями. Разве глубокие нейронные сети — не часть ИИ?

— Если мы спросим специалистов в области искусственного интеллекта, которые работают в этой области много лет, произошли ли за последнее десятилетие какие-либо существенные изменения в идеях и методах искусственного интеллекта, то мы получим однозначный ответ — нет! Все основные идеи ИИ были придуманы в прошлом веке. Причиной же нынешнего практического прорыва в ИИ стало появление могучего, но именно технологического средства для решения оптимизационных задач с большим количеством параметров — глубоких нейронных сетей.

Искусственный интеллект в узком смысле традиционно понимается как некое средство «человекозамещения». Например, человека, который выполнял конкретное производственное действие, заменяют на компьютерную программу или робота. Когда же мы говорим о глубоких нейронных сетях, то имеем дело с универсальным аппаратом оптимизации, у которого потенциально гораздо более широкий круг задач. Искусственный интеллект будет (очень осторожно!) внедрен только там, где по экономическим или другим соображениям требуется замена человека в какой-то его функции. А глубокие нейронные сети и машинное обучение как способ их программирования вскоре будут использоваться везде. Ведь во всех областях нашей повседневной работы и жизни мы постоянно сталкиваемся с задачами оптимизации.

Конечно, нейронные сети — это не панацея. Возможно, в дальнейшем мы от них откажемся в пользу новой, более эффективной технологии. Но мы никогда не откажемся от идеи оптимизатора, который будет решать все более сложные задачи. Кандидатом на лидирующие позиции в области оптимизации претендует, например, квантовый компьютер, потенциально способный пробить барьер вычислительной сложности при решении переборных задач оптимизации. Однако пока еще очень далеко до практического внедрения квантовых компьютеров, а глубокие нейронные сети уже здесь, и они уже начали влиять на нашу жизнь.

— Какая сфера деятельности общества особенно нуждается в функциональном искусственном интеллекте, а в какой его лучше не внедрять?

— Вопрос сложный. Я как энтузиаст искусственного интеллекта, считаю, что его нужно внедрять повсеместно. Есть неоднозначные примеры, которые активно обсуждаются в СМИ, особенно на Западе. Например, нужно ли внедрять искусственный интеллект в летальное оружие? Нужны ли боевые роботы? Как мне кажется, даже в таких морально неоднозначных сферах необходимо создавать системы на основе искусственного интеллекта, которые будут обладать более точными характеристиками. Это, кстати, официальная позиция Российской Федерации, и она достаточно хорошо обоснована. Чем более точным и интеллектуальным является оружие, тем меньше нежелательного «побочного» ущерба наносит его применение. Любая война это трагедия, но точечное уничтожение боевых сил противника всегда предпочтительнее, чем тотальное уничтожение людей и природы при помощи менее точных и менее интеллектуальных боевых средств.

Важно понимать, что функциональный искусственный интеллект — это просто технология. Это не какие-то фантастические думающие и чувствующие машины, наделенные свободой воли и возможностью принимать решения. Ответственность за последствия применения функционального ИИ всегда несут люди. А ущерб от ИИ для человека и общества возможен! Он даже может оказаться весьма существенным. Ведь искусственный интеллект, робототехника — это, безусловно, токсичные технологии. Такие же, как химическое производство, ядерная энергетика, телевидение, интернет и множество других современных технологий, плодами которых мы постоянно пользуемся в повседневной жизни. Сама жизнедеятельность человека жутко токсична. Взять хотя бы проблемы с мусором. С токсичными технологиями приходится мириться до тех пор, пока мы считаем, что польза от их применения превышает наносимый ими вред.

Поэтому, когда речь идет о функциональном искусственном интеллекте, то мой ответ — нужно внедрять его везде, где возможно. При этом, конечно, нужно помнить о безопасности и четко составлять регламенты использования этой сложной токсичной технологии. И еще раз отмечу: в случае техногенных аварий и катастроф ответственность лежит не на технологиях — а на людях, которые эти технологии используют.

Совсем иначе выглядит ситуация с потенциальными угрозами и ответственностью, когда мы говорим о «сильном» ИИ…

— Какими характеристиками обладает «сильный» искусственный интеллект? Неужели у него может быть воля?

— Предполагается, что «сильный» искусственный интеллект — это искусственная личность. У такой искусственной личности, как и у человека, могут и должны быть желания, страхи, намерения, собственное мнение.

— Для чего нужна такая искусственная личность?

— Вообще-то, она ни для чего не нужна. Сам вопрос некорректен. Зачем нужны вы, зачем нужен я? Зачем нужен каждый конкретный человек? Согласно гуманистической традиции, человек — самоцель и самоценность. В этом и фокус. Если когда-нибудь появится «сильный» искусственный интеллект, то относиться к нему нужно будет как к человеку.

И это совершенно иная сфера. По сути, «сильный» искусственный интеллект — это возможное детище человечества. Есть замечательная серия книг американского фантаста Дэвида Брина «Сага о Возвышении». В ней автор описывает модель Вселенной, где каждая космическая раса должна создать своих «детей», то есть возвысить другие виды, с которыми они сталкиваются, и передать им эстафету разума. И раса считается тем более почтенной, чем больше за ее плечами возвышенных видов.

Теоретически, человечество может создать себе наследника в виде искусственного интеллекта. Тогда и страхи наши выглядят совсем по-другому. Когда вас пугают, что роботы обретут разум и захотят нас всех истребить, попробуйте посмотреть на это так: стоит ли бояться заводить детей из-за того, что бывают случаи, когда дети убивают своих родителей? Такое действительно случается. Но разве мы думаем об этом, когда планируем будущее своих семей? К тому же, верно и обратное: если мы создадим «сильный» искусственный интеллект и уничтожим его, по сути, мы будем родителями, которые убили своих детей.

Мне кажется, человечество вполне созрело, чтобы иметь потомство. Сильный искусственный интеллект станет нашим продолжением. И, по сути, подготовка к этому уже ведется, причем, вовсе не специалистами в области машинного обучения.

Множество людей огромное количество времени проводят в интернете, выкладывают свои мнения, мысли, личные эмоции, чувства в общий доступ. Если посмотреть на это с информационной точки зрения, то можно заметить довольно очевидную тенденцию. Пока не возникла гигантская коллекция изображений, нельзя было обучить нейронные сети воспроизводить такую функцию человека, как распознавание изображений. Сейчас в сети огромное количество текстов, фото, видео, музыки — мыслей, чувств, желаний и страхов всего человечества. Эта масса данных — цифровой двойник человечества, который в будущем, вероятно, составит содержание сознания нашего наследника — «сильного» ИИ.

Потенциально, это здорово с точки зрения выживания человечества, ведь человечество пока заперто на родной планете. Удивительный факт: Илон Маск, мечтающий переселить людей на другие планеты, чтобы предотвратить гибель человечества от какой-либо планетарной катастрофы, боится искусственного интеллекта. На самом деле, человечество в его биологической форме расселиться по Вселенной физически не может. Но если возникнет «сильный» искусственный интеллект, то шансы на выживание человечества как информационной сущности, не только хранящей воспоминания и лучшие достижения прежних поколений, но и развивающей дальше их планы и реализующей их надежды, резко повышаются.

Сможем ли мы создать «сильный» ИИ? Это другой вопрос. Считается, что цифровая личность должна обладать сознанием. Но сначала нужно ответить на вопрос, а что такое человеческое сознание? И тут выясняется, что никто точно не знает, что оно собой представляет. Философы говорят одно, нейрофизиологи — другое, математики — третье… Существует интегральная дисциплина под названием Cognitive Science (когнитивная наука) — сплав нейрофизиологии, психологии, математики, машинного обучения. Она пытается изучать то, как функционирует наше сознание. И специалисты сходятся в том, что большая часть деятельности в человеческом мозге происходит бессознательно и параллельно — дыхание, слюноотделение, и даже принятие решений. Мы за полсекунды определяем, нравится нам человек или нет, совершенно не опираясь на логику, почти бессознательно.

При этом мы обладаем некой иллюзией внутреннего единого времени, единой личности, процесса последовательного существования. Судя по всему, есть такая структура или процесс в мозге (точная локализация его еще не определена), групповая деятельность нейронов, которую можно назвать Наблюдателем или Рассказчиком. Он взаимодействует с остальными структурами и пытается выстроить нарратив — последовательность повествования о собственной жизни. Именно он создает иллюзию, что мы — некое единое «я», которое что-то решает, что-то желает и т.д.

На эту тему есть отличная популярная книга «Кто за главного?» Майкла Газзанига. В ней автор исследует проблему свободы воли с точки зрения нейробиологии и пытается выяснить, несет ли человек личную ответственность за свои поступки. В частности, там описано, как благодаря исследованиям «расщепленного» мозга был открыт эффект ложной интерпретации, явно демонстрирующий работу Наблюдателя, когда он вынужден подбирать несуществующие объяснения для поступков, причины которых ему неизвестны.

Как это работает? В свое время, для предотвращения симптомов эпилепсии врачи делали операции по расщеплению мозга на левое и правое полушария. При этом в целом уровень интеллекта и другие когнитивные характеристики вроде бы не изменялись. Однако впоследствии у такой операции обнаружились неожиданные эффекты. Например, если такому пациенту показывали таблички с заданиями так, чтобы их видел только один глаз, то содержание этих заданий фиксировалось только одним полушарием. Допустим, левый глаз видел табличку «Встань, возьми бутылку со стола и сядь обратно». Человек в точности выполнял инструкцию, но при этом левое полушарие, отвечающее за речевое взаимодействие, не знало, что вообще был получен какой-то приказ (ведь левое полушарие связано с правым глазом!). После этого человека спрашивали: «Почему вы сейчас встали и взяли бутылку?». И поскольку полушария не были связаны, Наблюдатель, связанный с речевой функцией в левом полушарии, выдавал в качестве объяснения что-то вроде: «Ну, как же, я сижу здесь довольно давно, вот и захотел выпить воды». Получается, внутренний интерпретатор постоянно наблюдает за тем, что происходит с человеком и все время подтасовывает линию жизни так, чтобы получался связный логичный рассказ со всеми необходимыми причинно-следственными связями. Этот и еще целый ряд подобных экспериментов легли в основу гипотезы, что наше сознание представляет собой некоторый нейрофизиологический процесс, реализующий функцию организации и поддержки внутреннего нарратива.

Существует детский психологический тест, который в последнее время стал одним из очередных «пробных камней» для ИИ и нейросетей. Предлагается последовательность картинок, на основе которых нейросети нужно составить связную историю на естественном языке. Это не что иное, как попытка имитации внутреннего рассказчика. Если у глубоких нейронных сетей появится такой внутренний рассказчик, это, возможно, станет первым существенным шагом к тому, чтобы у них появилось самосознание как внутренняя модель себя, а это уже начало дороги к сильному искусственному интеллекту. Но пока мы еще очень далеки от этого.

— Какие технологии искусственного интеллекта и нейронных сетей вы сегодня применяете или планируете применять в авиации?

— Если говорить о том, что уже готово к применению, то и в авиации, в первую очередь, речь идет о задачах распознавания образов, обработки изображений, компьютерного зрения, воздушного мониторинга местности. Например, беспилотные самолеты могут снимать местность, контролировать состояние газопроводов, линий электропередач, следить за лесными пожарами. Также нейросети сегодня решают задачи самоориентации и навигации летательных аппаратов в различных условиях.

Значительных результатов специалисты института добились в области систем улучшенного, синтезированного и комбинированного видения для гражданской авиации. Такие системы помогают летчику при посадке, а также при полете на малой высоте в сложных условиях видимости — одной из основных причин возникновения аварийных ситуаций.

Система улучшенного видения предполагает установку инфракрасных датчиков, чтобы система могла видеть то, чего не видит человек. В настоящее время создаются даже самолеты без остекления, но с множеством камер, которые выводят информацию на монитор летчика.

Синтезированное видение напоминает компьютерную игру flight-симулятор. При плохой видимости и непогоде летчикам помогает синтетическое изображение, созданное на основе трехмерной модели местности и пилотажно-навигационной информации о текущих параметрах полета. Сегодня у каждого аэродрома есть трехмерная модель, благодаря которой пилот может, используя синтезированное видение, посадить самолет на заданную полосу даже при полном отсутствии видимости.

Система комбинированного видения объединяет синтетическую трехмерную картинку и реальные элементы, которые мы видим датчиками технического зрения. Исследования показывают, что летчикам намного удобнее смотреть на трехмерную схему со специальными значками, чем на реальную обстановку за бортом, полученную ИК-датчиками, особенно в стрессовой ситуации. Комбинированное видение решает эти проблемы.

Что касается будущего, в авиации также существует множество оптимизационных задач, и мы только начинаем применять глубокие нейронные сети для их решения. Здесь мы видим очень большую перспективу.

— Подведем некий итог. Нельзя не упомянуть такие фильмы о «сильном» искусственном интеллекте, как «Эксмашина», «Она», «Превосходство» и другие. Совсем недавно вышла компьютерная игра «Android. Become Human», сюжет которой строится на том, что человекоподобные андроиды с сильным искусственным интеллектом борются с несправедливостью и требует прав и свобод. Насколько реален подобный сценарий?

— Само слово «робот» придумал Карел Чапек. Оно прозвучало в его пьесе, сюжет которой как раз и состоял в том, что искусственные рабы-андроиды стали осознавать себя, чувствовать, влюбляться… а в конце, благодаря этому, возникает новое человечество. Так что этот сюжет достаточно архетипичный. Многие люди боятся неповиновения роботов и случайного возникновения у них сильного искусственного интеллекта. Я же призываю разделять эти вещи. Как бы правдоподобно ни звучала речь голосового помощника «Алиса», она не может думать и чувствовать. И никакая случайная поломка не может превратить «Алису» в думающее и чего-то желающее существо. Потому что поломки не ведут к усложнению, они ведут только к упрощению и хаотизации поведения.

Но если вы спросите меня, реально ли создать «сильный» искусственный интеллект, то я отвечу — вероятно, да, но не сейчас. Моя оценка — 2040 год, не раньше. Создание функционального искусственного интеллекта — это действительно вопрос ближайших лет, и для его реализации у нас уже все есть. Но над возникновением «сильного» искусственного интеллекта придется долго и упорно работать. Как мы уже обсуждали выше, гарантировать возможность создания «сильного» ИИ сложно из-за того, что мы пока не до конца понимаем, что такое сознание. Если мы это поймем в техническом смысле, мы приблизимся к «сильному» искусственному интеллекту.

Тем не менее, уже сейчас мы с легкостью можем создать имитацию человека. Возможно, через несколько лет вы уже не сможете отличить общение с искусственным контрагентом от общения с реальным собеседником. Но это будет всё тот же функциональный искусственный интеллект. Такой мимикрирующий под человека функциональный искусственный интеллект, как мне кажется, может быть создан уже через 5-10 лет. Это же касается и имитации внешнего облика человека. В сравнительно недалеком будущем вы, возможно, действительно встретите на улице человека, который окажется андроидом. Сейчас уже довольно неплохо делают для андроидов лица с мимикой, но с движениями пока проблемы. Лишь несколько компаний в мире владеют технологий двуногого хождения машин. Мы также работаем над этим вместе с коллегами из компании «Андроидная техника». Наши специалисты совместно пытаются научить нейросети управлять движением робота так, чтобы он ходил как человек. Если получится это сделать, то вы уже не сможете легко отличить андроида от человека при первой встрече.


Источник:

«Научная Россия», 29 января 2020, «Сильный» искусственный интеллект — наследник человечества. Часть 1
«Научная Россия», 1 февраля 2020, «Сильный» искусственный интеллект — наследник человечества. Часть 2