Василий Поздышев оценил риски использования искусственного интеллекта

Василий Поздышев оценил риски использования искусственного интеллекта

Заместитель председателя Банка России Василий Поздышев в интервью агентству «Прайм» высказался по ряду актуальных вопросов банковского дела, и указал на риски применения в банках искусственного интеллекта и роботизации. В частности, он указал на возможность взлома нейросетей, создание фейковой реальности и вопрос защиты персональных данных.

Приводим отрывок из интервью.

 

— Один из элементов стратегии RegTech и SupTech — применение в банках искусственного интеллекта и роботизация. Планирует ли ЦБ разработать единые стандарты в этой области?

— Мы будем предоставлять банкам полную свободу во всем, что касается маркетинга, взаимодействия с клиентами и других сфер деятельности, не связанных с риском. Пусть нейросети выискивают лучших клиентов, определяют оптимальные услуги для них – регулятор финансового рынка вряд ли будет пытаться здесь каким-то образом влиять.

Что касается того, каким образом банк с помощью нейросетей управляет тем или иным видом риска — финансовым, операционным, риском мошенничества – здесь мы будем предъявлять требования. Если искусственный интеллект оценивает кредитные риски, мы будем такую модель валидировать.

Каких-то единых требований к искусственному интеллекту, конечно, предъявлять нельзя, потому что это совершенно разные алгоритмы, самообучающиеся по разным принципам и на разных выборках данных. Но требования, которые мы будем предъявлять в обязательном порядке, связаны с качеством этих данных. От того, насколько корректна обучающая выборка, зависит правильная работа искусственного интеллекта. Уже сейчас мы можем оценивать качество и предиктивную мощность этих моделей. При этом многие используют термин «искусственный интеллект», не имея четкого представления, что это такое.

— Вы сказали, что многие не до конца осознают, что необходимо понимать под «искусственным интеллектом». Что вы имеете в виду?

— Искусственный интеллект — это не то, что большинство людей отождествляет с системой Skynet из «Терминатора», которая взбунтовалась против человечества и сама стала принимать решения. Для человека, владеющего математическим аппаратом, искусственный интеллект — это всего лишь набор линейных преобразований, алгоритм, ничего мистического там нет. Это модели, которые решают узко поставленные задачи, причем все более эффективно. Наша задача – обеспечить их качественную работу.

— Если избавить искусственный интеллект от поведенческих предрассудков, означает ли это, что он сможет сделать кредитование более справедливым?

— Это очень сложная задача. Нужно понимать, что любая рейтинговая система зиждется на двух постулатах, которые неочевидны. Постулат первый: поведение объекта в прошлом полностью предопределяет его поведение в будущем. То есть, если клиент раньше аккуратно обслуживал кредит, значит, есть высокая вероятность того, что он и в будущем будет хорошо платить. Не факт, согласитесь.

Второй постулат заключается в следующем: если внешние характеристики двух объектов соответствуют, то высока вероятность, что их внутренние характеристики также будут похожими. Это тоже не так: у вас могут быть два абсолютно одинаковых графина, в одном — вода, а в другом — цианистый калий. Я искренне считаю, что эти два постулата нужно изменить для того, чтобы предиктивность моделей была лучше.

— Как вы считаете, какие риски помимо утечки данных несет в себе развитие новых технологий?

— Это очень важный и непростой вопрос, и он очень редко обсуждается. Кроме вышеназванных, могу назвать как минимум следующие риски, связанные с использованием искусственного интеллекта. Во-первых, даже самую сложную нейросеть можно взломать. У продвинутых нейросетей есть одна очень нехорошая особенность, которую в профессиональных кругах называют высокой чувствительностью к малым возмущениям. Это способность нейросети радикально переклассифицировать объект из одной категории в другую при незначительном изменении одного из его малых параметров. Приведу простой пример. Большинство нейросетей, решающих задачу биометрической идентификации, способно отличить мужчину от женщины или одного человека от другого, но если на лицо прилепить кусочек лейкопластыря и написать на нем слово «STOP», то некоторые нейросети переведут эту картинку из категории «лица» в категорию «дорожные знаки».

Во-вторых, нейросети способны создавать фейковую реальность. Например, после изучения большого количества реальных человеческих лиц нейросеть, если ей поставить такую задачу, очень легко может создать миллионы лиц несуществующих людей, их голоса и отпечатки пальцев – полный набор несуществующих биометрических данных, то есть можно создать целое государство несуществующих людей. И можно их сделать так, что другие нейросети будут воспринимать их как людей реальных. Аналогично можно создать несуществующие юрлица и транзакции.

Третий риск связан с тем, что применение искусственного интеллекта усложняет вопросы защиты персональных данных, поскольку появляется риск доступа к элементам обучающей выборки, а значит, к персональным данным, которые искусственный интеллект может «вытащить» из обучающей выборки.

Я вынужден говорить об этом, так как регулятор обязан думать о рисках. Бенефиты для общества от использования новых технологий абсолютно понятны. Но в этом мире никогда не бывает бенефитов без рисков, и эта «ложка дегтя» может оказаться вовсе не ложкой и вовсе не дегтя.

Источники:

ПРАЙМ, 18 декабря 2019, Даже самую сложную нейросеть можно взломать
Коммерсантъ, 18.12.2019, ЦБ назвал риски использования искусственного интеллекта