Профессор Сколтеха Максим Федоров: правильно использовать искусственный интеллект

Профессор Сколтеха Максим Федоров: правильно использовать искусственный интеллект

Максим Федоров, вице-президент Сколтеха в области искусственного интеллекта и математического моделирования, профессор, член экспертной группы ЮНЕСКО по выработке рекомендаций этических принципов разработки и использования искусственного интеллекта, в интервью «РБК Тренды» рассказал, к чему может привести неконтролируемое использование искусственного интеллекта.

В интервью Максим Федоров, в частности, сказал:

«Существует более ста определений ИИ. Для меня искусственный интеллект — это система из нескольких компонентов, анализ, сбор и обработка данных, принятие решений на их основе и выполнение таких решений. Подобные системы могут называться искусственным интеллектом.

Изначально термин произошел от английского слова intelligence, в котором заключены два смысла. Первый смысл — это сбор и обработка данных. Второй — непосредственно интеллект. В 1950-х годах термин был введен именно в значении «искусственная система сбора и обработки данных». Не подразумевалось ничего, связанного с сознанием или когнитивными функциями человека.

Сейчас с этим термином связана неопределенность, журналисты поддали жару. В техническом сообществе принято разделять искусственный интеллект на сильный и слабый.

Сильный ИИ — это системы, которые могут воспроизводить и превышать весь спектр когнитивных способностей человека.

Слабый ИИ — это простые алгоритмы, с которыми мы сталкиваемся ежедневно: голосовые помощники, распознавание лиц, шахматные программы и т.д. В основном весь хайп, который мы сейчас наблюдаем, связан со слабым ИИ. Сильного искусственного интеллекта пока нет, и вряд ли он появится в обозримом будущем.

Однако и слабый искусственный интеллект может представлять некоторые угрозы.

Важно понимать, что технология ИИ — это субъект, железка, как, например, калькулятор или молоток. И опасность может представлять по мере того, как ей пользоваться. Не следует считать, что они обладают какой-то сущностью объекта. Почему люди сознательно и бессознательно наделяют систему ИИ какими-то личностными качествами? Потому что это особенность человека: нам свойственно антропоморфизировать все вокруг. Мы даем имена животным, машинам. Но антропоморфизация систем искусственного интеллекта не оправдана. Мы не приравниваем кукол к людям, хотя внешне они очень похожи.»

Говоря об этике искусственного интеллекта, Максим Федоров отметил:

«В рамках этой рабочей группы мы много обсуждали, что ее название выбрано не совсем корректно. Потому что этики ИИ как таковой быть не может. Этика — это человеческая характеристика. Скорее, мы говорим про этику использования ИИ.

…Понимаете, молотком можно гвоздь забить, а можно нанести физический вред человеку. От этого у молотка этики не наблюдается. Этика должна быть у того, кто его использует. То же самое с искусственным интеллектом.

Более того, в рамках дискуссии мы старались исключить все возможные упоминания о субъектности искусственного интеллекта. От ряда стран было много предложений о придании искусственному интеллекту статуса квази-члена общества. Я считаю, что это очень вредное направление. Оно может привести к технорасизму, так как за каждой вещью стоит ее создатель или обладатель. То есть если я молотком нанесу вред кому-то (стукну, например), будет однозначно понятно, что виноват — я. Но если придать молотку субъектность, то начинается простор для размышлений: может, молоток сам ударил — давайте накажем молоток, разберем его и так далее. А я, вроде как, и не виноват уже, хотя стукнул-то я. То же самое в плане сложных систем.

Пока в правовом поле более или менее понятно, как поступать в случае нанесения вреда. Но это нравится не всем: есть группы заинтересованных лиц, которым хочется получать выгоду, но не хочется получать негативные рекламации. Поэтому они пытаются сделать хитрый ход — дать искусственному интеллекту права и законно его поощрять или наказывать.

Техническим специалистам это кажется бредом, но идея активно продвигается на международных площадках. Зачем? Потому что производитель получает прибыль от продажи устройства, обладатель может получать прибыль от использования, а если устройство наносит какой-то вред, то человек не виноват. История очень непростая и, я бы сказал, политизированная. В ней крутится много денег.»

Полностью интервью читайте в «РБК Тренды».


Источник: «РБК Тренды», 07.08.2020, Максим Федоров — РБК: «Перекладывание функций на ИИ — опасный тренд»