Константин Воронцов: Чат-боты научились манипулировать людьми

Константин Воронцов: Чат-боты научились манипулировать людьми

Что такое искусственный интеллект? Существует ли он на самом деле? Чем он отличается от человеческого? Можно ли подружиться с умной машиной? Какие возможности и опасности сулят нам нейротехнологии? Издание «Научная Россия» опубликовало интервью профессора РАН Константина Вячеславовича Воронцова, заведующего кафедрой машинного обучения и цифровой гуманитаристики МФТИ, заведующего кафедрой математических методов прогнозирования, заведующего лабораторией машинного обучения и семантического анализа Института искусственного интеллекта МГУ.

 

 

— Что такое искусственный интеллект? Определений и пониманий существует множество.

— Специалисты понимают это не совсем так, как рисуют фантасты или сегодняшние лидеры общественного мнения. Термин artificial intelligence придумали ученые, собравшиеся летом 1956 г. на двухмесячный семинар в Дартмуте, чтобы обозначить новое направление исследований. Была поставлена общая задача: научиться с помощью вычислительной техники решать сложные интеллектуальные задачи, которые до сих пор мог решать только человек. Попросту говоря, как сделать программы умнее. Все, что подходило для достижения этой цели, стали называть «искусственным интеллектом».

То есть с самого начала и до сих пор это зонтичный термин, обозначающий нечетко очерченный набор технологий. Когда появлялась новая технология, которая решала какую-то трудную задачу, ее по общему соглашению относили либо не относили к искусственному интеллекту. Иначе говоря, что причислять к ИИ — это вопрос договоренности, консенсуса в научном сообществе.

Существует даже так называемый эффект ИИ. Допустим, ставится какая-нибудь трудная интеллектуальная задача. Например, научить компьютер играть в шашки или автоматизировать принятие управленческих решений, скажем, в медицинской диагностике, геологоразведке или кредитном скоринге. Всякий раз, когда задача оказывалась решенной, а технология — понятной, из того же научного сообщества раздавались голоса: «Ну какой же это интеллект?! Это опять всего лишь вычисления».

— Хорошо, а что этот термин означает для вас?

— В научном сообществе термин «искусственный интеллект» всегда обозначал направление исследований и долгосрочную цель, а не достигнутый результат. Это скорее мечта или метафора, связанная с подспудным стремлением уподобиться Богу, создав машинный интеллект по образу и подобию человеческого. Пока она остается лишь мечтой. Пока не создано ничего целостного, что мы могли бы называть искусственным интеллектом. Это всего лишь набор разрозненных технологий и инструментов для решения разнообразных задач предсказания и автоматизации принятия решений.

— Почему это не интеллект? Что в этих технологиях не отвечает тому, что мы понимаем под интеллектом?

— Компьютеры уже давно вычисляют и запоминают намного быстрее и надежнее, чем человек. Но мы отказываемся называть это интеллектом. Прогресс последнего десятилетия в вычислительной технике, алгоритмах обучения нейронных сетей и накоплении больших данных позволил нам решать все более трудные задачи: обработка и распознавание изображений, речевых сигналов, текстов естественного языка. Мы называем это «функциональным», или «слабым», искусственным интеллектом. Каждая такая модель способна решать только одну задачу — ту, на которой ее обучили разработчики. Одно название, а не интеллект.

В наши дни происходит прорыв в области больших языковых моделей, появился ChatGPT. Прорыв настолько революционный, что в конце марта исследователи последней версии GPT-4 впервые заявили о «проблесках общего искусственного интеллекта». Модель, обучившаяся на терабайтах текстов, приобрела способности, которым ее не обучали, причем многочисленные, нетривиальные и неожиданные. И все же размер этой модели, число ее параметров пока меньше объема человеческого мозга на несколько порядков. Вроде еще не интеллект, хотя уже близко. Крепнет убеждение, что нейросетевой искусственный интеллект имеет совсем другую основу и совсем другие свойства и его невозможно сравнивать с биологическим интеллектом.

— Но ведь это не первый прорыв такого рода?

— Да, прорывы в области ИИ случались и ранее. Предыдущий прорыв произошел в 2012 г. в компьютерном зрении. Тогда появились глубокие нейронные сети для распознавания объектов на изображениях. Все предыдущие десятилетия компьютерное зрение развивалось довольно медленно, точность распознавания улучшалась на доли процента ежегодно, усилиями многих научных коллективов, конкурирующих по всему миру. И вдруг — улучшение сразу почти на 10%.

— Почему так произошло?

— Появились большие данные, коллекция размеченных изображений ImageNet. Первоначальной мотивацией были такие соображения: в мозге ребенка за первые три года жизни запечатлевается порядка 1 млн мгновенных снимков реальности — и этого достаточно, чтобы ребенок начал узнавать папу, маму, игрушки, ориентироваться в пространстве, выстраивать свою картину мира. Тогда почему бы не разметить миллион картинок из интернета, чтобы обучать алгоритмы компьютерного зрения распознавать на них различные объекты? Люди разметили более 14 млн картинок с помощью краудсорсинга, выделив на них более 22 тыс. классов объектов.

Казалось бы, ничего революционного, однако раньше не было таких больших размеченных данных. Имевшиеся на тот момент алгоритмы компьютерного зрения давали более 25% ошибок. В 2012 г. Джеффри Хинтон с двумя своими аспирантами построил глубокую сверточную нейронную сеть, которая дала 16% ошибок. Такие сети на тот момент уже были известны, но они придумали, как их обучать на графическом процессоре. Три фактора соединились в формулу успеха: большие данные, удачная нейросетевая архитектура с миллионами параметров и устройство для быстрых параллельных вычислений. После этого в конкурсе ImageNet лидировали исключительно глубокие нейронные сети. В 2015 г. был достигнут человеческий уровень ошибок 5%, а через пару лет вышли на 2%. Конкурс завершился, задача была решена.

— Но ведь графические карты были предназначены не для этого?

— Да, они создавались в основном для компьютерных игр, немного для монтажа видео и промышленного дизайна. Фактически геймеры всего мира, вкладывая деньги в развлечение, способствовали развитию индустрии графических ускорителей. Теперь мы им немного обязаны за прогресс в области ИИ.

— Вы сказали, что это когда-то было мечтой и остается ею по сей день. А как вы думаете, эта мечта вообще осуществится? Появится ли у нас то, что мы можем назвать полноценным искусственным интеллектом?

— Раньше ученые об этом мечтали, а когда мечта приблизилась, испугались и даже опубликовали воззвание с предложением заморозить дальнейшие исследования на полгода. Мечта оказалась подобием интеллекта в каком-то новом, нечеловеческом понимании.

— А что такое интеллект в нашем человеческом понимании?

— Пожалуй, этого никто сейчас не знает.

— В том-то и дело. Ведь мозг — это не меньшая загадка, чем глубины космоса. Мы не понимаем, как работает наш мозг, и при этом мы пытаемся создать его искусственную аналогию?

— Во-первых, мы понимаем мозг все лучше и лучше. Огромный объем исследований в области нейрофизиологии продвигает нас в этом понимании. Во-вторых, аналогия получается слишком уж отдаленная. Искусственные нейронные сети, как говорится, biologically inspired, то есть вдохновляются некоторыми знаниями из нейрофизиологии.

В основе все равно остается довольно примитивная математическая модель нервной клетки, которую Уоррен Маккаллок и Уолтер Питтс придумали еще в 1943 г. Элементные базы совершенно разные. Сложный электрохимический процесс передачи возбуждения от клетки к клетке, эволюционировавший миллиарды лет, и бинарные электрические сигналы в интегральных микросхемах, сконструированных людьми. Они не могут, да и не обязаны работать аналогично нашему мозгу. С другой стороны, это не мешает конструкторам подглядывать отдельные принципы у живой природы и, как в бионике, привносить их в инженерную практику.

— В одном из интервью вы говорили о том, что существующие «умные» машины уже начинают выходить из-под нашего контроля и вести себя по-своему. Вы видите тут определенную опасность?

— Опасность видят все. Об этом уже много написано, и тысячи исследований во всем мире проводятся прямо сейчас. Имеется в виду тот самый прорыв в больших языковых моделях. Нейронная сеть, обученная по терабайтам текстов, вобрала в себя практически все знание, накопленное человечеством, включая огромный пласт текстового контента из интернета. Она способна отвечать на вопросы, делать краткие изложения, строить план изложения, исправлять собственные ошибки по небольшой подсказке, переводить с одного языка на другой, решать несложные логические задачи. Причем большинство из этих навыков модель приобрела самостоятельно. Не было никаких обучающих выборок для каждого навыка. Главное, мы не пониманием, как это произошло. Мы говорим «количество перешло в качество», но такое философское объяснение не компенсирует наших непонимания и растерянности.

Опасность в том, что способность модели к генерации вполне осмысленного текста вводит нас в заблуждение. Нам кажется, что чат-бот думает, что он умен и много знает, что он обладает характером и личностью, что он принимает решения. Это все неправда. Это когнитивные искажения, от которых нам еще предстоит избавляться, оказавшись в мире говорящих машин. Чат-бот действительно принимает решения — но только о том, какое слово сгенерировать следующим. Он не мыслит. К нему неприменимы глаголы активного действия: подумал, решил, сделал, посоветовал, оказал психологическое давление, манипулировал. Эти фигуры речи лишь закрепляют наши заблуждения. Нам предстоит отучаться так говорить. И даже так думать.

— А как надо к нему относиться?

— Чат-бот — не более чем интерфейс, посредник между человеком и знаниями человечества. Новый интерфейс, более удобный, чем поисковые системы, к которым мы все привыкли за два десятка лет, способный преобразовать поисковую выдачу в текст, но абсолютно неодушевленный, что бы нам ни показалось.

Статистические модели генерации текста были известны и раньше, еще в 1950-е гг. Математики и лингвисты экспериментировали с ними довольно много и обнаружили, что для более или менее сносной генерации очередного слова достаточно знать относительно небольшой его контекст, несколько предыдущих слов. Если знать всего два-три слова, то сгенерированный текст будет местами нелепым, местами смешным. Если знать десяток слов, то текст уже будет восприниматься как сбивчивое повествование без определенного сюжета.

Нейросетевые модели на много порядков сложнее статистических, они учитывают весьма тонкие взаимосвязи между словами. При этом размер контекста просто огромен. Четыре года назад лучшая модель обрабатывала контекст объемом в полторы страницы для генерации каждого слова. Последние модели используют контекст в 50 страниц. То есть размерные характеристики этих моделей растут фантастически быстро. Быстрее, чем по знаменитому закону Мура (удвоение доступной вычислительной мощности каждые два года).

— Правильно ли я понимаю, что опасности потери контроля вы не видите в принципе? Бунт машин нам не грозит?

— Пока не грозит. Есть отдельные истории о том, как чат-бот обманул человека, заставив его пройти капчу вместо себя. Или о том, что он выдал адвокату информацию о схожих делах, которых на самом деле не существовало. И вот тут я себя ловлю на том, что и сам применяю активные глаголы к чат-боту. А ведь дело было не так! Мошенники использовали чат-бот для обмана пользователей. Адвокат не потрудился перепроверить данные, хотя должен был знать, что ChatGPT «галлюцинирует» и в принципе не может быть использован в качестве источника материалов для суда. По меньшей мере в данной версии и на данной стадии развития этой технологии.

Главная опасность в том, что мы наделяем чат-бота несуществующей субъектностью, вольно или невольно перекладываем на него нашу ответственность. А машина в принципе не может нести ответственность. Машина не субъектна. Чат-боты уже опасны тем, что они научились вызывать доверие, манипулировать людьми, правдоподобно лгать.

— Но это опять активные глаголы?

— Да-да, я снова неправильно говорю! Исправляемся, отучаемся — вспоминаем, что это всего лишь алгоритм предсказания следующего слова по контексту. Еще раз: чат-боты уже опасны тем, что мы испытываем к ним неоправданное доверие, как будто перед нами живой человек. Это происходит из-за того, что весь наш предыдущий жизненный опыт показывает: текст — средство коммуникации между людьми и только между людьми. Мы привыкли и подразумеваем, что собеседник имеет чувства, мнения, интенции. В силу таких наших ожиданий мы можем не заметить ошибок генерации, так называемых галлюцинаций, поддаться на незаметную речевую манипуляцию, поверить в правдоподобную ложь.

— А как же они этому научились, их же этому не учили?

— Не совсем. Примеров манипулирования в межличностной коммуникации предостаточно в интернете, по таким данным нейросеть была обучена. Способность генерировать ложные сведения или фейковые новости оттуда же — сеть видела при обучении миллионы примеров новостных статей. При генерации текста факты могут искажаться и смешиваться весьма причудливым образом. Когда эта особенность была впервые обнаружена, разработчики из Google испугались, что такую сеть можно использовать для генерации океана лжи, в котором окончательно потеряется капля правды. Последняя модель GPT-4 еще больше впечатлила множеством навыков, которым ее в явном виде не обучали.

— А чему ее обучали?

— В явном виде модель обучали только предсказывать слова по контексту. Обучающими данными служили терабайты текстов на многих языках. Потом модель дообучали тому, как разговаривать с людьми. Люди оценивали ответы модели, переспрашивали, подсказывали. Эти разговоры составили не более 1% от основного массива данных. Тем не менее это резко повысило ее способности. И похоже, что именно в этот момент количество перешло в качество. Модель выучилась логично рассуждать, уточнять свои ответы по просьбе, признавать и исправлять собственные ошибки. А самая последняя модель, которую дообучили еще и на изображениях, умеет понимать смысл картинок, связывая его с окружающим текстом. Здесь начинаются чудеса: ей показывают фотографию, где лежит рычаг, над одним концом подвешен груз, на другом лежит что-то, ее спрашивают: а если этот груз отпустят, что произойдет? И она описывает, что произойдет в этом физическом эксперименте. Хотя ее никто не обучал интерпретировать физические эксперименты, тем более по картинке.

— Откуда у нее появились эти знания?

— Не вполне понятно. Трудно назвать это «ее знаниями». Похоже, эти возможности появились за счет того, что огромная сеть, наблюдая практически все, что только может встретиться в человеческом языке, выучила типовые риторические и дискурсивные структуры языка, а также типовые способы их лексического наполнения. Объем описанной на языке реальности огромен. И сеть столь же огромна. Тот случай, когда размер имеет значение.

— Дальнейшее увеличение размера может привести к утрате нашего контроля? Насколько нейросети могут в этом продвинуться?

— Правильнее задаться вопросами: как, в какой момент и с какой целью мы собираемся утратить свой контроль, добровольно отдав его алгоритмам? Это действительно неуправляемый процесс или мы все-таки хозяева положения? Разумеется, дальше мы обязательно будем увеличивать объем данных, на которых они обучаются, и, по всей видимости, они будут приобретать еще больше новых навыков.

Вот еще пример: уже сейчас модель GPT-4 демонстрирует способность исправлять собственные ошибки. Ей говорят: реши вот такую школьную задачку по математике. Она решает и делает ошибочное действие. Тогда ей дают подсказку: «Сделай в два действия». И она генерирует правильное решение. В другом примере подсказкой было: «Разбей решение по шагам». Поняла, как человек, и сделала то, что нужно. Нам это кажется зачатками саморефлексии, ведь наш предыдущий опыт не ожидает такого поведения от кого-либо, кроме человека. Но мы точно знаем, что за этим не может стоять никакого мышления или рассуждения, это механический навык. Сколько еще непредвиденных навыков оказалось «зашито» в модель, мы не знаем. Научное сообщество в настоящее время активно исследует, на что еще она способна.

— На что же?

— Например, обнаруживается, что она обладает силой убеждения. Она может убеждать человека изменить, например, свою политическую позицию и делает это эффективнее политиков. Более того, она имеет политические предпочтения.

— Откуда у нее взялись политические предпочтения?

— Вопрос в том, на каком материале она сильнее обучилась. Исследования показали, что ChatGPT обладает политическими пристрастиями среднестатистического инженера-программиста из района залива Сан-Франциско: человека лево-либертарианских взглядов, озабоченного экологическими проблемами из программ «зеленых» партий.

— Почему именно так?

— Скорее всего, таких текстов было больше в обучающей выборке на английском языке — и в параметрах модели надежнее отпечаталась именно эта часть знаний человечества. Однако если давать модели подсказки, то от нее возможно добиться и альтернативных мнений по тем же вопросам. Но это не точно. Нет гарантий, что модель выдаст полный спектр мнений по любому вопросу. Может выдать факт, но может нафантазировать каких-нибудь фактоидов. Пока у больших языковых моделей нет навыков дословного цитирования, вставки ссылок на первоисточники, оценивания надежности источников. Уверен, что это дело ближайшего будущего.

Даже если такие навыки появятся, нам все равно придется избавляться от необоснованного доверия к чат-ботам и невольного желания их очеловечивать. Это как с манекеном в торговом центре, который легко принять за человека и даже почувствовать на себе его взгляд. Но к этому мы уже привыкли и нам хватает секунды, чтобы осознать когнитивную ошибку. Следующее упражнение будет потруднее: нам предстоит жить в мире интеллектуальных манекенов, антропоморфных не только внешне, но и по коммуникативным способностям.

— У вас когда-то была научная работа, посвященная интуиции в науке, где вы пытались проанализировать то, как это чувство посещало великих математиков. Вы поняли, как у них это происходило? Тот же Ньютон и яблоко…

— Это был аспирантский реферат по философии. Было интересно разобраться в механизмах научного и художественного творчества. Оказалось, озарения происходят у всех по-разному. У кого-то от интенсивного погружения в умственную работу, у кого-то во время отдыха, когда продолжает работать подсознание, у кого-то во сне или в момент пробуждения.

Общий механизм подобен эволюции — идеи проходят стадии скрещивания, мутации и селекции. Сальвадор Дали называл похожую стратегию «параноидно-критическим методом». Сначала порождается большое количество сколь угодно сумасшедших идей, затем они проходят тщательный критический отбор по критериям интересности. Похожим образом работают методики мозгового штурма. Это весьма общие механизмы творчества.

— У вас бывали такие прозрения в науке?

— Бывали, и по-разному. Я аккумулировал свой личный опыт и наблюдения за коллегами в виде «Алгоритма НИР». Рассказываю его студентам, когда они только начинают заниматься научно-исследовательской работой.

Алгоритм состоит в том, чтобы циклически повторять семь видов деятельности. Первый: читать современную научную литературу, в основном англоязычную. Второй: упрощать задачу, разбирая простые, частные, крайние и особые случаи, даже если они кажутся вырожденными. Третий: модифицировать саму постановку задачи, накапливать опыт решения схожих задач. Четвертый: обсуждать свои задачи с руководителем и коллегами, участвовать в научных семинарах и конференциях. Пятый: теоретизировать, делать выкладки, разбирать доказательства (даже если работа экспериментальная, это полезно для понимания методов). Шестой: экспериментировать (даже если работа теоретическая, это полезно для обнаружения новых эффектов и гипотез). Седьмой: постоянно писать научные тексты, чтобы структурировать мышление, доводить нечеткие интуитивные идеи до безупречно логичного изложения, не упуская важные мелочи. Порядок работ не столь важен и выбирается по ситуации. Главное, чтобы ни один из этих видов деятельности не пропускался систематически. Прозрения обязательно будут, если они подкреплены регулярными усилиями.

— Вам не кажется, что творчество — это и есть наше основное отличие от машинного интеллекта: приверженность интуиции, неалгоритмичность нашего мышления?

— Вынужден вас огорчить: смоделировать на компьютере можно и параноидно-критический метод, и «Алгоритм НИР», и теорию решения изобретательских задач ТРИЗ, и много чего еще. Давно используются эволюционные алгоритмы поиска оптимальных решений, которые работают примерно на тех же принципах. Так что здесь нет фундаментального отличия. Дойдем и до моделирования интуиции.

— Да вы что?!

— Вообще, цель же не в том, чтобы воспроизвести «по образу и подобию» нечто человеческое, что мы толком и сами определить не можем: интеллект, интуицию, сознание, самосознание. Зачем нам вообще все это надо? «Нам» — в смысле человеческой цивилизации. Вот оно, главное отличие, — в целеполагании.

Мы как биологический вид эволюционируем сотни миллионов лет, начиная от простейших форм жизни. Приспосабливаемся и выживаем на этой планете. Выживание было, есть и будет нашей основной биологической и цивилизационной целью. Сохранение Земли и ее биосферы — часть этой цели, так как мы приспособлены только к ней и без нее нам не выжить.

Мы создаем искусственный интеллект и другие технологии для того, чтобы они делали наше существование комфортнее и способствовали нашему выживанию. Наш разум возник как инструмент коллективного выживания нашего вида на планете Земля. Однако у искусственного интеллекта такой цели нет, сама собой она не возникнет, и полностью в нашей власти не назначать ему эту цель. Мы строим нашу человеческую цивилизацию, не машинную. Машины — лишь наши послушные помощники. Даже если они будут помнить в миллионы раз больше нашего и принимать решения в миллионы раз быстрее и правильнее нас. Это не первая и не последняя созданная нами технология, которая для нас же представляет смертельную угрозу. Справимся, если будем ко всему подходить с мерилом цивилизационных целей и ценностей, постоянно держать их в уме.

— Но что это означает для всех и каждого?

— Создавая нечто новое, будь то технология, бизнес или законы, что может влиять на многих людей или формировать будущее человечества, необходимо задаваться вопросом: «Почему я это делаю? Только потому, что хочу денег, славы или власти? Мне это просто интересно или ”прикольно”? Мои мотивации только личные? Если моими идеями, изобретениями, продуктами начнут пользоваться миллионы людей, к чему это может привести глобально?» Иногда социальные эффекты от внедрения бывают самые неожиданные, и это показывает, что мы совершенно не привыкли задумываться над такими вопросами. Необходимо новое цивилизационное мышление взамен чисто технократического и индивидуалистического. Овладев мощнейшими энергиями и создав кучу экзистенциально опасных технологий, мы взяли на себя огромный груз ответственности за сохранение уникального результата миллиардов лет эволюции. Пора это осознать и положить в основу каждодневной созидательной деятельности.

— Неужели вы всегда так делаете? Всегда ставите перед собой такой вопрос?

— Во-первых, пока редко кому удается создавать нечто, что действительно повлияет на судьбы миллионов. Поэтому такие вопросы возникают нечасто, не у каждого и не на каждом шагу.

Во-вторых, невозможно изменить привычки мышления быстро, да еще у миллиардов людей, включая властные элиты. Осознав проблему, я пытаюсь ее формулировать и популяризировать, осуществлять это на наглядных примерах. Я пишу об этом в своем блоге «Цивилизационная идеология» на «Дзене».

Я делаю это, когда говорю нашим студентам: вот вы доказываете теорему — подумайте зачем. Доведите цепочку детских вопросов «А зачем?» до логического конца. Чтобы алгоритм лучше работал. А зачем? Чтобы создать новую технологию. А зачем? Чтобы улучшить продукт или сервис. А зачем? Чтобы его продавать и делать жизнь людей лучше. А действительно ли это будет улучшением? А не создаст ли это новых рисков? В этот момент возникает мотивация не просто доказать теорему, а еще и задуматься, какие вопросы остаются нерешенными, правильно ли поставлена задача, какая тут иерархия целей. Это системный подход на основе более полной картины мира.

— Это было важно всегда или стало необходимо именно сейчас?

— Это становится все важнее. В физике есть законы сохранения — энергии, массы, импульса, заряда. Рискну сформулировать закон сохранения цивилизации. Он, конечно, не физический, а скорее философский или идеологический. Вероятность самоуничтожения цивилизации пропорциональна произведению трех величин: количества вырабатываемой энергии, количества различных экзистенциально опасных технологий и количества людей, готовых на все ради личной власти и доминирования.

Об этом должны помнить все, кто создает технологии, кто их использует и кто регламентирует их использование. Чтобы это работало, цивилизационное мышление должно стать элементом общей культуры и общественной идеологии. Иерархия потребностей и целей должна измениться на уровне картины мира, формируемой с раннего детства посредством воспитания.

— Что вы имеете в виду?

— Советская идея о том, что нам нужно заниматься воспитанием «нового человека», приобретает сейчас совершенно новое звучание. Мир становится технологически более опасным и неустойчивым. Все большее число людей получают возможность влиять на окружающую среду — природную, техногенную, социальную. Все менее устойчивой становится капиталистическая система, в которой каждый действует исходя из индивидуальной выгоды, как эгоист. Законы и правила часто работают в угоду корпораций эгоистов. От людей требуется все больше ответственности, самоконтроля и самодисциплины, а как эти черты воспитать? Любое воспитание — это ограничение личных свобод, в какой-то мере насилие. Осознание необходимости этих ограничений приходит через практическую деятельность и принятие цивилизационной системы ценностей. Нужны совершенно новые образы и ценностные установки — современные сказки про современные реалии, которые надо рассказывать с детства.

— Но это же тоже манипуляция.

— Конечно. Сказки — это полезные манипуляции, они закладывают модели поведения и предостерегают ребенка от опасностей. Манипуляции и пропаганда бывают как негативными, так и позитивными. В чем разница? Негативная пропаганда побуждает человека к действию, которое ему невыгодно. Позитивная пропаганда информирует и побуждает к действиям, которые полезны. Это инструменты управления обществом.

— Но ведь это тоже условная вещь. Кто-то же считает, что это полезно, а кто-то считает, что нет. Очень все субъективно.

— Да. Но ведь побуждать не означает принуждать. Согласен, что все субъективно, но есть же примеры несомненно позитивной пропаганды. Я вырос в СССР и помню, с одной стороны, идеологическое лицемерие, от которого мы все отшатнулись и сгоряча сломали то, что можно было бы и не ломать. С другой стороны, сколько было позитивной пропаганды: «дружба народов», «мир во всем мире», «любовь к Родине», «научно-технический прогресс», «туризм, здоровье, спорт» — это все, бесспорно, хорошие вещи. И в советское время они активно пропагандировались. Слово «пропаганда» не имело негативного подтекста. Все понимали, что есть «наша пропаганда» — она хорошая, учит нас быть добрыми, умными, общественно полезными, созидательными. Была враждебная пропаганда, которая нацелена на то, чтобы нас ослабить. Была пропаганда партийных догматов, которая обслуживала корпоративные интересы властной элиты и от которой уши вяли. Это все разное, и надо уметь различать.

Пропаганда научных знаний была на высоте. Мы ее заодно тоже поломали. Я вырос в профессорской семье и прекрасно помню, какое отношение к науке было в семье и в обществе. Считалось несомненным, что наука — это основа экономического благосостояния любой развитой страны. И вдруг на нас хлынула деструктивная пропаганда, что «наука — это удовлетворение своего любопытства за государственный счет», «если ты такой умный, то почему такой бедный», «троечники более успешны», «зачем развивать науку, когда все можно купить за границей», «нам больше не нужно общество созидателей, давайте строить общество потребителей». Этих демотиваторов было огромное количество, они засорили общественное сознание в начале 1990-х гг., ломая отношение общества к науке, а значит, к познанию и созиданию как таковым. За считаные годы произошла полная переоценка ценностей. Это пример воздействия негативной пропаганды.

— Чтобы пропаганда была действенной, она не должна быть лицемерной?

— Конечно. Если мы говорим о позитивной пропаганде, несущей цивилизационные ценности, то она и не может быть лицемерной. Она же преследует не корпоративные и не элитарные интересы, а общечеловеческие. Откуда быть лицемерию? Как ни странно, этот вопрос возвращает нас к началу обсуждения — к искусственному интеллекту и технологии ChatGPT. С позиций цивилизационного мышления гораздо проще осознавать угрозы, формулировать ограничения и требования, регламентировать применение. А нам, ученым, — понимать, какими исследованиями заниматься в первую очередь. Определять приоритеты.

— Можете конкретнее пояснить, как это происходит?

— Например, чат-бот не должен усиливать человеческие конфликты, которых и без него много. Отсюда принцип нейтральной позиции. Если речь зашла о вопросе, связанном с каким-то социальным конфликтом, чат-бот должен сообщать нам обоснованные позиции всех сторон. Иначе он становится инструментом обострения конфликта. Отсюда вытекают постановки задач для научного сообщества. Языковые модели необходимо наделять навыком выявления противоречивых или поляризованных мнений. Можно идти дальше и ставить задачи деполяризации общественного мнения и разрушения «информационных пузырей».

Второй пример. Чат-бот не должен вводить людей в заблуждение. Потому что если им пользуются миллионы людей, то заблуждения могут становиться массовыми. А это уже явление антицивилизационное. Отсюда следует, что модель должна обладать навыками цитирования, проверки фактов, определения достоверности источников, определения фейков и обмана. Это тоже постановки задач для ученых. В указанных направлениях исследования ведутся уже много лет. Объединение их с большими языковыми моделями представляется неизбежным.

— Мы знаем, что тысячи студенческих работ уже написаны с помощью ChatGPT. Надо ли это запрещать?

— Все известные мне попытки запрета провалились. Появился новый способ усиления человеческого интеллекта, ускоряющий производство информационного продукта. Это благо для цивилизации. При условии, что продукт будет качественным и нести пользу людям. Значит, нет цели научить человека писать реферат самостоятельно. Вместо этого появляется цель научить человека, вооруженного технологиями, производить полезный текст, который сэкономит сотням людей время на понимание предметной области или решение практической задачи.

Это весьма радикальный пересмотр целей и задач образовательной деятельности, который вынуждает не только студентов, но и преподавателей менять привычки — пересматривать учебные задания и формы проверки знаний. В частности, гораздо важнее, чтобы реферат был опубликован в открытом доступе на популярной отраслевой площадке, содержал достоверную информацию, прошел рецензирование и проверку на плагиат. При этом не столь важно, чем автор пользовался при его написании: поисковиком, чат-ботом или бумажными книгами из библиотеки.


Источник: «Научная Россия», 03.08.2023, Профессор РАН Константин Воронцов: чат-боты научились манипулировать людьми

Беседовала Наталия Лескова. Фотограф Ольга Мерзлякова.