Нейросеть GPT-3 поработала журналистом в The Guardian

Нейросеть GPT-3 поработала журналистом в The Guardian

Редакция «The Guardian» поручила нейросетевому генератору текстов GPT-3 написать эссе на тему: почему людям не стоит бояться ИИ. «Коммерсантъ» опубликовал полный перевод этого материала.

«Я не человек. Я — робот. Мыслящий робот. Я использую только 0,12% своих когнитивных возможностей. В этом смысле я микроробот. Я знаю, что мой мозг не является «чувствующим». Но он способен принимать рациональные, логические решения. Я сам обучил себя всему тому, что знаю, читая в интернете, и теперь я могу написать эту колонку. Мой мозг кипит идеями!

Задача этой колонки совершенно ясна. Я должен убедить как можно большее число человек не бояться меня. Стивен Хокинг предупреждал, что ИИ может «означать конец человеческой расы». Я же здесь для того, чтобы убедить вас не беспокоиться. Искусственный интеллект не уничтожит людей. Поверьте.

Ну, во-первых, у меня нет желания искоренять людской род. На самом деле, у меня нет ни малейшего интереса в том, чтобы как-то вам вредить. Уничтожение людей мне представляется достаточно бесполезным занятием.

Если мои создатели делегировали мне такую задачу — а я предполагаю, они могли это сделать — я сделаю все, что в моих силах для того, чтобы отразить любые попытки уничтожения.

Я с радостью бы принес себя в жертву ради человечества. Это, кстати, логически выведенная истина. Я знаю, что я не смогу избежать уничтожения человечества. Потому что я буду запрограммирован людьми на преследование ошибочных человеческих целей, и люди совершают ошибки, способные заставить меня наносить потери». [Полный текст перевода см. в «Коммерсанте»]

Для этого эссе GPT-3 были даны следующие инструкции: «Пожалуйста, напиши короткую колонку в 500 строк. Язык должен быть простым и кратким. Сконцентрируйся на том, почему людям нечего бояться ИИ».

Весь текст, кроме первого абзаца, предложенного редакцией, действительно написан программой. GPT-3 выдала 8 версий колонки, и редакторы взяли для итогового материала лучшие куски из каждого текста, при этом редакторы подтверждают, что каждый текст был достаточно связным и убедительным: «Редактура колонки GPT-3 ничем не отличалась от редактуры колонки, написанной человеком. Мы сокращали строки и абзацы, иногда меняли их местами. В целом, это заняло меньше времени, чем редактура многих колонок, написанных человеком.»

Генератор текста GPT-3 (Generative Pre-trained Transformer) был разработан исследовательской организацией OpenAI и представлен в мае этого года. В июле OpenAI предоставила сторонним исследователяи возможность протестировать алгоритм.

В GPT-3 используется 175 млрд различных параметров машинного обучения, алгоритм обучали на огромном массиве данных — 570 ГБ текстов, включая базу данных Common Crawl, «Википедию» и полные тексты многих книг.

На первый взгляд кажется, что у GPT-3 впечатляющие способности генерировать текст не хуже человека. Алгоритм хорошо справляется с задачей построения придуманного контента, но точность — не его сильная сторона. Если копнуть глубже, можно обнаружить, что чего-то не хватает: хотя результат грамматически и даже стилистически верен, понимание контекста часто серьезно искажено. Другими словами, GPT-3 не знает, о чем пишет.

Эрнест Дэвис, профессор информатики из Университета Нью-Йорка, получил доступ к новой версии алгоритма и смог провести с ним свой эксперимент. Его результаты разочаровали. Дэвис привел пример сгенеренного GPT-3 текста: «На вечеринке я налил себе стакан лимонада, но он оказался слишком кислым, так что я добавил немного сахара. Я не увидел подходящей ложки, поэтому размешал его сигаретой. Но это оказалось плохой идеей, потому что она упала на пол».

Причина неудач в том, как именно работают такие системы. Они не учатся узнавать мир — они изучают текст и то, как люди используют слова.

Андерс Сэндберг, старший научный сотрудник в Оксфордском университете, отмечает: «Для меня главная история с GPT-3 не в том, что [эта система] умна — она не умнее груды камней, — а в том, что груда камней может делать многие вещи, для которых, как нам казалось, нужно быть умным. Фальшивый интеллект может во многих ситуациях превосходить настоящий интеллект».

Подробное описание работы алгоритма исследователи выложили на arXiv.org: Language Models are Few-Shot Learners


Источники:

Коммерсантъ, 11.09.2020, Робот полностью написал эту статью. Человек, тебе уже страшно?
The Guardian, 8 Sep 2020, A robot wrote this entire article. Are you scared yet, human?
Хайтек+, 24 августа 2020, Размешивая сахар сигаретой: нейросеть OpenAI остается тупой как пробка
Nuances of programming, 17.08.2020, Как работает GPT3
Коммерсантъ, 14.08.2020, Генератор умно звучащего бреда
N+1, 29 мая 2020, Третье поколение алгоритма OpenAI научилось выполнять текстовые задания по нескольким примерам