MIT Technology Review: ChatGPT повсюду. Откуда он взялся

MIT Technology Review: ChatGPT повсюду. Откуда он взялся

Прорыв OpenAI стал сенсацией за одну ночь, но он основан на десятилетиях исследований.

ChatGPT сейчас на пике популярности. Выпущенный в конце ноября в виде веб-приложения фирмой OpenAI из Сан-Франциско, чат-бот буквально за одну ночь стал популярным. По некоторым оценкам, это самый быстрорастущий интернет-сервис за всю историю, достигший 100 миллионов пользователей в январе, всего через два месяца после запуска. Благодаря сделке OpenAI с Microsoft на 10 миллиардов долларов технология теперь встроена в программное обеспечение Office и поисковую систему Bing. Подстрекаемый к действию своим недавно пробудившимся бывшим конкурентом в битве за поиск, Google ускоряет запуск собственного чат-бота LaMDA. Даже в WhatsApp теперь есть чат ChatGPT.

Но прорыв OpenAI не возник из ниоткуда. Чат-бот — это последняя по времени итерация в линейке крупных языковых моделей, имеющей долгую историю. Вот как мы дошли до ChatGPT.

1980–е-90-е: рекуррентные нейронные сети

ChatGPT — это версия GPT-3, большой языковой модели, также разработанной OpenAI. Языковые модели — это тип нейронной сети, которая была обучена на большом количестве текста. Поскольку текст состоит из последовательностей букв и слов различной длины, языковым моделям требуется тип нейронной сети, которая может осмысливать такого рода данные. Рекуррентные нейронные сети, изобретенные в 1980-х годах, могут обрабатывать последовательности слов, но они медленно обучаются и могут забывать предыдущие слова в последовательности.

В 1997 году ученые-компьютерщики Зепп Хохрайтер и Юрген Шмидхубер исправили это, изобретя сети LSTM (Long Short-Term Memory — долгая краткосрочная память), рекуррентные нейронные сети со специальными компонентами, которые позволяли сохранять прошлые данные во входной последовательности дольше. LSTM могли обрабатывать текстовые строки длиной в несколько сотен слов, но их языковые навыки были ограничены.

2017: Трансформеры

Прорыв, стоящий за современным поколением больших языковых моделей, произошел, когда команда исследователей Google изобрела трансформеры (transformers), разновидность нейронной сети, которая может отслеживать, где каждое слово или фраза появляется в определенной последовательности. Значение слов часто зависит от значения других слов, которые идут до или после. Отслеживая эту контекстную информацию, трансформеры могут обрабатывать более длинные строки текста и более точно улавливать значения слов. Например, «хот-дог» означает совершенно разные вещи в предложениях «Хот-догам следует давать много воды» и «Хот-доги следует есть с горчицей».

2018-2019: GPT и GPT-2

Первые две большие языковые модели OpenAI появились с разницей всего в несколько месяцев. Компания хочет разрабатывать многопрофильный искусственный интеллект общего назначения и считает, что большие языковые модели являются ключевым шагом на пути к этой цели. GPT (сокращение от Generative Pre-trained Transformer) превзошла самые современные стандарты обработки естественного языка на тот момент.

GPT объединил преобразования с обучением без учителя — способом обучения моделей на данных (большом количестве текста), которые не были предварительно аннотированы. Это позволяет программному обеспечению самостоятельно определять закономерности в данных, не требуя объяснений. Многие предыдущие успехи в машинном обучении основывались на обучении под наблюдением и на аннотированных данных, но маркировка данных вручную — это медленная работа и, следовательно, ограничивает размер наборов данных, доступных для обучения.

Но именно GPT-2 вызвал наибольший ажиотаж. OpenAI утверждала, что была настолько обеспокоена тем, что люди будут использовать GPT-2 «для создания вводящих в заблуждение, предвзятых или оскорбительных выражений», что не будет выпускать полную модель. Как меняются времена.

2020: GPT-3

GPT-2 был впечатляющим, но последующая разработка OpenAI, GPT-3, заставила удивиться. Его способность генерировать текст, похожий на человеческий, была большим шагом вперед. GPT-3 может отвечать на вопросы, обобщать документы, создавать истории в разных стилях, переводить с английского, французского, испанского и японского языков и многое другое. Его имитация сверхъестественна.

Один из самых замечательных выводов заключается в том, что преимущества GPT-3 заключались в том, что были увеличены размеры существующих технологий, а не изобретались новые. GPT-3 содержит 175 миллиардов параметров (значений в сети, которые корректируются во время обучения) по сравнению с 1,5 миллиардами параметров GPT-2. Он также был обучен на гораздо большем количестве данных.

Но обучение по тексту, взятому из Интернета, порождает новые проблемы. GPT-3 впитал большую часть дезинформации и предубеждений, которые он нашел в Интернете, и воспроизводил их по запросу. Как признала OpenAI: «Модели, обученные по Интернету, имеют погрешности в масштабе Интернета».

Декабрь 2020: токсичный текст и другие проблемы

В то время как OpenAI боролся с предубеждениями GPT-3, остальной технологический мир столкнулся с громкой расплатой за неспособность обуздать токсичные тенденции в ИИ. Не секрет, что большие языковые модели могут выдавать ложный — даже вызывающий ненависть — текст, но исследователи обнаружили, что устранение проблемы не входит в список дел большинства крупных технологических фирм. Когда Тимнит Гебру, содиректор отдела этики искусственного интеллекта Google, стал соавтором статьи, в которой подчеркивался потенциальный вред, связанный с большими языковыми моделями, это не приветствовалось топ-менеджерами внутри компании. В декабре 2020 года Гебру выгнали с работы.

Январь 2022: InstructGPT

OpenAI попытался уменьшить количество дезинформации и оскорбительного текста, создаваемого GPT-3, используя обучение с подкреплением для подготовки версии модели с учетом предпочтений тестировщиков-людей. В результате, InstructGPT, лучше выполнял инструкции людей, использующих его — известный как «выравнивание» (alignment) на жаргоне искусственного интеллекта — и производил меньше оскорбительных выражений, меньше дезинформации и меньше ошибок в целом. Короче говоря, InstructGPT не такой хулиган, как все, если только его не просят быть таковым.

Май–июль 2022: OPT, BLOOM

Распространенная критика больших языковых моделей заключается в том, что стоимость их обучения затрудняет их создание для всех, кроме самых богатых лабораторий. Это вызывает опасения, что такой мощный ИИ создается небольшими корпоративными командами за закрытыми дверями, без надлежащего контроля и без участия более широкого исследовательского сообщества. В ответ на это несколько совместных проектов разработали большие языковые модели и выложили их в свободный доступ для любых исследователей, которые захотят изучить — и усовершенствовать — технологию. Meta построила и раздала OPT, реконструкцию GPT-3. А Hugging Face возглавил консорциум из примерно 1000 исследователей-добровольцев для создания и выпуска BLOOM.

Декабрь 2022: ChatGPT

Даже OpenAI поражен тем, как был принят ChatGPT. В первой демо-версии, которую OpenAI предоставила автору этой статьи за день до онлайн-запуска ChatGPT, он был представлен как постепенное обновление для InstructGPT. Как и эта модель, ChatGPT обучался с использованием обучения с подкреплением на основе отзывов тестировщиков-людей, которые оценили его эффективность как гибкого, точного и безобидного собеседника. По сути, OpenAI обучил GPT-3 освоению игры в разговор и пригласил всех прийти и поиграть. С тех пор миллионы из нас играют.


Источник: MIT Technology Review, February 8, 2023, ChatGPT is everywhere. Here’s where it came from