6 декабря на «Дне инвестора» Сбер представил новую стратегию до 2026 года. В ней компания сделала упор на развитие генеративного искусственного интеллекта, а также внедрение таких технологий в собственные продукты.
Старший вице-президент, СТО, руководитель блока «Технологии» Сбербанка Андрей Белевцев рассказал изданию «Коммерсантъ-Деньги» о том, каким он видит будущее AI, о мировой гонке вычислительных мощностей и нейроинтерфейсах. Публикуем интервью с небольшими сокращениями.
— Андрей, 6 декабря Сбер презентовал собственную стратегию до 2026 года, большое место в ней компания уделила новым продуктам на основе генеративного искусственного интеллекта, а также потенциалу внедрения персонального AI-помощника для клиента. Расскажите, какие технологические аспекты вы считаете ключевыми в этом плане.
— Искусственный интеллект задает основной вектор нашей стратегии, так как мы уверены в том, что он будет очень быстро интегрироваться и внедряться во все сферы бизнеса. В этом есть две причины. Во-первых, LLM-модели будут ускоренно получать новые возможности, применимые практически в любой отрасли. Вторая причина в том, что внедрение компаниями продуктов на основе генеративного искусственного интеллекта куда проще, чем их разработка. Чтобы встроить такой продукт в рабочий процесс, не нужно обладать специальными знаниями, порог входа для пользователей минимален. Исходя из этого, мы видим для себя три ключевых вектора работы по этому направлению: развитие LLM-моделей, расширение облачной инфраструктуры, благодаря которой наши партнеры смогут внедрять искусственный интеллект в свои процессы с помощью интерфейса прикладного программирования (API), и третье — это упрощение непосредственно разработки приложений с использованием больших языковых моделей.
— В ноябре официальные лица OpenAI заявили о приостановке продаж подписки на ChatGPT из-за нехватки вычислительных мощностей. Это, на ваш взгляд, маркетинговый ход? Или интерес к подобным инструментам действительно растет опережающими темпами?
— Это заявление говорит об обостряющейся гонке мощностей, в которую оказались вовлечены крупнейшие технологические игроки, занятые разработками в области генеративного искусственного интеллекта. Прошлый год, когда был запущен ChatGPT, в этом плане можно назвать революционным. Да, за два года до этого существовал GPT-3 и у Сбера была своя версия GPT-3-модели (прим. RuGPT-3), но те модели не демонстрировали такого уровня понимания человека и не были такими полезными. Еще год назад мы не могли представить, что настолько продвинутая модель, способная поддерживать диалог с человеком, появится так быстро.
Что касается вычислительных мощностей — действительно, для обучения моделей задействуются большие вычислительные кластеры. И второй аспект, который мы часто упускаем из виду, заключается в том, что развитие прорывного продукта в этой области требует проведения экспериментов. То есть ты не просто ставишь одну версию модели на постоянное обучение, а параллельно проводишь определенное число экспериментов, связанных с новыми архитектурами, новыми версиями претрейна и так далее. Проще говоря, поисковое направление работы, R&D, также требует вычислительных мощностей. Таким образом, вычислительные мощности в этой области используются в трех направлениях — развитии имеющегося продукта, поисковых исследованиях и inference, то есть непосредственном применении модели.
OpenAI — это по факту сочетание двух компаний: некоммерческой исследовательской структуры и ее коммерческой «дочки». Первая занимается поисковыми исследованиями, а вторая коммерциализирует продукт. И у того факта, что компания испытывает нехватку мощностей, есть несколько причин. Первая заключается в том, что все компании бросились заниматься тем же самым, а вторая — у них действительно вырос спрос, который превысил технические возможности OpenAI. К тому же есть и внутренний фактор: судя по всему, в OpenAI сейчас идет конкуренция между распределением бюджетов на R&D и inference. И нужно понимать, что всем компаниям в мире не так просто наращивать вычислительные мощности.
— А как в Сбере решается вопрос балансирования между исследованиями и непосредственным применением искусственного интеллекта?
— Мы выстроили модель с эффективным взаимодействием R&D-команд, которые занимаются исследованиями новых архитектур, подходов и направлений модальности, и продуктивных команд, которые видят все эти наработки, берут те, которые оправдывают себя, и так далее. Их задача — создание продуктивной модели, и к ней уже предъявляются требования стоимостные, тот же inference по сути. Глобально в этом сегменте очень серьезная конкуренция, и ее нельзя выиграть в лобовую — живой силой или числом. И у меня есть основания предполагать, что наш подход к обучению моделей в несколько раз эффективнее, чем у коллег. Возможно, это связано в том числе с тем, что мы очень глубоко работаем со всем технологическим стеком. Так, например, последняя версия сервиса GigaChat, по результатам внутренней оценки в бенчмарке MMLU (Massive Multitask Language Understanding), превосходит самый популярный открытый аналог LLaMA 2 34B.
— Каким будет следующее поколение генеративных AI-инструментов? Какие задачи они будут решать и как будет со временем меняться их прикладная ценность?
— Я вижу здесь несколько ключевых направлений развития. Мы все идем к тому, чтобы сделать общение с искусственным интеллектом максимально похожим на человеческое общение. Для этого нужно делать упор на мультимодальность: увеличивать число объектов, с которыми может взаимодействовать генеративный искусственный интеллект, и при этом переключаться между ними бесшовно. Например, между голосом, текстом, картинкой, видео и так далее. Еще одно важное направление — это понимание AI-контекста взаимодействия. Проще говоря, ассистент должен понимать, какой тип ответа вам требуется в данный момент — общего плана или детальный. Для этого ассистенту необходимо обладать памятью: помнить, о чем вы спрашивали вчера или неделю назад, и на основе этих данных предоставлять вам наиболее релевантный ответ. С учетом того, как быстро развиваются технологии в этой области, развитие этих направлений мы увидим уже в 2024 году.
Источник: «Коммерсантъ», 14.12.2023, «Искусственный интеллект задает основной вектор нашей стратегии»