О конференции по технологиям ИИ в рамках форума «Армия 2021»

О конференции по технологиям ИИ в рамках форума «Армия 2021»

Борис Рожин (colonelcassad) рассказал о конференции «Гуманитарные и социокультурные аспекты развития и применения технологий искусственного интеллекта», на которой он побывал 22 августа в рамках форума «Армия 2021». Сама конференция проходила в рамках большого конгресса, посвященного искусственному интеллекту и идущего несколько дней.

Cпикеры конференции:

  • Дементьев Илья, Ректор корпоративного университета Газпромнефть
  • Димитров Илия, президент Seldon, Представитель уполномоченного по защите прав предпринимателей при президенте РФ — омбудсмен по вопросам развития цифровой экономики
  • Дмитрий Завалишин, основатель Digital Zone (создатель лаборатории ИИ)
  • Натекин Алексей Геннадьевич, Генеральный директор Data Souls, основатель сообщества Open Data Science
  • Незнамов Андрей Владимирович, Управляющий директор Центра регулирования Искусственного интеллекта Сбера
  • Ашманов Игорь Станиславович, Генеральный директор компании «Ашманов и партнеры»
  • Федоров Максим Валериевич, Вице-президент Сколковского института науки и технологий
  • Фисун Александр Яковлевич, зав. кафедрой управления военного здравоохранения Военно-медицинской академии им. Кирова

Модератор конференции: Касперская Наталья.

Как оценивает Борис Рожин, в зале конференции сознательно была собрана весьма пестрая по направлениям научных знаний группа специалистов, что позволяло взглянуть на озвученную проблематику с разных ракурсов — военного, дипломатического, технологического, образовательного, биомедицинского, криминалистического, философского, морально-этического и т.д. Не скрывалось, что целью является сбор среза мнений, наиболее толковые из которых предполагалось включить в общую резолюцию, которая в теории должна оказать некое влияние если и не на весь вектор развития технологий искусственного интеллекта в России, то хотя бы на отношение властей к этой проблематике. Место проведения конференции — 3-й этаж Экспо-Центра в парке «Патриот».

Борис Рожин так обобщил услышанное:

1.Россия в вопросах разработки технологий ИИ по целому ряду направлений отстает от мировых лидеров и сейчас стоит фактически на распутье. Ей надо либо прислониться к чужому проекту определяемыми чужими системами государственного регулирования (будь то западными или китайскими), либо же делать что-то свое обособленное, в рамках курса на технологический и цифровой суверенитет. Ярким моментом было обсуждение выдвинутого тезиса о том, что одним из ключевых элементов оценки качества разработок должны служить публикации в западных научных журналов (статьи на эту тему летом уже выходили в блоге). Это фактически закрепляет подчиненный характер отечественной науки и соответственно, заведомо ставит в подчиненные положение вопросы развития ИИ. Поэтому предложения снижать зависимость оценки качества работы от «индекса Хирша» или даже отказаться от него, вполне одобряю. Можно отметить, что если раньше все это было на уровне заявлений бьющих в колокола ученых, то сейчас такие мысли можно услышать и от чиновников и военных. Идея постепенно прорастает, так что ученым в этом направлении надо продолжать капать на мозги государству и весьма вероятно, что в долгосрочной перспективе тут произойдут изменения. Как они произошли с теми же западными НКО, которые начали по серьезному закрывать лишь в конце 10х, хотя в обществе запрос на это вызревал еще в конце нулевых. Вода камень точит.

2. Международное регулирование технологий развития ИИ, с учетом разности военно-политических и экономических потенциалов, практически гарантировано будет стремиться поставить Россию в подчиненное положение. Рассчитывать на то, что на Западе Россию примут как равного партнера в вопросах технологий ИИ не приходится. Да и в других направлениях тоже. Разговаривать на тему выработки неких общих правил функционирования таких технологий можно, но было бы иллюзией считать, что Россия сможет добиться согласия Запада на некое правовое равноправие. Это тоже толкает Россию на пресловутый «свой собственный особый путь», который не гарантирует лидирующие позиции в гонки развития технологий ИИ, но сохраняет и обеспечивает субъектность участия в этой гонке. В конечном итоге тут все сводится к вопросам субъектности и суверенитета. И чем больше вовлечения в западные системы в текущих реалиях, тем меньше будет субъектности и суверенитета с вполне понятными для страны последствиями.

3. Сами технологии ИИ сейчас оценивают не как полноценный ИИ, а как некие системы, имитирующие некоторые элементы человеческого сознания. Условно их называют «слабый ИИ». Когда и как будет создан полноценный ИИ, и будет ли он вообще создан, на текущем этапе непонятно. Но вот этот самый «слабый ИИ», со всеми его ограничениями и недостатками, будет весьма активно внедряться, становясь неотъемлемой частью окружающей действительности. Вопрос о том, внедрять или не внедрять технологии ИИ уже давненько не стоит. Вопрос в том, как и на каких условиях его внедрять. Тезис представителя «Яндекса» о том, что при внедрении будут жертвы, а при не внедрении жертв будет еще больше, отражает с одной стороны страх перед новыми технологиями, а с другой стороны проблему преодоления этого страха и принятия последствий этого преодоления. Неидеальность технологий ИИ будет обуславливать неидеальность их внедрения. Другой вопрос, кто будет отвечать за неизбежные жертвы и какова мера ответственности. Этот вопрос как мне кажется был недостаточно раскрыт.

4. Абстрактные вопросы выработки неких моральных принципов развития и внедрения технологий ИИ (в том числе и в невоенной сфере) наталкиваются разные взгляды на то, где проходит пресловутая граница, которую нельзя переходить. Эта граница может быть разной в различных странах и блоках, так и в подходах разных групп населения внутри отдельно взятой страны. Можно брать те абстрактные принципы, которые излагала научная фантастика прошлого века. Можно пытаться применять современный технократический подход с минимальным количеством красных флажков, можно пытаться присоединить к этике использования искусственного интеллекта религиозные догматы. Но суть в том, что не будет какого-то общепринятого принципа. Всегда будут недовольные, которых не устроят предложенные вами красные линии. Вряд ли можно ожидать создания некоего общепризнанного набора принципов, которые станут моральным императивом для всех, а это значит, что в этом случае неизбежна криминализация «заступов за флажки» и стремление отдельных индивидов, организаций и государств «потрогать запретный плод». На мой взгляд тут надо просто говорить о том, что государство вырабатывает некий набор регулятивных мер отражающих текущие взгляды на использование ИИ, которые в дальнейшем могут меняться в зависимости от направления развития технологий. Так было бы честнее попыток спрятать проблему за абстрактными разговорами про этику и мораль. На деле, все скорее всего будет куда как приземленнее.

5. Относительно зависимости человека от ИИ и страха перед превосходством машины, хотелось бы обратиться к шахматному примеру. Когда я учился играть в шахматы, компьютеры играли слабее человека. Но постепенно, в процессе технологического развития они сначала догнали, а затем перегнали человека. Попытки лучших из людей сражаться с ними были постепенно подавлены машинной мощью. Сейчас особо никому и в голову не придет мысль устраивать матчи между человеком и машиной (на текущий момент сильнейшие машины построены на принципах нейронных сетей, которые играют значительно сильнее чемпиона мира и ведущих гроссмейстеров), потому что итог очевиден уже на уровне идеи. Человек понял, что машина сильнее и просто перестал стремиться к доказательству своего превосходства, к чему стремился еще 20 лет назад.
Но что же произошло? Машины теперь соревнуются с другими машинами, а для человека они стали инструментом в подготовке к борьбе с другими людьми. Да, тут есть проблема доверия машине, так как она предлагает человеку использовать результаты ее «интеллектуального труда», что многие делают некритически «оценка машины непререкаема», «машина не ошибается» и т.д. На деле же, порой таких чрезмерно доверяющих машине ловят на неочевидных моментах, которые может уловить только человек. Но это как правило именно хитрости, которые позволяют обойти нерушимую стену компьютерного анализа. В открытом же бою все давно очевидно.
В итоге, человек преодолел свой страх перед машиной, просто переведя вопрос конкуренции в вопрос взаимодействия, которое стало нормой, когда «железный друг» делится с тобой результатами перебора миллионов ходов и вариантов, а ты уже сам принимаешь решение — как воспользоваться этой помощью и не поискать ли еще в результатах машинного превосходства обходные человеческие пути. Как представляется, во многих других областях внедрения ИИ, проблема также будет стоять в преодолении естественного страха перед машиной и ухода от идеи конкуренции с ней к идее взаимодействия, где машина занимает определенное место в виде инструмента при сохранении за человеком возможности принятия решений. Но и в этом случае, человеческое общество конечно будет меняться, а страх этих изменений будет порождать оппозицию активному внедрению технологий ИИ в различных сферах. Это тоже данность.

6. Если смотреть на проблему внедрения технологий ИИ в военную сферу, то сама логика новой Холодной войны и гонки вооружений, будут подталкивать развитие военных и смежных решений в сфере ИИ для дальнейшей модернизации военной машины. Текущие разработки наземных, морских и воздушных дронов, постепенное повышение автоматизации войны, возрастающая роль цифрового моделирования конфликтов, а также цифровизация поля боя, неизбежно будут затрагивать вопрос внедрения совершенствуемых технологий ИИ на самых различных уровнях. Это уже не вопрос выбора, а неизбежность и необратимость, особенно если смотреть на мейнстрим оборонных разработок. Впрочем, как представляется, в обозримой перспективе ключевые вопросы ведения войны и принятия решений на войне будут и далее оставаться за человеком. Передоверить этот вопрос машине мешает как естественное нежелание лишиться контроля, так и существующие ограничения возможностей ИИ.

7. Ашманов вспомнил про Маркса и сравнил нынешний «цифровой класс» (или прослойку) с классическими классами, которые осознают свой классовый интерес и соответственно усиливают свое влияние на общество и государство, которое зачастую не осознает возможностей этого влияния. Собственно, в связке с «БигТехом», эта «прослойка» действительно имеет возможности влияния на принятие стратегических решений. Не столь ярко выражено как в США, но движение идет именно в этом направлении. И как показывает опять же американский опыт, бесконтрольность этой прослойки приводит к весьма наглядным и поучительным последствиям, когда именно эта прослойка начинает определять что правда, а что нет, кто президент, а кто нет, кому можно говорить, а кому нет. С развитием технологий ИИ не трудно представить, как могут расшириться возможности такого опосредованного влияния на общество и государство. Поэтому вполне логично, что государство будет стремиться к регулированию крупных цифровых компаний и опосредованного ограничивать возможности влияния «цифрового класса» на ключевые решения и общественные умонастроения.

8. В выступление Ильницкого был сделан большой акцент на засилье так называемых «эффективных менеджеров», которых наплодили за последние десятилетия и которые выступают фактическим тормозом развития, так как подобные люди при низкой компетенции имеют влияние на принятие важных решений или же влияют на выработку этих решений, которые могут носить навязываемый характер. Это конечно не только проблема ИИ, а общая проблема страны с неэффективными «эффективными менеджерами». Озвучен был и путь решения — модернизация системы образования, потому что текущая система по заявлению бывшего министра культуры создала поколение, голова которого набита чушью. А ведь выпускники этой системы в будущем попадут на места тех самых «эффективных менеджеров» с ожидаемым результатом. И быстро эту ситуацию не поменять. Пока что с точки зрения модернизации образования картина достаточно мрачная вырисовывается, но опять же закономерная. Как в свое время заявлял один министр «Основная цель — это вырастить квалифицированного потребителя». Тут да, вырастили. Только государственная машина если и едет с ним, то куда-то не туда.

9. Стоит также отметить выступления космонавта Крикалева, которое получилось остро критическим и касалось скорее общего положения дела в стране. С одной стороны, Крикалев указал на высокую инерционность работу государственной машины, когда зачастую решения по различным вопросам определяются не человеком занимающим должность или не существующим ИИ, а обычными регламентами, которые зачастую уже устарели, но тем не менее определяют то, какие решения будут приняты, сводя инициативу человека к минимуму. Само собой, эту ситуацию можно экстраполировать на ИИ, где человек также может быть подчинен «безошибочным решениям ИИ». По мнению Крикалева, из-за сложившейся ситуации, у нас тормозится развитие целых отраслей экономики. Также Крикалев отметил, что действующие в стране регламенты безопасности фактически уничтожили в Россию малую авиацию. В общем, что-то делать с обновлением регламентов необходимо.

10. В самом конце конференции полковник из Академии Можайского правильно поднял вопрос «А для чего все это?». В рамках какой идеологии и ради каких целей все это должно быть. Как шутили в старом КВН «Вопрос из бронхов. — Да уж, не из легких». Мало какая конференция по различным темам, где довелось бывать за последние годы, без него обходилось. Официально идеология по Конституции запрещена. Но президент официально заявляет, что у нас идеология патриотизма. Но на конференциях заявляют, что идеологии нет, но она нужна. А старая идеология «Обогащайтесь» она не работает. В итоге, есть ситуация, когда идеологии нет, а запрос на идеологию есть. И как уверяют. даже определенный гос.заказ. Современные идеологи разного толка с этой задачей не справляются. В итоге, на фоне глобальных идеологических проектов, которые есть у США, Китая или ЕС, у России своего идеологического образа будущего нет. Как для внутреннего потребления, так и для предложения этого образа будущего на внешнем рынке. Одни идеологические эрзацы и костыли, за не имением чего-то большего. Поэтому не стоит удивляться, когда за неимением своего идеологического проекта, представители технологических компаний и гос.чиновники, рассматривают возможность прислониться к чужому проекту. Так ведь проще и практичнее. Так что вопрос «А что у нас с идеологией» и далее будет возникать, без конкретного механизма решения.


Источники:

Блог colonelcassad, 24 августа 2021, «Гуманитарные и социокультурные аспекты развития и применения технологий искусственного интеллекта»

Международный военно-технический форум «АРМИЯ-2021», 22.08.2021, Конгресс «Стратегическое лидерство в цифровую эпоху и технологии искусственного интеллекта», Секция №1: Социогуманитарные основы формирования государственной политики с применением технологий искусственного интеллекта


Проекты ИИ требуют обязательной экспертизы силовых структур

Наталья Касперская: развивая технологии ИИ, необходимо учитывать все риски