Искусственный интеллект (ИИ) все чаще называют одним из ключевых рисков мировой политики и международной безопасности. Дипфейки способны провоцировать дипломатические кризисы и засорять информационное пространство, а использование ИИ в военной сфере давно перестало быть фантастикой про войны роботов и стало реальностью. На этом фоне, несмотря на гонку технологий между США и Китаем, многие государства пытаются договориться об общих правилах игры. О том, какие угрозы несет ИИ для политики и дипломатии и почему он усиливает разрыв между странами, «Ленте.ру» рассказала кандидат политических наук, доцент СПбГУ и приглашенный преподаватель НИУ ВШЭ, эксперт дискуссионного клуба «Валдай» и генеральный директор АНО «Колаборатория» Анна Сытник.
«Лента.ру»: В последнее время слишком много говорят о влиянии дипфейков на политические процессы. Они и впрямь представляют реальную угрозу?

Анна Сытник: И да и нет. Фальшивые фото и видео — не сегодняшнее открытие.
Для дискредитации политических оппонентов этим приемом пользуются очень давно. Но ретушеры и мастера фотошопа почему-то не пугают людей.
ИИ просто дал в руки обывателя гораздо более широкий инструментарий. Теперь условный школьник может за пять минут сделать «компрометирующее» видео со своей ненавистной классной руководительницей. Но, откровенно говоря, большинство людей уже привыкло к подобному контенту и не принимает все за чистую монету.
Наоборот, ИИ внес вклад в повышение критического мышления обычного человека
Тем не менее проблема есть. Ее признают, и для ее решения регуляторные органы разных стран предлагают различные меры — от запрета на генерацию подобных фото- и видеоматериалов до обязательной маркировки контента, созданного ИИ. При этом многие правительства делают ставку и на развитие цифровой грамотности населения.

Но если говорить о международных отношениях, где работают образованные и опытные люди, то как дипфейки могут повлиять на их решения?
Дипфейки создают риск провокаций и ошибочных решений.
Представим, что появляется видео с заявлением лидера некой страны о ракетном ударе, мобилизации или выходе из переговоров. Даже если это фейк, в первые часы он способен запустить панику, обвалить рынки, вынудить к ответным действиям и сорвать дипломатические процессы.
Вторая проблема — размывание доказательств.
Любые реальные записи и документы становится проще оспаривать фразой «это дипфейк», что подрывает расследования, международные разбирательства и саму доказательность в политике
Есть и еще один уровень — ИИ-спам. Массовый поток синтетического контента забивает инфополе и делает управляемым внимание аудитории. В таком шуме проще скрывать правду и навязывать нужную повестку.
А что предлагается делать для борьбы с дипфейками на международном уровне?
На международном уровне бороться предлагается не запретами, а правилами и процедурами.
Во-первых, нужны заранее согласованные протоколы быстрой проверки и опровержения информации в кризисных ситуациях. Страны должны реагировать не на ролики из соцсетей, а действовать по понятной и согласованной процедуре.
Во-вторых, необходимы технические стандарты происхождения контента: маркировка синтетики, сохранение метаданных, «цепочки происхождения» для официальных видео и заявлений.
В-третьих, важно повышать ответственность платформ, чтобы политически опасные вбросы и сетевые кампании не разгонялись алгоритмами без контроля.
Наконец, нужны меры против ИИ-спама: антиспам-стандарты, прозрачность политической рекламы и сетей аккаунтов, ограничения на массовую автоматическую публикацию.
Главная цель — восстановить доверие через понятные процедуры и инфраструктуру проверки, а не надеяться на один детектор или один запрет

А где ИИ может быть полезен в политических процессах?
ИИ в политике — это «сквозная технология». Он похож на электричество: его не всегда видно, но он встраивается почти во все процессы.
Прежде всего ИИ используют в государственном управлении. Он помогает быстрее обрабатывать документы и обращения граждан, выявлять ошибки и нарушения, прогнозировать нагрузку на социальные системы, поддерживать работу налоговых и контрольных органов, управлять городскими сервисами.
Это делает государство более производительным, но одновременно поднимает вопросы прозрачности: кто и как проверяет решения алгоритма
Второе ключевое направление — безопасность. ИИ анализирует большие массивы данных, помогает разведке и аналитическим центрам, используется в киберзащите, раннем выявлении угроз и мониторинге рисков. Его ценность — в скорости обработки информации, но ошибки здесь могут стоить очень дорого.
Третье направление — экономика и инфраструктура вокруг политики.
ИИ стал двигателем конкуренции: где есть вычисления, дата-центры, энергия и кадры, там больше возможностей и влияния
Именно поэтому правительства все чаще говорят об ИИ как о вопросе суверенитета. Это не просто модная тема. Без доступа к вычислениям и технологиям страна начинает зависеть от чужих правил. Этому, кстати, посвящен наш недавний доклад.
ИИ стал важным фактором международной безопасности. Как он используется военными?
ИИ — это классическая технология dual use, то есть технология двойного назначения. В современных конфликтах он активно применяется прежде всего для разведанализа, управления беспилотниками, киберопераций и ускорения принятия решений.
Это не «роботы, которые воюют сами», а усилитель скорости и точности
Но чем выше скорость, тем выше риск ошибки и эскалации. Это может приводить к ложным тревогам, неверной атрибуции и решениям «на автомате». Поэтому необходим международный диалог — согласование минимальных правил применения dual use и каналов предотвращения инцидентов даже между конкурентами.

Как технологии ИИ меняют характер военных конфликтов?
Главное изменение связано с ролью человека. Он все чаще уходит от прямого столкновения и переходит к управлению дистанционной техникой.
Теперь военный — оператор и аналитик, а не солдат в классическом смысле
Дискуссия о допустимости применения ИИ в летальных системах вооружений идет уже давно. Передача машине права самостоятельно принимать решение о нанесении удара — крайне серьезный шаг. Помимо этических вопросов возникает проблема распределения ответственности в случае фатальных ошибок.
Сейчас активно развиваются проекты по внедрению ИИ в системы противоракетной и противовоздушной обороны. Это ответ на появление гиперзвукового оружия, где скорости реакции человека уже недостаточно. И это опасное направление.
Никому не хочется, чтобы сценарий фильма «Терминатор», где система «Скайнет» решила уничтожить человечество, стал реальностью
Именно поэтому внедрение ИИ в стратегические системы вооружений будет максимально осторожным.
Использование ИИ ведет к росту вооруженных конфликтов или, наоборот, сдерживает стороны?
Сама по себе технология ИИ вряд ли приведет к росту числа конфликтов. Это скорее следствие обострения противоречий между ведущими державами за ресурсы и рынки. Но характер боевых действий, безусловно, изменится.
Есть надежда, что со временем появятся соглашения по логике контроля над ядерным вооружением: прозрачность, красные линии, каналы предотвращения инцидентов, запреты на наиболее опасные практики.
Однако реалистичный сценарий предполагает сначала фазу обострения.
Новые технологии обычно проходят этап гонки и испытаний «на практике». Лишь накопив страх ошибок и опыт, стороны готовы договариваться
Но диалог уже идет.

Усиливается ли разрыв между лидерами в сфере ИИ и отстающими странами?
Сейчас идет настоящая гонка ИИ — прежде всего между США и Китаем. Это своего рода трасса без карты, поскольку четких правил пока нет.
Разрыв между лидерами и отстающими растет, потому что это гонка не только моделей, но и вычислений, энергии и инфраструктуры
У лидеров значительно больше ресурсов и денег. Размеры ВВП несопоставимы, и это напрямую влияет на возможности.
К чему приводит этот разрыв?
Он ведет к новой форме технологической зависимости. Страны начинают покупать у IT-гигантов не просто софт, а экосистемы «под ключ» вместе со стандартами и условиями доступа — фактически суверенитет как сервис.
Этому противостоят отдельные государства, в том числе Китай и Россия, а также международные форматы — ООН, БРИКС и региональные объединения.
Китай продвигает идею создания глобальной организации по ИИ, Россия эту линию поддерживает. Цель — не замедлить технологии, а выработать правила и обеспечить более справедливый доступ к инфраструктуре и данным, не допуская цифрового колониализма.

Насколько единым в развитии ИИ выступает Европейский союз (ЕС)?
ЕС не полностью един. В регулировании он достаточно монолитен: есть общий подход к стандартам, рискам и ответственности.
Но внутри ЕС идет конкуренция за реальную мощь: вычисления, дата-центры, энергию, деньги программ и таланты
У стран разные приоритеты: промышленный ИИ, сервисы, финтех, привлечение глобальных облаков или развитие суверенных решений. Поэтому ЕС говорит одним голосом о правилах, но развивается как Европа разных скоростей.
Недавно по этой теме главный аналитик нашего центра Дарья Моисеева подготовила рабочую тетрадь о цифровом управлении в ЕС и заметку о втягивании Европейского союза в глобальную гонку ИИ.
Какова стратегия России в сфере развития ИИ?
Стратегия России должна быть не про гонку с США и Китаем, а про суверенный контур и качество внедрения.
Нужен прагматичный путь: суверенность в критических технологиях и инфраструктуре сейчас и прорывные направления на завтра
Гонка за самыми мощными моделями на текущем этапе — заведомо проигрышная стратегия. Гораздо важнее развивать международное сотрудничество, предпосылки для которого уже есть.
Национальная стратегия развития ИИ до 2030 года делает акцент на прикладном эффекте: типовые решения для отраслей, рост производительности, развитие отечественных платформ, подготовку специалистов и доверенные режимы работы с данными.
Параллельно укрепляется вычислительная и энергетическая база и выстраивается государственная координация.
Россия может показать, как сделать рывок за счет эффективного внедрения генеративного ИИ в экономику, и тем самым усилить свои позиции в гонке

С какими проблемами связано дальнейшее развитие ИИ?
Есть несколько ключевых вызовов.
Во-первых, ИИ-пузырь. Ожидания и инвестиции перегреты, особенно в США.
В 2026 году рынок будет требовать доказуемой отдачи — не демонстраций, а реального экономического эффекта
Во-вторых, нейротех и биотех. ИИ все глубже проникает в медицину, работу с биоданными и генной инженерией, что резко повышает ставки по этике и безопасности.
Третья проблема — милитаризация. Появление tech force в США это наглядно демонстрирует.
Наконец, существуют эксперименты с использованием ИИ в сомнительных политических целях, включая создание националистических языковых моделей.
Отдельный вызов — энергетический голод и уязвимость инфраструктуры: дата-центры становятся критическими объектами и трансформируются в «ИИ-бункеры»
В ближайшее время мы увидим и новый виток «повседневного ИИ»: встроенные в телефоны и операционные системы решения, массовое распространение ИИ-агентов. Меняется и образование — речь уже не о запрете, а о том, как встроить ИИ так, чтобы он усиливал мышление.
ИИ будет активно использоваться и в космической отрасли. Уже сегодня это автоматическое управление спутниковыми группировками. SpaceX применяет ИИ для эксплуатации Starlink, а компании Planet и Maxar — для анализа спутниковых снимков. Параллельно обсуждаются проекты орбитальных дата-центров.

Что будет с гонкой в сфере ИИ?
Гонка США и Китая за создание «сверхинтеллекта» продолжится, а технологический протекционизм усилится. Но параллельно развивается и сотрудничество.
Коллективные усилия мирового большинства по глобальному регулированию и балансированию этого процесса выйдут на новый уровень
