США, Китай и искусственный интеллект: The Economist о дилемме в духе «холодной войны»
Когда 14–15 мая в Пекине встретятся Си Цзиньпин и Дональд Трамп, к традиционному набору сложных тем — войне на Ближнем Востоке, торговым дисбалансам и статусу Тайваня — может добавиться искусственный интеллект.
Об этом пишет The Economist в материале, опубликованном под заголовком «AI creates a fearsome cold-war-style dilemma» («ИИ создаёт пугающую дилемму в духе холодной войны»).
По оценке издания, элиты в Пекине и Вашингтоне всё больше встревожены скоростью развития технологии: чем умнее становятся модели, тем важнее они для экономики и геополитического веса страны — но одновременно растут и связанные с ними риски.
«Со времён создания атомной бомбы великие державы не сталкивались с подобной дилеммой», — отмечает The Economist.
Поводом для тревоги стала модель Mythos. Издание сообщает, что в апреле американская лаборатория Anthropic (создатели ИИ Claude) заявила о создании модели, настолько эффективно находящей уязвимости в кибербезопасности, что её решили не публиковать. Реакция была международной: китайские государственные СМИ после первоначального скептицизма отметили у Mythos «беспрецедентные возможности для кибератак», а один из российских телеканалов назвал её «хуже ядерной бомбы».
По данным The Economist, после этого эпизода администрация Трампа отказалась от прежнего подхода невмешательства в регулирование технологий и рассматривает возможность обязательной государственной проверки новых моделей.
Стратегические позиции сторон различаются
Как пишет The Economist, часть американского технологического сообщества полагает, что страна, первой создавшая самосовершенствующуюся ИИ-модель, получит огромное стратегическое преимущество. Китайские же эксперты склонны рассматривать ИИ как ключ к экономическому росту — «скорее ядерная энергетика, чем ядерное оружие», формулирует издание. При этом ни одна из сторон не готова замедлять собственное развитие, опасаясь отдать преимущество сопернику.
Голоса в пользу сотрудничества звучат с обеих сторон
На мероприятии в Капитолии в конце апреля советник китайского правительства Сюэ Лань заявил о «взаимном интересе» США и Китая в безопасности ИИ. «Если одна страна не в безопасности, то и все мы не в безопасности», — приводит его слова The Economist. Сюэ Лань вместе с главой пекинского института безопасности ИИ Цзэн И призвали к глобальным усилиям по регулированию и даже замедлению развития ИИ. Это, отмечает издание, согласуется с официальной линией Пекина: после появления ChatGPT в 2022 году Китай продвигает идею международного сотрудничества и создания органа при ООН, а китайские дипломаты вбрасывают идею «паузы» в развитии ИИ.
Три возможных формата сотрудничества
Первый — диалог, или «стратегические заверения» (strategic reassurance) по аналогии с переговорами о ядерных вооружениях: страны могли бы писать правила параллельно, без формальной координации.
«Если они читают одни и те же технические работы и имеют схожее представление о реальности, обе стороны могут принимать разумные ответные меры», — цитирует издание Карсона Элмгрена из Institute for AI Policy and Strategy.
Второй формат — согласование общих методов тестирования безопасности моделей без обмена результатами.
Третий, наиболее амбициозный, — формальное соглашение о совместных тестах и обмене их результатами с инспекциями по образцу МАГАТЭ.
Препятствий для сотрудничества пока больше, чем стимулов
Американские исследователи, по данным The Economist, скептически относятся к искренности китайских чиновников: китайские лаборатории сравнительно слабо занимаются безопасностью, а документация к недавно выпущенной модели DeepSeek v4 не содержала тех мер защиты, которые приняты в американских лабораториях. Бывший чиновник администрации Байдена Райан Федасюк, по версии издания, полагает, что заявления Китая о безопасности ИИ носят показной характер и делаются, по его словам, «чтобы выставить американцев в невыгодном свете».
The Economist также напоминает, что в 2024 году в Женеве США направили на переговоры старших чиновников по безопасности и технических специалистов, тогда как Китай прислал политических представителей, которые отказались обсуждать безопасность ИИ до отмены американских экспортных ограничений на передовые чипы. Эксперт Карнеги Тун Чжао объясняет осторожность Пекина исторической памятью: опыт «неравных договоров» XIX века делает китайских чиновников подозрительными к соглашениям с технологически более сильным партнёром.
Ставки сторон обозначены предельно жёстко
Министр финансов США в апреле заявил Wall Street Journal: «Если мы не выиграем в ИИ, то это конец игры».
Си Цзиньпин назвал ИИ «эпохальным».
Однако, как заключает The Economist, скоро лидеры обеих стран могут начать воспринимать ИИ как экзистенциальный по иным причинам.
«К сожалению, исторический опыт показывает, что реальный импульс появляется только после трагической аварии», — цитирует издание Джеффри Дина из Университета Джорджа Вашингтона, напоминая о глобальных стандартах, принятых после катастрофы в Бхопале в 1984 году и аварии на Чернобыльской АЭС в 1986-м.
«Переговоры по ИИ остаются настоящей проверкой человеческого интеллекта», — резюмирует The Economist.


















