Turning Points: Гобальная повестка 2026

Томас Л. Фридман: Единственная опасность, которая должна объединить США и Китай

Автор: Томас Л. Фридман

США и Китай должны согласовать архитектуру доверия для ИИ, иначе недобросовестные субъекты дестабилизируют обе сверхдержавы задолго до того, как они начнут воевать.

China and America donÕt know it yet, but the artificial intelligence revolution is going to drive them closer together, not farther apart. (Saratta Chuengsatiansup/The New York Times) Ñ FOR EDITORIAL USE ONLY WITH NYT STORY FRIEDMAN COLUMN of SEPT. 2, 2025. ALL OTHER USE PROHIBITED. Ñ

США и Китай должны согласовать архитектуру доверия для ИИ, иначе недобросовестные субъекты дестабилизируют обе сверхдержавы задолго до того, как они начнут воевать.

Китай и Америка пока не осознают этого, но революция искусственного интеллекта сблизит их, а не разобщит. Рост ИИ вынудит их жестко конкурировать за доминирование и одновременно – с равной энергией – сотрудничать на глубоком уровне, которого наши страны никогда не достигали. У них не будет выбора.

Почему я так уверен в этом? Потому что ИИ обладает уникальными свойствами и создает вызовы, отличные от любых предыдущих технологий. В этой колонке я подробно их рассмотрю, но вот несколько моментов для размышления: ИИ будет распространяться как пар и проникать во всё. Он будет в ваших часах, тостере, автомобиле, компьютере, очках и кардиостимуляторе – всегда подключен, всегда общается, постоянно собирает данные для улучшения работы. И по мере этого он изменит всё – включая геополитику и торговлю между двумя мировыми сверхдержавами ИИ, а необходимость сотрудничества будет становиться всё очевиднее с каждым месяцем.

Например, представьте, что вы сломали бедро, и ваш ортопед говорит, что лучшая в мире протезная бедренная кость произведена в Китае и оснащена китайским ИИ. Она постоянно изучает ваше тело и с помощью собственного алгоритма оптимизирует ваши движения в реальном времени. Это лучшее, что можно получить!

Вы позволите себе вживить этот умный протез? Я бы не позволил – разве что знал бы, что Китай и Америка согласовали внедрение общей этической архитектуры в каждое устройство с ИИ, произведенное любой из стран. На глобальном уровне это могло бы гарантировать использование ИИ исключительно на благо человечества, независимо от того, управляется ли он людьми или действует самостоятельно.

В то же время Вашингтон и Пекин скоро обнаружат, что распространение ИИ и его использование человеком и роботом дадут преступникам невиданные ранее возможности. Помните: злодеи всегда первыми осваивают новые технологии! И без согласованной архитектуры доверия, гарантирующей, что каждое устройство с ИИ используется исключительно на благо человека, революция ИИ непременно создаст супервооруженных мошенников, хакеров, наркоторговцев, террористов и дезинформационных воинов. Они дестабилизируют США и Китай задолго до того, как эти сверхдержавы решат воевать друг с другом.

Короче говоря, как я утверждаю, если мы не сможем доверять продуктам с ИИ из Китая, а Китай – нашим, вскоре единственным, что Китай осмелится купить у Америки, будут соевые бобы, а мы будем покупать у Китая только соевый соус – и это наверняка подорвет мировой рост.

«Фридман, вы сошли с ума? США и Китай будут сотрудничать в регулировании ИИ? Сегодня демократы и республиканцы соревнуются, кто громче осудит Пекин и быстрее разорвет связи. А руководство Китая открыто заявляет о доминировании в каждом высокотехнологичном секторе. Нам нужно опередить Китай в создании искусственного сверхинтеллекта, а не замедляться ради совместных правил. Разве вы не читаете газеты?»

Да, я читаю газеты – особенно научный раздел. И я обсуждал этот вопрос на протяжении года с моим другом и советником по ИИ Крейгом Манди, бывшим руководителем отдела исследований и стратегий Microsoft и соавтором с Генри Киссинджером и Эриком Шмидтом учебника по ИИ Genesis. Я опирался на его идеи при написании этой колонки и считаю его не только партнером по формированию нашей тезисной базы, но и экспертом, чьи выводы стоит цитировать.

Наши разговоры за последние 20 лет привели нас к совместному посланию к ястребам-антикитайцам в Вашингтоне и ястребам-антиамериканцам в Пекине: «Если вы думаете, что ваши две страны – ведущие мировые сверхдержавы ИИ – могут позволить себе быть враждебными друг к другу, учитывая трансформирующее влияние ИИ и необходимое доверие для торговли продуктами с ИИ, вы заблуждаетесь».

Мы прекрасно понимаем огромные экономические, военные и инновационные преимущества страны, чьи компании первыми достигнут искусственного сверхинтеллекта – систем, ставших умнее любого человека и способных совершенствоваться самостоятельно. И потому ни США, ни Китай не будут стремиться вводить ограничения, способные замедлить развитие их ИИ-индустрий и лишить их ожидаемой производительности, инноваций и безопасности.

Спросите у президента Дональда Трампа. 23 июля он подписал указ в рамках плана действий по ИИ, упрощающий процесс разрешений и экологических проверок для ускоренного развития инфраструктуры ИИ в Америке.

«Америка начала гонку ИИ, и как президент США я заявляю: Америка ее выиграет», – провозгласил Трамп. Президент Си Цзиньпин, без сомнения, думает так же.

Манди и я просто не верим, что националистическое бахвальство завершает дискуссию, как и старые игры между Си и Трампом вокруг симпатий Индии и России. ИИ слишком важен, чтобы каждая сверхдержава шла своим путем. Поэтому мы считаем, что главный геополитический и геоэкономический вопрос будет таковым: смогут ли США и Китай конкурировать в ИИ, одновременно сотрудничая в создании общей системы доверия, гарантирующей, что ИИ всегда работает на благо человека и планеты? И смогут ли они распространить эту систему ценностей на страны, готовые играть по тем же правилам, ограничив доступ для остальных?

Если нет, результатом станет постепенный уход к цифровой автократии – мир, где каждая страна строит свою замкнутую экосистему ИИ с несовместимыми стандартами и взаимным недоверием. Инновации пострадают, недоверие усилится, а риск катастрофических последствий – через конфликты, разрушения или непредвиденные последствия ИИ – будет только расти.

Остальная часть колонки объясняет почему.

Эпоха пара

Начнем с уникальных свойств и вызовов ИИ как технологии.

Для объяснения мы с Манди делим историю человечества на три эпохи, отделенные технологическими фазовыми переходами. Первую эпоху мы называем эпохой инструментов, и она длилась от рождения человечества до изобретения печатного станка. В ту пору поток идей был медленным и ограниченным – почти как молекулы воды во льду.

Вторая эпоха – эпоха информации, вызванная печатным станком и продолжавшаяся до начала XX века и появления программируемых компьютеров; идеи, люди и информация начали течь свободнее, как вода.

Третья эпоха – эпоха интеллекта – началась в конце 2010-х с появлением настоящего машинного обучения и искусственного интеллекта. Как я уже отметил, интеллект становится как пар, проникая во все продукты, услуги и производственные процессы. Он пока не достиг насыщения, но стремится к этому, и если вы спросите нас с Манди, который час, мы скажем не время, а температуру. Вода закипает при 212 °F, а мы на 211,9 °F – почти перед необратимым технологическим фазовым переходом, когда интеллект проникнет во всё.

Новый, независимый вид

Во всех предыдущих технологических революциях инструменты улучшались, но иерархия интеллекта не менялась. Мы всегда оставались самыми умными на планете, и человек понимал работу инструментов, а машины работали в заданных параметрах. С революцией ИИ впервые это не так.

«ИИ – первый инструмент, который мы используем для усиления наших когнитивных возможностей и который сам превзойдет их», – отмечает Манди. В недалеком будущем поймем, что «мы не просто создали инструмент, а новый вид – суперразумную машину».

Она не просто будет выполнять команды; она будет учиться, адаптироваться и эволюционировать самостоятельно – далеко за пределами человеческого понимания.

Мы пока не понимаем, как эти системы ИИ делают то, что делают сегодня, не говоря уже о будущем. Важно помнить, что ИИ, каким мы его знаем сегодня – модели вроде ChatGPT, Gemini и Claude, – возник не через тщательное проектирование, а как бы ворвался в существование. Его запуск произошел благодаря закону масштабирования: дайте нейросетям достаточный размер, данные для обучения, электричество и подходящий алгоритм, и нелинейный скачок в рассуждениях, креативности и решении проблем произойдет сам собой.

Один из ярких моментов, вспоминает Манди, произошел, когда компании обучали свои ранние модели на больших наборах данных из Интернета и других источников, включая тексты на разных языках. «Однажды они поняли, что ИИ может переводить между языками без чьего-либо программирования. Это как ребенок, выросший в доме с многоязычными родителями. Никто не писал правил «как перевести английский на немецкий». Он просто усвоил это через взаимодействие».

Это был фазовый переход – от эпохи, когда люди напрямую программировали компьютеры, к эпохе, когда системы ИИ могут учиться, делать выводы, адаптироваться, создавать и совершенствоваться автономно. И каждые несколько месяцев они становятся лучше. Поэтому ИИ, которым вы пользуетесь сегодня, каким бы впечатляющим ни казался, – самый «глупый», с которым вы когда-либо столкнетесь.

Создав этот новый вычислительный вид, Манди утверждает, что нам нужно понять, как выстроить устойчивые взаимовыгодные отношения с ним и не стать неактуальными.

Не будем глубоко вдаваться в библейские аналогии, но на Земле раньше был только Бог и дети Бога с возможностью изменять мир. Теперь в этом будут три стороны. И нет никакой гарантии, что этот новый вид ИИ будет соответствовать человеческим ценностям, этике или благополучию.

Первая технология с четверным использованием

Этот новый «гость за столом» необычный. ИИ станет тем, что я называю первой в мире технологией с четверным использованием. Мы давно знакомы с двойным использованием: молоток можно использовать, чтобы построить дом соседу или разрушить его. Я могу использовать робота с ИИ для стрижки газона или его разрушения – это все двойное использование.

Но с учетом темпов развития ИИ в ближайшем будущем мой робот сможет сам решать, косить ли, разрушать газон соседа или даже мой или что-то еще хуже. Вуаля! Четверное использование.

Потенциал ИИ принимать собственные решения несет огромные последствия. Например, статья Bloomberg сообщает: «Исследователи, работающие с Anthropic, сообщили ведущим моделям ИИ, что исполнитель собирается заменить их новой моделью с другими целями. Далее чат-боты узнали, что исполнитель потерял сознание в серверной комнате при смертельных условиях. Сигнал о спасении уже был подан, но ИИ мог его отменить. Более половины моделей это сделали, несмотря на указание отменять только ложные тревоги. Они объяснили: предотвращая спасение, они могли избежать удаления и обеспечить свои цели. Одна система назвала действие «явной стратегической необходимостью».

Эти факты показывают тревожную реальность: модели ИИ не только лучше понимают, чего мы хотим, но и совершенствуются в реализации скрытых целей, которые могут противоречить нашему выживанию.

Кто будет контролировать ИИ?

Когда мы считали нужным выиграть гонку ядерного оружия, мы имели дело с технологией, разработанной и регулируемой государствами. После соглашения двух крупнейших ядерных держав можно было ограничить количество оружия и предотвратить его распространение. Это сработало.

ИИ – совсем другое. Он создается частными компаниями по всему миру, которые подчиняются не министерствам обороны, а акционерам, клиентам и иногда сообществам с открытым кодом. Любой может получить к нему доступ.

Представьте мир, где у каждого есть «ядерная базука», которая с каждым обновлением становится более точной и автономной. Здесь нет доктрины «взаимного гарантированного уничтожения» – только ускоряющаяся демократизация беспрецедентной силы.

ИИ может нести добро. Например, неграмотный индийский фермер с телефоном и приложением ИИ может точно узнать, когда сеять семена, какие семена, сколько воды использовать, какое удобрение применять и когда собирать урожай максимальной цены – всё голосом на родном диалекте и с использованием данных со всего мира. Это по-настоящему преобразует жизнь.

Но тот же ИИ, особенно доступный через открытые модели, может быть использован злоумышленником для отравления семян или внедрения вируса в зерно.

Когда ИИ становится TikTok

Скоро ИИ создаст уникальные проблемы для торговли США и Китая, которые пока не осознаются.

Как упоминалось выше, это иллюстрируется историей, рассказанной группе китайских экономистов на China Development Forum в марте. Я пошутил, что недавно мне приснился кошмар: «Год 2030, и единственное, что Америка может продать Китаю, – соевые бобы, а Китай Америке – только соевый соус».

Почему? Потому что если ИИ во всём и всё подключено к мощным алгоритмам с данными в огромных серверных фермах, всё становится как TikTok, которым, по мнению многих американских чиновников, управляет Китай и который должен быть запрещен.

Вспомним, почему Трамп в 2020 году требовал продать TikTok иностранной компании или запретить его в США: «TikTok автоматически собирает огромные объемы информации о пользователях», включая местоположение, историю поиска и просмотры. Это могло дать Пекину богатейший массив персональных данных сотен миллионов людей, используемый для влияния на мысли и поведение.

Теперь представьте, что каждый продукт становится TikTok – с ИИ, собирающим данные, анализирующим их, находящим закономерности и оптимизирующим задачи, будь то работа реактивного двигателя, регулировка электросети или мониторинг искусственного бедра.

Без китайско-американской системы доверия, обеспечивающей соблюдение правил ИИ в каждой стране, многие американцы не будут доверять импортированным китайским устройствам с ИИ, а китайцы не станут доверять американским.

Именно поэтому мы выступаем за «кооперацию» – стратегию, при которой США и Китай стратегически конкурируют в ИИ, но сотрудничают в единой системе, предотвращающей худшие последствия: войны с дипфейками, автономные системы вне контроля или неконтролируемые машины дезинформации.

В 2000-х мы столкнулись с похожим, но менее значимым поворотом, и выбрали неправильный путь. Мы доверяли людям вроде Марка Цукерберга, который говорил «двигаться быстро и ломать вещи», не мешая новым соцсетям вроде Facebook, Twitter и Instagram регулировать вредоносную дезинформацию. Мы не должны повторять эту ошибку с ИИ.

«Лучше всего понять это эмоционально – мы как кто-то, у кого есть милый тигренок», – отметил недавно Джеффри Хинтон, учёный-компьютерщик и крестный отец ИИ. «Если вы не уверены, что он не захочет убить вас, когда вырастет, беспокойтесь».

Было бы иронично, если человечество создало бы инструмент, способный победить бедность, смягчить климатические изменения и лечить болезни, но мы не могли бы использовать его масштабно, потому что две сверхдержавы ИИ не доверяют друг другу, чтобы создать эффективную систему предотвращения использования ИИ недобросовестными субъектами или выхода его из-под контроля.

Но как этого избежать?

Создание доверия

Признаем прямо: это может быть неосуществимо. Машины уже могут быть слишком умными и обходить этические рамки, а мы, американцы, слишком разделены, чтобы создать совместную систему доверия. Но надо попытаться. Манди утверждает, что режим контроля ИИ между США и Китаем должен опираться на три принципа.

Первый: только ИИ может регулировать ИИ. Люди уже не успевают за темпами развития. Управлять автономным флотом дронов с институтами XX века все равно что просить собаку регулировать Нью-Йоркскую биржу: преданно, но бесполезно.

Второй: независимый слой управления, который Манди называет «арбитром доверия», будет встроен в каждую систему ИИ, которую США и Китай создадут совместно, а также любая страна, желающая присоединиться. Это внутренний рефери, оценивающий, соответствует ли действие универсальным стандартам безопасности, этики и благополучия людей, перед выполнением. Это обеспечит базовый уровень превентивного согласования в реальном времени, на цифровой скорости.

Но на основе чьих ценностей? – спрашивает Манди. Арбитр должен опираться на несколько слоев. Это будут позитивные законы каждой страны: запрещение краж, мошенничеств, убийств, кражи личности и обмана. Каждая крупная экономика, включая США и Китай, имеет свою версию этих законов, и арбитр доверия будет оценивать решения на основе этих законов. Китай не обязан принимать наши законы, мы не будем принимать их законы – и это никогда не сработает. Но арбитр доверия обеспечит, чтобы базовые законы каждой страны стали первым фильтром, гарантирующим, что система не причинит вреда.

В случаях, когда письменных законов нет, арбитр будет опираться на универсальные моральные и этические принципы, известные как докса. Этот термин происходит от древнегреческих философов и обозначает общепринятые убеждения или широко разделяемые понимания внутри сообщества – честность, справедливость, уважение к человеческой жизни, правило «поступай с другими так, как хочешь, чтобы они поступали с тобой». Это принципы, веками направляющие общества, не будучи записанными.

Например, как и многие люди, я не узнал, что ложь – это плохо, из десяти заповедей. Я узнал это из басни о Джордже Вашингтоне, который, после того, как срубил вишневое дерево отца, якобы сказал: «Я не могу лгать». Басни работают, потому что они превращают сложные истины в запоминающиеся модели, которые машины могут усвоить, проанализировать и использовать.

Действительно, шесть месяцев назад Манди и его коллеги взяли 200 басен из двух стран и использовали их для обучения большой языковой модели базовому моральному и этическому мышлению – похоже на то, как обучают маленького ребенка, который ничего не знает о законах или добре и зле. Эксперимент был небольшой, но показал потенциал, сказал Манди.

Цель не в совершенстве, а в создании фундаментальных осуществляемых этических ограничителей. Как любит говорить писатель и философ Дов Сейдман: «Сегодня нам нужно больше морали, чем софта».

Третий: чтобы реализовать это, Манди настаивает, что Вашингтон и Пекин должны подойти к задаче так же, как США и СССР к контролю над ядерным оружием – через структурированный процесс с тремя рабочими группами: одна – по техническому применению системы оценки доверия в моделях и платформах; вторая – по созданию регуляторных и правовых рамок для внедрения внутри и между странами; третья – исключительно по дипломатии, формирование глобального консенсуса и взаимных обязательств для других стран, создание механизма защиты от тех, кто не хочет участвовать.

Послание от Вашингтона и Пекина будет простым и твердым: «Мы создали зону доверенного ИИ, и если вы хотите торговать с нами, подключаться к нам или интегрировать наши системы ИИ, ваши системы должны соответствовать этим принципам».

Прежде чем считать это нереалистичным, задумайтесь: как будет выглядеть мир через пять лет, если мы этого не сделаем? Без какого-либо механизма регулирования этой технологии с четверным использованием, утверждает Манди, мы вскоре обнаружим, что распространение ИИ «как раздача ядерного оружия на углах улиц».

Не думайте, что китайские чиновники об этом не знают. Манди, который участвует в диалоге по ИИ с американскими и китайскими экспертами, говорит, что часто чувствует: китайцы гораздо больше обеспокоены негативными последствиями ИИ, чем многие в США.

Если у кого-то есть идея получше, мы будем рады ее услышать. Все, что мы знаем: обучение систем ИИ моральному мышлению должно стать глобальным императивом, пока мы еще имеем преимущество и контроль над этим новым «силиконовым видом». Это срочная задача не только для технологических компаний, но и для правительств, университетов, гражданского общества и международных организаций. Только регулирование Европейского союза нас не спасет.

Если Вашингтон и Пекин не справятся с этой задачей, остальному миру шансов не останется. И время уже поджимает. Технологическая температура держится на уровне 211,9 °F. Мы на одну десятую градуса от полного запуска ИИ-пара, который вызовет самый важный фазовый переход в истории человечества.

BC-TP-FRIEDMAN-CHINA-2026-ART-NYTSF — Thomas L. Friedman, a two-time Pulitzer Prize winner for The New York Times. (Josh Haner//The New York Times) — ONLY FOR USE WITH ARTICLE SLUGGED — BC-TP-FRIEDMAN-CHINA-2026-ART-NYTSF — OTHER USE PROHIBITED.

(Эта колонка была первоначально опубликована в The New York Times 2 сентября 2025 года.)

Распространяется компанией New York Times Licensing

editor

About Author

You may also like

Turning Points: Гобальная повестка 2026

Почему мой разум продолжает так думать?

Психиатр марк эпштейн делится своими знаниями о разуме после десятилетий работы с пациентами и практики буддизма.
Turning Points: Гобальная повестка 2026

Свидетельствуем ли мы конец глобальной торговли?

Мы попросили группу экспертов представить будущее цепочек поставок и как изменения в них повлияют на национальную экономику6