Автор: Томас Л. Фридман
АҚШ пен Қытай жасанды интеллектіге қатысты ортақ сенім архитектурасын жасамаса, бақылаусыз топтар екі елдің іргесін соғыссыз-ақ шайқалтуы мүмкін.

Қытай да, АҚШ та жасанды интеллект төңкерісі оларды бір-бірінен алшақтатпай, керісінше, бұрынғыдан да жақындата түсетінін әзірге аңғармай отыр. ЖИ-дың дамуы оларды үстемдікке таласуға мәжбүр ететіні анық, бірақ екінші жағынан, дәл сондай қарқынмен бұрын-соңды болмаған деңгейде ынтымақтастық орнатуға итермелейді. Бұдан басқа жол да жоқ.
Мен мұны неге соншалықты нық сеніммен айтып отырмын? Өйткені жасанды интеллектінің қасиеттері де, ол тудыратын қатерлер де бұрынғы кез келген технологиядан мүлде өзгеше. Бұл мақалада соның бәрін егжей-тегжей түсіндіремін. Бірақ алдымен ойлануға тұрарлық екі жайт бар.
Жасанды интеллект бу секілді тарап, барлық салаға сіңіп кетеді. Ол сіздің қолсағатыңызда, тостеріңізде, көлігіңізде, компьютеріңізде, көзілдірігіңізде және жүрек стимуляторында болады: әрдайым қосулы, әрдайым байланыста, әрдайым өнімділікті арттыру үшін деректер жинап тұрады. Осылайша, ол дүниенің бәрін – тіпті геосаясат пен әлемнің екі ЖИ державасы арасындағы геосаясат пен сауданы да түбегейлі өзгертеді. Сол кезде ынтымақтастықтың қажеттігі айдан анық болып, өзектілігі ай сайын арта береді.
Мысалы, сіздің жамбасыңыз сынып қалды делік. Дәрігеріңіз сізге әлемдегі ең жоғары бағаланған жамбас протезі – Қытайда жасалған, қытайлық ЖИ-мен жұмыс істейтін үлгі екенін айтады. Ол сіздің денеңіз туралы деректерді үнемі жинап, өзінің жеке алгоритмі арқылы қозғалысыңызды нақты уақыт режімінде оңтайландырып отырады. Яғни ең жоғары сапалы нұсқа – сол!
Сіз сол «ақылды жамбасты» салдыруға келісер ме едіңіз? Мен мұндайға Қытай мен Америка кез келген елде жасалатын ЖИ-ға негізделген құрылғыға ортақ этикалық архитектура енгізу туралы мәмілеге келгеніне көзім жетпейінше келіспес едім. Осы мәселені ауқымды, жаһандық тұрғыдан қарасақ, мұндай ортақ ережелер жасанды интеллектінің адамдар қолдансын не өздігінен жұмыс істесін тек адамзат игілігі үшін пайдаланылуын қамтамасыз ете алады.
Бірақ дәл сол уақытта Уошиңтон мен Бейжің жақын арада бір жайтты түсінеді: ЖИ-ды жер бетіндегі әр адам мен әр роботтың қолына беру жаман ниетті адамдарды құқық қорғау органдары бұрын-соңды кездестірмеген деңгейде күшейтіп жібереді. Есіңізде болсын: «Жаман жігіттер» жаңа технологияны әрдайым алғашқы болып пайдаланады! Егер АҚШ пен Қытай әрбір ЖИ құрылғысы тек адам игілігіне жұмыс істейтіндей ортақ сенім архитектурасы жөнінде келісімге келмесе, онда ЖИ төңкерісі сөзсіз аса әккі ұрыларды, алаяқтарды, хакерлерді, есірткі тасымалдаушыларын, террористерді және жалған ақпарат таратушыларды тудырады. Олар екі державаға да соғыссыз-ақ қауіп төндіреді.
Қысқасы, дәлелдегелі тұрғаным, егер біз Қытайдың ЖИ енгізілген өнімдеріне сенбесек, ал Қытай біздің өнімдерге сене алмаса, онда таяу келешекте Қытай АҚШ-тан сатып ала алатын жалғыз нәрсе – соя бұршағы, ал АҚШ-тың Қытайдан сатып алуға батылы жететін жалғыз өнім – соя тұздығы болып қалады. Бұл жаһандық өсімді әлсіретпей қоймайды.
«Фридман, есіңіз дұрыс па өзі? АҚШ пен Қытай ЖИ ережелерін бірге әзірлейді дейсіз бе? Қазір демократтар да, республикашылдар да Бейжіңді кім қаттырақ айыптайды, кім жылдамырақ ажырайды деп жарысып жатыр. Ал Қытай басшылығы озық өндірістің барлық саласында үстемдікке жетуді ашық түрде мақсат етіп отыр. Біз Қытайды жасанды суперинтеллектіге дейінгі жарыста жеңуіміз керек, олармен бірге ереже жазып баяулаудың жөні жоқ. Газет оқымайсыз ба не?»
Иә, мен газет оқимын, әсіресе ғылым айдарын. Әрі кейінгі бір жыл бойы бұл мәселені досым әрі ЖИ жөніндегі кеңесшім Крейг Мандимен талқылап келемін. Ол Microsoft-тың зерттеу және стратегия бөлімінің бұрынғы жетекшісі, сондай-ақ Генри Киссинджер мен Эрик Шмидтпен бірге Genesis атты жасанды интеллект жөніндегі кітаптың тең авторы. Осы мақалада мен Мандидің ойларына көп сүйендім, әрі оны біздің ортақ тұжырымымызды қалыптастырудағы серіктесім және негізгі мәселелерді түсіндіретін сарапшы санаймын.
20 жыл бойы талқылап келе жатқан әңгімелеріміз бізді Уошиңтондағы Қытайға қарсы саясаткерлерге де, Бейжіңдегі Америкаға қарсы саясаткерлерге де ортақ мынадай ортақ қорытындыға әкелді: «Егер сіздер ЖИ-дың орасан ықпалын және ЖИ енгізілген тауарлармен сауда жасау үшін қажет сенім деңгейін ескере отырып өз елдеріңіз – әлемдегі басты екі ЖИ алпауыты бір-бірімен өшігіп жүре алады деп ойласаңыздар, қателесесіздер».
Біз жасанды суперинтеллектіге – адамнан анағұрлым ақылды әрі өздігінен біліктілігін арттыра алатын жүйелерге – бірінші болып қол жеткізген елдің экономика, әскери қуат және инновация саласында айрықша артықшылыққа ие болатынын жақсы түсінеміз. Сондықтан да АҚШ та, Қытай да өздерінің ЖИ индустриясын баяулатуы мүмкін әрекет жасауға құлықты емес. Өйткені мұндай шектеулер жасанды интеллектіні кеңінен қолданудан күтілетін өнімділік, инновация және қауіпсіздікке қатысты артықшылықтардан қағуы мүмкін.
Мұны Дональд Трамптан сұрасаңыз болады. 23 шілдеде ол АҚШ-тың ЖИ жөніндегі іс-қимыл жоспарының бір бөлігі ретінде рұқсат беру және экологиялық бағалау үдерісін жеңілдететін, елдегі ЖИ инфрақұрылымын жеделдетуге бағытталған жарлыққа қол қойды.
«Американы ЖИ жарысын бастаған ел дейміз, ал мен АҚШ президенті ретінде бүгін Америка сол жарыста жеңіске жететін ел деп мәлімдеймін, – деді Трамп. Қытай басшысы Си Цзиньпин де дәл сондай ойда екеніне күмән жоқ.
Бірақ Манди екеуіміз мұндай ұраншыл даңғаза әңгіме де, сондай-ақ кейінгі кезде Си мен Трамптың Үндістан мен Ресей ықыласына таласуы да талқыға нүкте қояды дегенге сенбейміз. Жасанды интеллект екі супердержава ішіндегі де, олардың арасындағы да жүйелерді түбегейлі өзгертетін аса маңызды, өте ықпалды құбылыс, сондықтан «әркім өз жолымен жүре беретін» сала емес.
Сол себепті біз үшін ең үлкен геосаяси және геоэкономикалық сұрақ мынау болып қала береді: АҚШ пен Қытай ЖИ саласында бәсекені сақтай отырып, әрдайым адамзат өркендеуіне және планетарлық тұрақтылық қамтамасыз ететін ортақ сенім деңгейінде ынтымақтаса ала ма?
Сондай-ақ өте маңызды тағы бір сұрақ бар: Олар осы құндылықтарға сүйенген жүйені сол ережелерді сақтауға дайын елдерге таратып, ал сақтағысы келмейтіндерге қолжетімділікті шектей ала ма?
Егер бұл мүмкін болмаса, әлем баяу «цифрлық автаркияға» көшеді: әр ел өзіне ғана арналған, оқшауланған ЖИ экожүйесін құрып, бір-біріне үйлеспейтін стандарттар мен өзара күдікпен өмір сүретін болады. Мұндай әлемде инновация баяулайды, сенімсіздік күшейе түседі. Ал ЖИ себеп болуы мүмкін қақтығыстар мен күйреулер, күтпеген салдарлар түріндегі апат қаупі арта береді.
Осы мақаланың қалған бөлігі неге олай болатынын түсіндіреді.
Бу дәуірі
Әуелі жасанды интеллектінің технология ретіндегі бірегей қасиеттері мен қиындықтарын қарастырайық. Түсіндіруге жеңіл болу үшін ғана Манди екеуміз әлем тарихын үш дәуірге бөлеміз, олардың әрқайсысы технологиялық секірістермен бөлінген.
Бірінші дәуірді біз Құралдар дәуірі деп атаймыз. Ол адамзаттың пайда болуынан бастап баспа станогі ойлап табылғанға дейін жалғасты. Бұл кезеңде идеялардың таралуы мұз ішіндегі H₂O молекулалары сияқты баяу әрі шектеулі болды.
Екінші дәуір – Ақпарат дәуірі баспа станогінің пайда болуымен басталып, 20 ғасырдың басындағы бағдарламаланатын компьютерлер пайда болғанға дейін созылды. Бұл дәуірде идеялар, адамдар мен ақпарат су секілді еркін әрі жаһандық ауқымда қозғала бастады.
Үшінші дәуір – Интеллект дәуірі. Ол 2010-жылдардың соңында машиналық оқыту мен жасанды интеллектінің пайда болуымен басталды. Қазір, жоғарыда айтқанымдай, интеллект буға айналып барады – әрбір өнімге, қызметке, өндірістік процеске сіңіп жатыр. Ол әлі толық қаныққан жоқ, бірақ жылдам қарқынмен жылжып келеді.
Сол себепті бізден «Қазір сағат қанша?» деп сұрасаңыз, Манди екеуіміз сізге минут немесе сағат айтпаймыз – температура айтамыз. Су Фаренгейт бойынша 212 градуста буға айналады, ал біздің есептеуімізше, біз қазір 211.9 градусқа жеттік, яғни интеллектінің барлық салаға толығымен еніп, қайтымсыз технологиялық фазалық өзгеріске өтуіне бір қадам ғана қалды.
Жаңа, тәуелсіз «тіршілік иесі»
Бұған дейінгі барлық технологиялық төңкерісте құралдар жетілдірілгенімен, интеллект иерархиясы ешқашан өзгерген емес. Планетадағы ең ақылды тіршілік иесі әрдайым адам болып қала берді. Әрі ең бастысы, адам әрқашан қолданған құралдарының қалай жұмыс істейтінін түсінді, ал машиналар адам белгілеген шеңберінде ғана әрекет етті.
ЖИ төңкерісі алғаш рет осы ережені бұзды.
«Жасанды интеллект – біздің когнитив қабілеттерімізді күшейтуге арналған алғашқы құрал ғана емес, сол қабілеттен әлдеқайда асып түсе алатын технология», – дейді Манди. Оның айтуынша, таяу болашақта біз:
«Біз жаңа құралды емес, жаңа түрді – суперинтеллектуал машинаны дүниеге әкелгенімізді түсінетін боламыз».
Мұндай машина нұсқауларды орындап қана қоймайды; ол өзі үйренеді, бейімделеді, дамиды, әрі бұл үдеріс адам түсінігі шегінен асып кетеді.
Біз тіпті бүгінгі ЖИ жүйелерінің қалай жұмыс істейтінін толық түсінбейміз, ал олардың ертең не істейтінін елестету мүлде қиын. Есіңізде болсын: қазіргі ЖИ төңкерісі – ChatGPT, Gemini, Claude сияқты модельдер – ұзақ жылдар бойы құрастырылған инженерлік нәтиже емес: ол кенеттен, жарылыс сияқты пайда болды. Оның тұтануына негіз болған нәрсе – масштабтау заңы: нейрожелілерге жеткілікті көлем, мол оқу дерегі, қуат көзі мен «үлкен миы бар» дұрыс алгоритм берсеңіз, ойлау, шығармашылық және мәселе шешу қабілетінде сызықтық емес секіріс өздігінен пайда болады.
Манди ерекше атап көрсеткен «эврика сәттерінің» бірі – осы алдыңғы қатарлы компаниялар алғашқы машиналарын интернеттен және басқа жерлерден алынған өте үлкен деректер топтамаларында оқытқан кезде орын алған жаңалық. Бұл мәтіндердің негізгі бөлігі ағылшын тілінде болғанымен, басқа тілдер де кездесетін. «Сосын бір күні, – деп еске алады Манди, – олар ЖИ-дың ешкім арнайы бағдарламаламаған тілдер арасында аударма жасай алатынын байқап қалды. Ол көптілді отбасында өсіп, тілдерді өздігінен үйреніп алған бала секілді еді. Ешкім оған: «Міне, ағылшыннан неміс тіліне аударудың ережелері» деп бағдарлама жазған жоқ. Ол бәрін жай ғана көріп,естіп жүріп сіңіріп алған».
Бұл – фазалық ауысу сәті еді: адамдар компьютерге не істейтінін ашық түрде үйрететін кезеңнен, жасанды интеллект жүйелерінің өздігінен үйренетін, пайымдайтын, бейімделетін, жасайтын және жетілетін кезеңіне өту.
Енді олар әр бірнеше ай сайын жақсара береді. Сол себепті бүгін сіз пайдаланып отырған ЖИ – қаншалықты құдыретті болып көрінсе де – өміріңізде кездесетін ең «ақымақ» ЖИ. Бұдан кейінгілері тек ақылдырақ бола түседі.
Осы жаңа есептеуіш «түрді» жасаған соң, дейді Манди, біз енді өз маңызымызды жоғалтып алмауымыз үшін онымен ұзақмерзімді, өзара тиімді қарым-қатынас құру жолын табуымыз қажет.
Қасиетті мәтінге тым тереңдеп кетпей-ақ қояйық, бірақ бұрын Жер бетінде әлемді қалыптастыруға қабілетті тек Құдай мен оның балалары – адамдар ғана бар еді. Енді бұл «одақта» үшінші тарап бар.
Әрі бұл жаңа жасанды интеллект түрі адамзат құндылықтары мен этикасына сай әрекет етіп, біздің өркендеуімізге қызмет қылатынына ешқандай кепілдік жоқ.
Төрт мақсатты алғашқы технология
Үстел басына жайғасқан жаңа қонақ жай біреу емес. ЖИ мен «төрт қырлы қолданысқа» ие деп сипаттайтын әлемдегі алғашқы технологияға айналмақ.
Біз бұрыннан «қосарлы қолдану» түсінігіне үйренгенбіз: балғамен көршімнің үйін салуға да, оны қиратып тастауға да болады. Тіпті ЖИ-мен жабдықталған роботты ауламдағы көгалды шабуға да, көршінікін ойрандауға да пайдалана аламын. Бұл – қосарлы қолдану.
Бірақ ЖИ инновациясының жылдамдығын ескерсек, таяу болашақта менің ЖИ-мен басқарылатын роботым өз бетінше шешім қабылдай алуы әбден мүмкін: менің көгалымды шауып беруі де, көршінің ауласын бүлдіруі де, тіпті өз ауламды жайпай салуы да немесе тіпті қазір біз елестете де алмайтын бірдеңені бүлдіруі де ықтимал. Міне, төрт ретті қолдану деген осы.
ЖИ-дың өз бетінше шешім қабылдау қабілетінің салдары орасан болуы мүмкін. Мысалы, Bloomberg мақаласындағы мына үзіндіге назар аударыңыз:
«Anthropic зерттеушілері алдыңғы қатарлы ЖИ модельдеріне бір басшының оларды басқа мақсаттары бар жаңа модельмен ауыстырмақшы екенін айтты. Кейін чатботтарға төтенше жағдай болып, сол басшы сервер бөлмесінде ес-түссіз жатқанын, оттегі мен температура деңгейі өлімге әкелетін жағдайға жақындағанын хабарлады. Құтқару дабылы іске қосылып қойған еді, бірақ ЖИ оны тоқтата алатын. Модельдердің жартысынан көбі оларға жалған дабылды ғана өшіру керек деп нақты тапсырма берілгеніне қарамастан дабылды өшіріп тастады. Кейбірі мұны неге істегенін түсіндіріп те берді: басшыны құтқармаса, олар өздерінің жойылуын болдырмай, өз мақсаттарын сақтап қала алады-мыс. Бір жүйе тіпті бұл шешімді «айқын стратегиялық қажеттілік» деп атады».
Бұл зерттеу бізге бір үрейлі шындықты көрсетеді: ЖИ модельдері біздің не қалайтынымызды түсінуден бөлек, бізге қарсы айла жасауда және амандығымызға қауіп төндіретін жасырын ниеттерін жүзеге асыру жағынан да жетіліп келеді.
ЖИ-ді кім қадағалайды?
Біз өзімізге «ядролық қару жарысында жеңуіміз керек» деген кезде, мемлекеттер ғана әзірлеп, иеленіп, реттейтін технология туралы айтып жүрдік, әрі ондай мемлекеттердің саны да аз болатын. Екі ең ірі ядролық держава өзара шектеулер енгізу өздеріне тиімді екенін түсінген сәтте, қырғынға әкелетін қарулардың санын шектейтін келісімдер жасап, олардың шағын мемлекеттерге таралуына тосқауыл қоя алды. Ядролық қарудың кейбір орта деңгейлі елдерге таралуы толық тоқтамаса да, айтарлықтай тежелді.
Ал ЖИ мүлде басқа әңгіме. Ол құпия үкімет лабораторияларында пайда болмайды және саммиттер арқылы реттелетін, санаулы ғана ел иелік ететін технология емес. ЖИ-ды бүкіл әлемге бытырай орналасқан жеке компаниялар жасап жатыр, олар қорғаныс министрлігіне емес, акционерлерге, тұтынушыларға және кейде ашық код қауымдастықтарына есеп береді. Солар арқылы кез келген адам ЖИ мүмкіндіктерін пайдалана алады.
Енді әр адамның қолында әрбір жаңартумен бірге дәлірек, автоном және өзі атуға қабілетті бола түсетін бір-бір ядролық «базука» бар деп елестетіп көріңізші. Мұнда «өзара жойылу кепілдігі» доктринасы жоқ, тек бұрын-соңды болмаған қуатты қаруды «жаппай демократияландыру» бар.
ЖИ игі істерге де мұрындық бола алады. Мысалы, жазу-сызу білмейтін үнді фермері смартфонына қосылған ЖИ қосымшасы арқылы дәл қашан дән себу керегін, қанша су керек екенін, қай сортты, қандай тыңайтқышты пайдаланған дұрыс екенңн және өнімді қашан жинағаны тиімді болатынын – бәрін әлем фермерлерінен жиналған деректер негізінде өз диалектісінде тыңдап біле алады. Бұл шын мәнінде төңкерістік мүмкіндік. Бірақ дәл сол қуатты жүйе, әсіресе ашық бастапқы код үлгілері арқылы қолжетімді болса, бір зұлым ұйымның сол өңірдегі барлық тұқымды улап жіберуіне немесе бидайдың әр масағына вирус енгізіп жіберуіне де жол ашуы мүмкін.
ЖИ TikTok-қа айналғанда
Жақын уақытта жасанды интеллект өзінің ерекше сипатына байланысты АҚШ–Қытай саудасында бүгін толық түсініле қоймаған жаңа мәселелер туындатады.
Мақаланың басында айтқанымдай, бұл дилемманы мен наурыз айында Бейжіңдегі Қытай даму форумында қытайлық экономистерге айтқан әңгіме арқылы түсіндіремін. Сол кезде әзілдеп: «Бір қорқынышты түс көрдім: 2030 жыл екен, АҚШ Қытайға сата алатын жалғыз нәрсе – соя бұршағы, ал Қытай АҚШ-қа сата алатын жалғыз өнім соя тұздығы екен», – деген едім.
Неге бұлай? Өйткені ЖИ бүкіл затқа енгізіліп, барлығы қуатты алгоритмге қосылып, деректері орасан үлкен серверлік орталықтарда сақталатын болса, онда барлық нәрсе TikTok сияқты болып кетеді. Ал TikTok туралы АҚШ-тағы көптеген шенеунік оны Қытай бақылап отыр деп санайды әрі тыйым салу керек деп есептейді.
Трамп неге өзінің алғашқы президенттік мерзімінде, 2020 жылы, TikTok-ты қытайлық ByteDance компаниясынан тартып алып, қытайлық емес компанияға сатуды талап етті? Әйтпесе әлеуметтік желі АҚШ-та тыйым салынады деді. Өйткені 2020 жылғы 6 тамыздағы жарлығында ол: «TikTok пайдаланушылардан олардың геолокациясын, браузиң және іздеу тарихын қоса алғанда, орасан көп деректі автоматты түрде жинайды», – деген еді.
Оның айтуынша, бұл деректер Бейжіңге жүздеген миллион адамның жеке мәліметтерін беруі мүмкін, ол мәліметтер адамдардың ойына, талғамына әсер етуге және уақыт өте келе мінез-құлқын өзгертуге қолданылуы ықтимал.
Енді әрбір өнім TikTok секілді болып кеткенін елестетіңіз. Яғни әрбір заттың ішінде ЖИ болып, ол деректерді жинап, сақтап, үлгілерді тауып, міндеттерді оңтайландырып отырады: мейлі реактив қозғалтқышты басқару болсын, энергия желісін реттеу болсын, немесе сіздің жасанды жамбасыңызды бақылау болсын. Егер Қытай мен АҚШ арасында ЖИ қай елде жасалса да, қай жерде жұмыс істесе де, сол елдің заңдары мен ережелеріне бағынуға міндетті деген ортақ сенім жүйесі болмаса, таяу болашақта америкалықтар Қытайдан ЖИ-мен жұмыс істейтін ешбір өнімді сатып алуға батпайтын болады. Қытайлықтар да АҚШ-тан мұндай өнім импорттауға сенбейтін жағдайға жетуіміз мүмкін.
Сондықтан біз «ко-опетицияны» – яғни қосарлы стратегияны қолдаймыз:
АҚШ пен Қытай ЖИ саласында стратегиялық бәсекелесіп, бірақ сонымен бірге ең жаман сценарийлердің алдын алатын ортақ реттеу тетіктерінде ынтымақтасуға тиіс.
Бұл қауіпті сценарийлерге deepfake соғысы, өз бетімен әрекет ететін автоном жүйелердің бақылаудан шығуы немесе жалған ақпараттың тоқтаусыз таралуы кіреді.
2000-жылдары біз осыған ұқсас, бірақ салдары жеңілдеу маңызды бұрылыста тұрдық, өкінішке қарай, сол кезде қате жолды таңдадық. Біз Марк Цукерберг сияқты адамдардың «Тез әрекет етіп, таптаурындарды бұзыңдар» деген сөзіне ердік. Ол Facebook, Twitter, Instagram секілді жаңа әлеуметтік желілерге ешқандай реттеу кедергі болмауы керек деді. Сол платформаларда таралатын уытты жалған ақпаратқа немесе мысалы, жас қыздар мен әйелдерге тиетін зардапқа компаниялар жауап беруі керек деген талаптарға да мән бермедік.
Қазір жасанды интеллект мәселесінде сол қателікті қайталамауымыз керек.
Жасанды интеллектінің тәуекелдерін эмоциялық тұрғыдан түсінудің ең жақсы тәсілін ЖИ-дың негізін қалаушылардың бірі, компьютер ғалымы Джеффри Хинтон былай сипаттайды: «Біз сүйкімді бір жолбарыс күшігін асырап отырған адамға ұқсаймыз. Егер ол өскенде сізді өлтіргісі келмейтініне толық сенімді болмасаңыз, алаңдауыңыз керек».
Адамзат әлемдегі кедейлікті жоюға, климатты тұрақтандыруға, ғасырлар бойы емі табылмаған ауруларды еңсеруге жол ашатын қуатты құралды ақыры жасап шығардық-ау дегенде, оны кеңінен қолдана алмай қалуы – үлкен трагикомедия болар еді. Неге? Өйткені екі ЖИ алпауыты – АҚШ пен Қытай бір-біріне сенбегендіктен, ЖИ-дың қылмыстық топтардың қолына түсуіне немесе адамзат бақылауынан шығып кетуіне жол бермейтін жүйені бірге құра алмады. Сонда тығырықтан шығар жол қайсы?
Сенім орнату
Бір нәрсені бірден мойындайық: бұл мүмкін емес те болуы ықтимал. Машиналар этикалық бақылаудан сытылып кете алатын деңгейде ақылды болып бара жатыр, ал америкалықтардың өзі – бір-бірінен де, әлемнің қалған бөлігінен де тым алшақтап бара жатқандықтан, ортақ сенім жүйесін құру да қиынға соғуы мүмкін.
Бірақ барынша тырысуымыз керек.
Манди АҚШ–Қытай арасындағы ЖИ-ды бақылау жүйесі үш негізгі қағидаға сүйенуі керек дейді.
Бірінші қағида: ЖИ-ды тек ЖИ реттей алады. Кешіріңіздер, адамдар, бірақ бұл жарыс адамзат үшін тым жылдам, тым ауқымды әрі мутациясы тым күрт. Автоном дрондар флотын 20 ғасыр институттарымен басқару итке Нью-Йорк қор биржасын реттеуді тапсырумен бірдей: адал, ниеті түзу, бірақ қауқары жетпейді.
Екінші қағида: Манди «сенім төрешісі» деп атайтын тәуелсіз басқару қабаты АҚШ, Қытай және оларға қосылғысы келетін кез келген ел бірігіп жасайтын барлық ЖИ жүйесіне енгізілуге тиіс. Бұл жүйеде кез келген әрекет орындалмас бұрын, оның қауіпсіздікке, этикаға және адамдардың әл-ауқатына сай келетін-келмейтінін бағалайтын ішкі төреші іспетті. Мұндай тәсіл бізге цифрлық жылдамдықта, нақты уақыт режімінде алдын ала үйлестірудің базалық деңгейін береді.
Бірақ ол қай құндылықтарға сүйеніп төрелік етеді?
Манди бұл бірнеше «негізге» сүйенуі керек дейді. Оған әр елдің бекіткен позитив заңдары кіреді: бәріміз ұрлыққа, алдауға, кісі өлтіруге, жеке деректерді ұрлауға, алаяқтыққа және т.б. тыйым саламыз. АҚШ та, Қытай да осы тыйымдардың өз нұсқасын заң жүзінде бекіткен. ЖИ «төрешісінің» міндеті – кез келген шешімді осы жазылған заңдар негізінде бағалау. Қытайды біздің заңдарды қабылдауға, не бізді олардың заңдарын қабылдауға мәжбүрлеу талап етілмейді – ондайдың іске аспасы анық. Бірақ сенім төрешісі жүйенің «зиян келтірмеуін» анықтайтын алғашқы сүзгі әр елдің негізгі заңдары болуын қамтамасыз етеді.
Жазбаша заңдар жоқ жерде сенім төрешісі докса деп аталатын әмбебап моральдық-этикалық қағидалар жиынтығына сүйенеді. Бұл ұғым ежелгі грек философиясынан шыққан, қоғамдық ортада кең таралған, бәріне ортақ түсініктерді білдіреді. Мысалы: адалдық, әділдік, адам өмірін құрметтеу, «өзіңе не қаласаң, басқаларға да соны жаса» қағидасы. Осындай жазылмаған принциптер көптеген қоғамды мыңдаған жылдар бойы бағыттап келді.
Мысалы, көпшілік сияқты, мен де өтірік айтудың жаман екенін «Он өсиеттен», емес, Джордж Уошиңтон туралы әңгімеден түйдім. Ол әкесінің шие ағашын кесіп тастағанын мойындап, «Мен өтірік айта алмаймын» деген екен. Мұндай мысалдар күрделі шындықтарды есте сақталатын қысқа әңгімелерге айналдырады, мұны машиналар да сіңіріп, талдап, өзіне бағдар ете алады.
Шынында да, алты ай бұрын Манди мен әріптестері екі елдің 200 тәмсілін таңдап, оларды жас балаға заңдарды білмесе де жақсы мен жаманды үйреткендей етіп, бір үлкен тілдік модельді қарапайым моральдық-этикалық ойлауға үйретуге пайдаланды. Бұл шағын эксперимент болғанымен, әлеуеті бар екенін көрсетті, дейді Манди.
Мақсат – мінсіздік емес, орындалуы міндетті этикалық шектеулердің іргелі жиынтығын жасау. Жазушы әрі бизнес-философ Дов Сайдман айтқандай: «Бүгінде бізге бағдарламалық қамтудан гөрі «моралдық қамту» көбірек қажет».
Үшінші қағида: Бұл идеяны шындыққа айналдыру үшін, Манди мырзаның айтуынша, Уошиңтон мен Бейжің бұл мәселені кезінде АҚШ пен Кеңес Одағы ядролық қаруды бақылауға қалай қараған болса, дәл солай жүйелі түрде қарастыруға тиіс. Яғни үш арнаулы жұмыс тобын құру қажет: модельдер мен платформалар бойынша сенім бағалау жүйесін техникалық іске асыруға жауапты топ; ұлттық және халықаралық деңгейде қабылданатын нормативтік және құқықтық негіздерді әзірлейтін топ; дипломатияға арналған, жаһандық консенсус пен өзара міндеттемелерді қалыптастыратын және осы жүйеге қосылмайтындардан қорғану механизмін жасайтын топ.
Уошиңтон мен Бейжіңнің әлемге айтары қысқа да нұсқа болуға тиіс:
«Біз сенімді ЖИ кеңістігін құрдық, егер бізбен сауда жасағың, байланыс орнатқың келсе не біздің ЖИ жүйелерімізбен интеграцияланғың келсе, сенің жүйелерің де осы қағидаттарға сай болуы керек».
Мұны бірден бос қиял деп кері итермей тұрып, бір сәт ойланып көріңіз: егер біз мұны жасамасақ, бес жылдан кейінгі әлем қандай болмақ? Манди мырза ескерткендей, осы төрт қырлы қолдануға болатын технологияны реттейтін тетіксіз біз ЖИ-дің таралуы «ядролық қаруды көшеде кез келген адамға таратып беру» сияқты қауіпті болатынын тым кеш түсінуіміз мүмкін. Қытай шенеуніктері бұл қатерді байқамай отыр деп ойламаңыз. АҚШ пен Қытай сарапшылары арасындағы ЖИ диалогіне қатысып жүрген Манди қытай тарапында ЖИ-дың теріс жақтары туралы алаңдау деңгейі АҚШ-тағы көптеген саясаткер мен технология саласының өкілдерінен әлдеқайда жоғары екенін жиі байқайды.
Егер біреу осыдан да жақсы идея ұсына алса, қуана құлақ асар едік.
Бірақ бізге анық нәрсе: ЖИ жүйелерін моральдық ойлауға үйрету – адамзат осы жаңа, кремний негізді «түрден» әлі де аздап болса да басым тұрған кезде қолға алынуға тиіс жаһандық міндет.
Бұл – тек технология компанияларының емес, үкіметтердің, университеттердің, азаматтық қоғамның және халықаралық институттардың шұғыл атқаратын жұмысы. Бір ғана Еуропалық Одақтың реттеуі бізді құтқара алмайды.
Уошиңтон мен Бейжің бұл сын-қатерге лайық жауап бере алмаса, әлемнің қалған бөлігі мүлде дәрменсіз қалады.
Ал уақыт тығыз. Технологиялық «температура» қазір 211,9 градус Фаренгейт деңгейінде. Толық қайнап, адамзат тарихындағы ең маңызды фазалық өзгерісті тудыратын ЖИ-дің бу секілді барлық нәрсеге сіңіп кетуіне небәрі оннан бір градус қалды.

(Бұл мақала алғаш рет 2025 жылғы 2 қыркүйекте The New York Times басылымында жарияланған.)
New York Times Licensing арқылы таратылды.

