The Economist
A duhet t’i besohet një grushti burrash teknologjia e re më e fuqishme në botë? Pesë “geek”-ë aq të famshëm sa identifikohen vetëm me emrat e tyre—Dario, Demis, Elon, Mark dhe Sam—ushtrojnë një kontroll pothuajse hyjnor mbi modelet e inteligjencës artificiale që do të formësojnë të ardhmen. Administrata Trump ka qëndruar mënjanë edhe pse këto modele kanë fituar aftësi marramendëse, e bindur se konkurrenca e pakufizuar mes firmave private është mënyra më e mirë për të siguruar që Amerika të fitojë garën e AI kundër Kinës.
Deri tani. Papritur, qasja e lirshme e Amerikës ndaj AI duket se po i vjen fundi. Arsyeja është se përparimi i vrullshëm i këtyre modeleve përbën gjithashtu një kërcënim për sigurinë kombëtare të vetë Amerikës, duke shqetësuar anëtarët e administratës Trump që më parë shqetësoheshin më shumë për mbirregullimin. Në të njëjtën kohë, pakënaqësia në rritje mes votuesve amerikanë po e kthen AI në një temë të nxehtë politike. Një qasje laissez-faire nuk është më e qëndrueshme as politikisht, as strategjikisht.
Një moment kthese ishte njoftimi i Anthropic për Claude Mythos më 7 prill. Krijimi më i fundit i kompanisë është aq i aftë në gjetjen e dobësive në softuer, sa në duar të gabuara do të kërcënonte infrastrukturën kritike, nga bankat te spitalet. Modelet e AI po paraqesin gjithnjë e më shumë rreziqe të tjera gjithashtu, nga rreziqet biologjike te mashtrimet në shkallë industriale.
Drejtuesi i Anthropic, Dario Amodei, me të drejtë e konsideroi Mythos shumë të rrezikshëm për publikim të gjerë. Në vend të kësaj, ai e ka rezervuar për përdorim nga rreth 50 kompani të mëdha në fushat e informatikës, softuerit dhe financës, në mënyrë që të forcojnë mbrojtjen e tyre. Sekretari amerikan i Thesarit, Scott Bessent, u shqetësua aq shumë sa thirri bankat më të mëdha për bisedime urgjente.
Nuk ishte hera e parë që administrata ndërhynte. Vetëm pak javë më parë Pentagoni ndërhyri pasi Amodei refuzoi të lejonte përdorimin e modelit të Anthropic në armë plotësisht autonome ose për mbikëqyrje masive brenda vendit. Edhe atëherë, administrata Trump u alarmua—për shkak të fuqisë që një kompani e vetme kishte mbi një teknologji qendrore për sigurinë kombëtare.
Një reagim kundërshtues nga votuesit do ta shtojë presionin mbi administratën për të ndërhyrë. Sondazhet po bëjnë që gjithnjë e më shumë politikanë të mendojnë se AI do të jetë një nga çështjet kryesore në zgjedhjet e vitit 2028. Amerikanët janë shumë më skeptikë ndaj AI sesa njerëzit në vende të tjera. Shtatë në dhjetë mendojnë se AI do të dëmtojë mundësitë për punësim, një rritje e ndjeshme nga një vit më parë (dhe para se të ketë prova të forta). Kundërshtimi në bazë ndaj qendrave të të dhënave po rritet, edhe pse AI ka pak ose aspak lidhje me rritjen e çmimeve të energjisë. Si shenjë e kohës, shtëpia e Sam Altman është sulmuar dy herë ditët e fundit.
Historia sugjeron se, me një teknologji kaq transformuese sa AI, një moment si Mythos ishte i pashmangshëm. Nga John D. Rockefeller te Henry Ford, inovacionet e mëdha industriale të Amerikës janë udhëhequr nga një numër i vogël burrash që u bënë jashtëzakonisht të fuqishëm. Përfundimisht, qeveritë e shekullit të 20-të ndërhynë për të frenuar industri tepër të fuqishme, nga shpërbërja e Standard Oil te krijimi i Rezervës Federale dhe ndarja e AT&T. Ato kohë ishin po aq të polarizuara sa të sotmet. Dhe llogaritjet sugjerojnë se “perënditë” e AI nuk janë ende më dominuese se paraardhësit e tyre historikë.
Por historia sugjeron gjithashtu se kontrolli i AI do të jetë i vështirë. Kjo pjesërisht sepse rreziqet nëse gjërat shkojnë keq janë shumë të mëdha. Por edhe sepse AI po evoluon me shpejtësi marramendëse.
Zgjedhjet janë të vështira. Rritja ekonomike do të përfitojë nga përhapja e shpejtë e përfitimeve të AI, por reagimi kundërshtues mund të çojë lehtësisht në mbirregullim. Të mos bësh asgjë mund ta lërë Amerikën të ekspozuar ndaj kaosit të shkaktuar nga AI, por rregullimi i tepruar do të siguronte që Kina të fitojë garën. Kjo e bën momentin aktual të rrezikshëm.
Koha është e kufizuar. Dy vjet më parë, gjatë administratës Biden, diskutimet për rregullimin fokusoheshin kryesisht te rreziqet potenciale të AI. Sot, aftësitë e saj janë tashmë alarmante dhe po rriten me çdo version të ri. Ritmi i inovacionit do të thotë se debatet mbi rolin e duhur të qeverisë, që dikur zgjatnin vite apo dekada, tani duhet të zgjidhen brenda muajsh.
Dhe pengesat teknike për një qasje më ndërhyrëse janë të mëdha. Mjetet e kontrollit shtetëror, si nacionalizimi, janë joefektive sepse inxhinierët e talentuar mund të lëvizin lirshëm mes kompanive dhe fuqia kompjuterike është një mall i zakonshëm. Më keq akoma, ndërtuesit kryesorë të modeleve janë vetëm disa muaj përpara konkurrentëve “open-source”, përfshirë ata në Kinë. Herët a vonë, aftësitë e modeleve të tyre do të jenë të disponueshme për të gjithë.
Megjithatë, momenti Mythos mund të jetë pika ku fillon të marrë formë një skemë funksionale për kontrollin e AI. Përdoruesit e besuar do të kenë akses të hershëm në modelet më të fuqishme: OpenAI po ndjek Anthropic duke ofruar mjetin e saj më të fundit për një grup të kufizuar profesionistësh të verifikuar të sigurisë kibernetike. Para se këto modele të komercializohen gjerësisht, qeveria mund të kërkojë certifikim nga organe të udhëhequra nga industria që i kanë testuar për përdorime të ndryshme.
Kjo ide ka përparësi si për kompanitë e mëdha ashtu edhe për qeverinë. Ajo shmang procesin e gjatë të krijimit të një rregullatori të ri. Duke lejuar vetëm disa përdorues premium, u mundëson kompanive të vendosin çmime më të larta dhe të kufizojnë përdorimin e fuqisë së rrallë kompjuterike. Ndërkohë, qeveria mund të kufizojë se kush mund të përdorë modelet më të fuqishme, duke reduktuar rrezikun që Kina t’i kopjojë dhe të kapë ritmin më shpejt.
Por kjo qasje ka edhe probleme serioze. Publikimi i kufizuar do të ulë konkurrencën dhe do të rrisë fuqinë e kompanive të mëdha të AI. Do të ngadalësojë përhapjen e përfitimeve dhe do të krijojë një sistem me dy nivele në ekonominë amerikane, duke penalizuar shumë kompani që mbeten pa akses të privilegjuar. Po nëse ndërtimi i mbrojtjeve të AI kërkon shumë kohë ose është i pamundur? Po modelet “open-source”? Si mund të detyrohen të ndjekin të njëjtat rregulla?
Një sistem rregullator mbi këto baza mund të rezultojë i padrejtë. Të brendshmit do të mbrohen nga kërcënimet më të avancuara; të tjerët do të duhet të shpresojnë për më të mirën. Mundësitë për lobim dhe fitime të mëdha do të jenë të jashtëzakonshme. Kjo do të testojë ndershmërinë dhe kompetencën e administratës më të hapur ndaj korrupsionit në epokën moderne amerikane. Dhe një zgjidhje që përqendron edhe më shumë pushtet dhe pasuri te pak “perëndi” të AI rrezikon të përkeqësojë reagimin politik që tashmë po shqetëson Uashingtonin.
Për më tepër, qasja Mythos mund të jetë vetëm gjysma e zgjidhjes. Siguria e AI nuk mund të garantohet vetëm në nivel kombëtar. Në fund, do të kërkojë bashkëpunim ndërkombëtar, duke filluar me Kinën. Fokusi i ri te siguria kibernetike duhet të shoqërohet edhe me mendim urgjent për efektet ekonomike dhe sociale të AI. Përballimi i ndikimit në punësim dhe krijimi i një sistemi tatimor të përshtatur me AI që favorizon punën janë probleme të mëdha për të cilat ende nuk ka përgjigje të mira. Kjo duhet të ndryshojë. Momenti Mythos është një thirrje zgjimi për sigurinë e AI—dhe kërkon reflektim serioz edhe në fusha të tjera.



