Inteligjenca artificiale mund ta përshpejtojë luftën, por arkitektura e sigurisë duhet gjithashtu të përshpejtohet dhe të thellohet me të njëjtin ritëm, duke ndërtuar një gjeneratë të re kapacitetesh. Përndryshe, brishtësia e stabilitetit strategjik do të rritet në kuadrin e cikleve të vendimmarrjes prej milisekondash të teknologjisë moderne të luftës të drejtuar nga inteligjenca artificiale, theksojnë ekspertë të cituar nga Anadolu në një analizë.
Më 4–5 shkurt, në A Coruña të Spanjës, u mbajt samiti REAIM 2026 (Responsible AI in the Military Domain), i përqendruar në përdorimin e përgjegjshëm të inteligjencës artificiale në fushën ushtarake.
Pas samiteve të mëparshme në Hagë në 2023 dhe Seul në 2024, samiti i këtij viti u ndoq nga 85 vende.
Pas samitit u përgatit një deklaratë që përfshinte 20 parime kryesore. 35 nga vendet pjesëmarrëse e nënshkruan deklaratën, ndërsa SHBA dhe Kina nuk e bënë këtë, sipas agjencisë turke të lajmeve.
Parimet përfshinin:
- ruajtjen e përgjegjësisë njerëzore për armët e bazuara në AI,
- krijimin e zinxhirëve të qartë të komandës dhe kontrollit,
- shkëmbimin e informacionit mbi mekanizmat kombëtarë të mbikëqyrjes,
- vlerësimin e rreziqeve,
- testime të gjera,
- trajnimin e personelit ushtarak.
Në samitet e mëparshme REAIM, shumë vende të udhëhequra nga SHBA kishin miratuar një kornizë më fleksibile parimesh. Këtë vit, fakti që dy fuqitë kryesore të teknologjisë AI — SHBA dhe Kina — nuk e nënshkruan deklaratën dhe që numri i vendeve nënshkruese ishte i kufizuar tregoi sa e vështirë është krijimi i normave ndërkombëtare të përbashkëta.
Në sistemin ndërkombëtar ende nuk ekziston një standard minimal i përbashkët për inteligjencën artificiale. Përveç transformimit të thellë që AI po shkakton në fushën e betejës, kjo situatë konsiderohet edhe si kërcënim për sigurinë.
Inteligjenca artificiale ushtarake në kontekstin e kërcënimeve ndaj sigurisë
Përdorimi i AI në fushën ushtarake mbulon një gamë të gjerë aktivitetesh, duke përfshirë:
- komandën dhe kontrollin,
- mbështetjen në vendimmarrje,
- luftën elektronike dhe kibernetike,
- mbrojtjen kundërraketore,
- mjetet pa pilot ajrore, tokësore dhe detare.
Në skenarë që tejkalojnë kapacitetin njohës njerëzor ose kërkojnë analizë të shpejtë të sasive të mëdha të të dhënave komplekse, AI bëhet element kyç.
Përparimet teknologjike tashmë i vendosin pothuajse të gjitha nevojat e fushës moderne të betejës në këtë kategori. Me fjalë të tjera, AI e çon luftën në një dimension që tejkalon perceptimin dhe reagimin njerëzor.
Ky lloj i ri konflikti përkufizohet në literaturën ushtarake si “hiper-luftë”, ku cikli i vendimmarrjes dhe ekzekutimit mund të përfundojë brenda disa milisekondash.
Në këtë kontekst, kontrolli njerëzor duhet parë shumë më gjerë sesa thjesht “gishti që shtyp këmbëzën”.
Hapi i parë është projektimi i kontrollit njerëzor si komponent thelbësor në të gjitha fazat e përdorimit të AI. Një strukturë e tillë do të siguronte që përgjegjësia etike dhe ligjore për përdorimin e inteligjencës artificiale të mbetet plotësisht nën kontroll njerëzor.
Hapi i dytë është zhvillimi i filtrave dhe barrierave për të parandaluar që sistemet e drejtuara nga AI të “ushqejnë negativisht” njëra-tjetrën — pra të ndërveprojnë në mënyrë që të përshkallëzojnë konfliktin.
Një strukturë e tillë shumë-nivelëshe mund të parandalojë:
- alarmet e rreme,
- “halucinacionet” e AI,
- angazhimet ushtarake të padëshiruara.
Një aspekt tjetër kritik është siguria dhe integriteti i algoritmeve dhe i të dhënave që i ushqejnë ato.
Masat e rëndësishme përfshijnë:
- parandalimin e ndotjes së të dhënave,
- identifikimin e situatave kur AI nuk mund të marrë vendime autonome,
- certifikimin e algoritmeve,
- monitorimin e harduerit ku funksionojnë.
Megjithatë, mungesa e një konsensusi global e bën të pamundur krijimin e masave strukturore etike dhe ligjore në afat të shkurtër.
Deficiti i besimit strategjik ndërkombëtar përkeqësohet nga potenciali i madh ushtarak i AI. Shqetësimet për të drejtat e njeriut, privatësinë dhe mbrojtjen e të dhënave shpesh dobësohen përballë efektivitetit në rritje të inteligjencës artificiale në operacionet ushtarake.
Në të njëjtën kohë, këto tema përdoren shpesh si mjete politike.
Jo vetëm vetë AI, por edhe qasja në kapacitetet e AI është bërë objekt debatimi dhe negociatash politike, sipas ekspertit të mbrojtjes Arda Mevlutoglu.
Rregullimi i inteligjencës artificiale: kufizime dhe kërkesa
Një pyetje thelbësore është se si mund të përcaktohet nëse një algoritëm AI është i sigurt ose “human”.
Është propozuar krijimi i një strukture të ngjashme me Agjencinë Ndërkombëtare të Energjisë Atomike (IAEA), e cila mbikëqyr instalimet bërthamore.
Megjithatë, ndryshe nga materialet radioaktive, kodi i programeve nuk lë gjurmë fizike dhe është shumë më i vështirë për t’u gjurmuar.
Një zgjidhje e mundshme do të ishte krijimi i “dhomave të kontrollit algoritmik”, ku shtetet mund të testojnë sistemet e AI pa zbuluar sekretet teknologjike.
Certifikimi nga këto teste mund të vendosë standarde si në sektorin civil ashtu edhe në atë ushtarak.
Por krijimi i një sistemi të tillë kërkon një nivel të lartë marrëveshjeje ndërkombëtare.
Problemi kryesor nuk është nëse AI do të përdoret në luftë, por:
- si do të përdoret,
- nga kush,
- dhe brenda cilëve kufij.
Mosnënshkrimi i deklaratës REAIM 2026 nuk nënkupton “anarshi”, por tregon se rregullat për AI ushtarake janë të lidhura drejtpërdrejt me rivalitetin mes fuqive të mëdha.
Nëse liderët teknologjikë si SHBA dhe Kina nuk marrin pjesë, përpjekjet për një kornizë etike globale do të mbeten të kufizuara.
Megjithatë, kjo nuk do të thotë që procesi duhet të shtyhet, por që nevojitet një qasje më realiste dhe shumëdimensionale.
Në afat të shkurtër, një regjim universal i detyrueshëm duket i vështirë.
Në afat të mesëm mund të jenë të mundshme:
- masa transparence,
- mekanizma dialogu teknik,
- marrëveshje të kufizuara konkrete (p.sh. kufij për armët plotësisht autonome).
Në nivel kombëtar janë urgjente:
- mbikëqyrja njerëzore domethënëse,
- siguria algoritmike,
- integriteti i të dhënave,
- mekanizmat e filtrimit shumë-nivelësh.
Shumë nga rreziqet e AI ushtarake nuk vijnë nga përdorimi i qëllimshëm i keq, por nga:
- gabimet e projektimit,
- të dhënat e pasakta,
- ndërveprimet e paparashikueshme,
- presioni për shpejtësi.
Inteligjenca artificiale mund ta përshpejtojë luftën, por edhe arkitektura e sigurisë duhet të zhvillohet me të njëjtin ritëm.
Përndryshe, stabiliteti strategjik do të bëhet gjithnjë e më i brishtë në epokën e hiper-luftës.
Sfida kryesore është ruajtja e përgjegjësisë njerëzore dhe e gjykimit politik duke mbajtur njëkohësisht epërsinë teknologjike.
Normat mund të mbeten prapa, por përgjegjësia përfundimtare e njerëzimit nuk mund të shtyhet.
Çdo masë teknike, ligjore dhe etike e marrë sot do të formësojë jo vetëm natyrën e luftës, por edhe të ardhmen e rendit ndërkombëtar.