top of page
E BARDHË SHIRIT.png

LUFTA E ALGORITMEVE APO SESI INTELIGJENCA ARTIFICIALE PO NGJITET NË HIERARKINË USHTARAKE | SOFTUERËT LAVENDER + PALANTIR + KROPYVA PO PËRDOREN NË FUSHAT E BETEJAVE.

  • Writer: Agjencia Telegrafike Vox
    Agjencia Telegrafike Vox
  • Nov 28, 2024
  • 7 min read
ree

Uashington, Amerikë | Jo vetëm armët autonome: nga Izraeli në Kinë, duke kaluar përmes Ukrainës, sistemet automatike po fitojnë një rol gjithnjë e më strategjik. Dhe shqetësues.

 

Për një kohë të gjatë ne e kemi imagjinuar të ardhmen teknologjike të luftës si një lloj skenari Terminator: i dominuar nga inteligjenca artificiale, ushtarë robotë, dronë fluturues plotësisht të armatosur dhe tanke të blinduara që lëvizin në mënyrë autonome nëpër fushën e betejës.

 

Në një farë mënyre, gjërat po shkojnë pikërisht në këtë drejtim: armët autonome (të afta të lëvizin vetë, të identifikojnë objektivin dhe potencialisht edhe të gjuajnë pa nevojën e ndërhyrjes njerëzore) janë bërë realitet, kryesisht në formën e dronëve, por edhe të frëngjive patrulluese të pajisura me mitralozë ose automjete autonome dhe të armatosura (siç është Rex MK II i përdorur nga ushtria izraelite).

 

Me pak fjalë, ne gjithmonë kemi menduar se robotët vrasës përfaqësonin këmbësorinë e re.

 

Kjo inteligjencë artificiale do të përdoret kryesisht për të zëvendësuar - ose më shumë të ngjarë të mbështesë - ushtarët në terren.

 

Dhe në vend të kësaj, situata po zhvillohet në një drejtim shumë të ndryshëm dhe, nëse është e mundur, edhe më shqetësues.

 

Algoritmet e mësimit të thellë - sistemet tani sinonim i inteligjencës artificiale - në fakt po bëhen gjithnjë e më shumë të ngjashëm me oficerët e aftë për të marrë vendime strategjike, duke zgjedhur cilat (dhe sa) objektiva të godasin dhe madje duke identifikuar pikat e dobëta të ushtrisë armike.

 

E thënë thjesht, AI po ngjitet në gradat ushtarake.

 

Rasti i Izraelit: Shembulli më i njohur është ai me nofkën Project Lavender dhe i përdorur nga ushtria izraelite (Izraeli Defense Force, IDF) për të identifikuar dhe goditur sa më shumë objektiva të jetë e mundur gjatë konfliktit në Gaza.

 

Një sistem që gazeta izraelite +972 - e cila zbuloi ekzistencën e saj prillin e kaluar - përcaktoi një fabrikë vrasjesh masive.

 

Lavanda nuk është një armë. Nëse ka ndonjë gjë, ai është më i ngjashëm me një softuer menaxhimi të bazuar në inteligjencën artificiale, i cili, analizon sasinë e madhe të të dhënave të ofruara nga ushtria: emrat dhe karakteristikat e çdo personi që jeton në Gaza (të marra përmes mbikëqyrjes masive të kryer mbi popullsinë), pamjet me dron, përgjimet e mesazheve, analizat e mediave sociale dhe më shumë.

 

Duke ndërthurur të gjitha këto informacione, Lavender vlerëson mundësinë që një individ është ose nuk është pjesë e Hamasit apo grupeve të tjera të armatosura palestineze, përcakton se në cilin vend dhe në çfarë kohe ka gjasat më të mëdha për ta goditur atë dhe ia kalon të gjithë këtë informacion ushtrisë, e cila, në shumicën e rasteve urdhëron një sulm ajror për të vrarë objektivin.

 

Sipas ish-shefit të IDF-së Aviv Koçavi, ky sistem është i aftë të identifikojë deri në 100 objektiva në ditë: “Për ta vënë atë në perspective”, shpjegoi Koçavi për gazetën britanike Rojtari (The Guardian) në të kaluarën ne merrnim 50 objektiva në vit.

 

Duke marrë parasysh numrin e objektivave të arritura, nuk është për t'u habitur që - siç raporton një gazetë shumë pro-palestineze, siç raporton Foreign Policy - shumica e këtyre sulmeve deri më tani janë drejtuar kundër gradave më të ulëta të Hamasit, të cilët, shihen si objektiva legjitimë, si luftëtarë, por me pak rëndësi strategjike”.

 

Siç shkruan znj. Aliçe Çivitela (Alice Civitella) në faqen e internetit të Shoqërisë Italiane të së Drejtës Ndërkombëtare, “Lavender analizon informacionin e mbledhur më parë nga një sistem i mbikqyrjes masive për qytetarët palestinezë dhe më pas u cakton atyre një rezultat nga 1 në 100 bazuar në probabilitetin që ata janë militantë të Hamasit apo Xhihadit Islamik”.

 

Mbështetja në këtë mënyrë në një sistem kompjuterik ngre disa aspekte problematike, para së gjithash - shpjegon znj. Çivitela gjithmonë - për shkak të natyrës gjenerike të të dhënave që i jepen sistemit gjatë fazës së trajnimit, Lavender bëri disa gabime në identifikimin e njerëzve, duke ngatërruar policët dhe operatorët e mbrojtjes civile me militantët e Hamasit ose duke treguar objektiva të pasakta për shkak të një homonimie banale”.

 

Gabimet, në realitet, vetëm pjesërisht i atribuohen sistemit: kur sinjalizon objektivat për të goditur, Lavender tregon se cili është pragu i saktësisë së parashikimit të tij.

 

Më pas është ushtria izraelite ajo që vendos se çfarë shkalle gabimi është e gatshme të pranojë: sa më e lartë të jetë kjo, aq më i madh është rreziku për të goditur të pafajshmit.

 

Sërish sipas asaj që raporton revista Foreign Policy, shkalla e gabimit të toleruar nga ushtria është vendosur në 10%.

 

Qëllimet që tejkalojnë këtë përqindje verifikohen shpejt nga një ekip analistësh njerëzorë.

 

Numri i madh i objektivave të identifikuar, fakti që ata në shumicën e rasteve goditen kur ndodhen në shtëpitë e tyre dhe se sulmet ajrore përdoren shpesh për të kryer vrasjet, ka një pasojë të dukshme dhe tragjike: numrin e madh të viktimave civile.

 

Sipas burimeve të dëgjuara nga +972, ushtria izraelite e konsideron të pranueshme vrasjen e deri në 15 civilë për çdo luftëtar të rangut më të ulët të Hamasit.

 

Kuota që arrin deri në 100 në rastin e komandantëve apo eksponentëve të tjerë kryesorë të milicëve palestinezë.

 

Meqenëse objektivat e përzgjedhur nga Lavender janë (të supozuar) luftëtarë, kjo metodë duket se respekton të drejtën ndërkombëtare dhe në veçanti - shpjegon revista Foreign Policy - ​“doktrinën e efektit të dyfishtë” , e cila, “lejon dëme të parashikueshme, por të paqëllimshme, kolaterale me kusht që arritja e objektivit nuk varet nga fakti që ndodh ky dëm kolateral, siç është rasti i një sulmi ajror kundër një objektivi legjitim, i cili, do të ndodhte gjithsesi, në prani ose jo të civilëve”.

 

Shkurtimisht, ushtria izraelite do të ndiqte, në veprimet e saj, të ashtuquajturën logjikë operacionale të atentateve në shënjestër, edhe nëse - për shkak të numrit të madh të objektivave të raportuara nga sistemi Lavender - veprimet e saj shpesh i ngjajnë një bombardimi qilimash, të ndaluara nga e drejta ndërkombëtare.

 

Dilemat etike dhe ligjore: Prandaj, nga njëra anë, përdorimi i këtyre sistemeve rrezikon të shkaktojë të ashtuquajturin paragjykim automatizimi: tendenca e qenieve njerëzore për të pranuar indikacionet e makinës - e konsideruar si një sistem objektiv, pasi ajo vepron në bazë statistikore - madje në rrethana në të cilat ata përndryshe do të kishin vepruar ndryshe (për shembull, duke injoruar rrezikun e identitetit të gabuar).

 

Nga ana tjetër, përdorimi i softuerit si Lavender të paktën pjesërisht heq përgjegjësinë nga oficerët që mbështeten tek ata.

 

Siç lexojmë në faqen e internetit Rete Pace Disarmo - e cila është pjesë e fushatës ndërkombëtare Stop Killer Robots, e cila, promovon ndalimin e armëve autonome - përdorimi i këtyre sistemeve ngre shqetësime serioze për përdorimin në rritje të inteligjencës artificiale në konflikte, në paragjykimet e natyrshme në format e automatizimit, mbi dehumanizimin dixhital dhe mbi humbjen e kontrollit njerëzor në përdorimin e forcës.

 

Për më tepër, faqja shpjegon, se shqetësuese janë raportet e miratimit të përgjithshëm nga zyrtarët për miratimin e listave të vrasjeve të Lavender-it, pa asnjë detyrim për të kontrolluar tërësisht pse makina i bëri ato zgjedhje ose për të shqyrtuar të dhënat e papërpunuara të inteligjencës mbi të cilat bazohej.

 

Akoma më shqetësues është fakti se ushtria izraelite nuk është e vetmja që përdor softuer të këtij lloji, i cili, përkundrazi, po përhapet me shpejtësi.

 

Përtej rastit të njohur të Kinës e cila ka përdorur prej kohësh sisteme të inteligjencës artificiale.

 

Kompania lider në zonën tonë është Palantir, kompania amerikane e analizës së të dhënave e themeluar nga Peter Thiel, e cila, po luan një rol të rëndësishëm në konfliktin midis Rusisë dhe Ukrainës.

 

Siç lexojmë në Time, platforma e zhvilluar nga Palantir dhe e përdorur nga forcat ukrainase është e aftë të integrojë të dhëna nga burime të shumta dhe të ndryshme - satelitë, drone dhe inteligjencë - dhe më pas të arrijë t'i referojë ato për t'i dhënë ushtrisë informacionin përkatës.

 

(...) Algoritmi i Palantirit, për shembull, mund të jetë jashtëzakonisht i mirë në identifikimin e një qendre komandimi armike.

 

Palantir nuk zbulon zyrtarisht se si përdoret softueri i tij në fushën e betejës, por ushtria ukrainase mendohet të përdorë sisteme të inteligjencës artificiale, për shembull, për të identifikuar dobësitë përgjatë vijave të frontit rus ose për të maksimizuar dëmet.

 

Duke folur për revistën Time, një komandant ukrainas dha një shembull se si ushtria përdor sistemet e zhvilluara nga Palantir.

 

Kur ne kryejmë sulme të shumta përgjatë gjithë vijës së frontit, Rusia është e detyruar të sjellë forcat rezervë në terren të hapur, të cilat ne mund t'i monitorojmë në kohë reale duke përdorur imazhe satelitore dhe drone, si dhe algoritme të njohjes së imazheve, për t'i synuar ato me shpejtësi dhe saktësi të paparë”.

 

Një sistem tjetër, i quajtur Kropyva, lejon ushtrinë ruse të fusë koordinatat e objektivit në një tabletë, pas së cilës softueri llogarit automatikisht distancën dhe drejtimin për të drejtuar zjarrin.

 

Në të njëjtën kohë, platforma Palantir i sugjeron operatorit njerëzor se cilat armë të përdorë për të përfunduar detyrën dhe në fund vlerëson dëmin e bërë, rezultatet e të cilit, më pas, analizohen nga algoritmi për të përmirësuar më tej efikasitetin e tij.

 

Nga momenti që algoritmi identifikon objektivat deri në momentin kur ato goditen, kalojnë maksimumi dy ose tre minuta, ndërsa më parë, shpjegon revista Time, duheshin deri në gjashtë orë.

 

Pavarësisht nëse ato përdoren nga forcat aleate ose armiqësore ndaj Evropës, nga ata që mbrojnë kundër një pushtimi ose nga ata që po e kryejnë një të tillë, fakti që këta softuer mbështetës vendimesh lejojnë të godasin një sasi të madhe objektivash në një kohë shumë të reduktuar do të thotë vetëm një gjë: më shumë përleshje, më shumë bombardime dhe për rrjedhojë më shumë vdekje, mes ushtarëve dhe civilëve.

 

Nëse dikur mendohej se do të çonte edhe drejt paqes universale, ne tani e dimë se - ndërmjet armëve autonome dhe sistemeve të mbështetjes së vendimeve - inteligjenca artificiale, po e bën luftën edhe më vdekjeprurëse.

 

Nga z. Erton Duka.

© Copyright | Agjencia Telegrafike Vox

Ne të njohim me botën | www.007vox.com | Burimi yt i informacionit

 
 
 

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page