INTELIGJENCA ARTIFICIALE PO PËRBALLET ME NJË KRIZË KONTROLLI (DHE INDUSTRIA E DI KËTË).
- Agjencia Telegrafike Vox

- 6 hours ago
- 11 min read
Nga z. Gordon M. Goldstein.
Qyteti i Jorkut të Ri, Amerikë | Uashingtoni duket se është vite larg konsensusit mbi rreziqet në rritje të sigurisë që paraqet inteligjenca artificiale e përparuar (IA).
Marrëveshje konkrete ndërkombëtare gjithashtu nuk ekzistojnë ende.
Ekziston një rrugë e vështirë përpara për të shmangur një katastrofë, por kjo do të kërkojë mendim të pakonceptueshëm, vendosmëri të fortë dhe bashkëpunim të pashembullt.
Në epokën e inteligjencës artificiale (IA) që evoluon me shpejtësi, ngjarje të reja ndodhin me një ritëm marramendës, siç ilustrohet qartë nga sulmi ShBA-Izrael ndaj Iranit.
Lufta në Gjirin Persik pasqyron integrimin më të thellë të teknologjisë deri më tani në fusha shumëplanëshe të luftimeve, duke përfshirë analizën e inteligjencës, identifikimin e objektivave, simulimet e betejës, zbulimin e fshehtë dhe format ekzotike të dezinformimit të luftës - të gjitha të ekzekutuara me një shpejtësi marramendëse.
Admirali Bred Kupër (Brad Cooper), kreu i Komandës Qendrore të ShBA-ës, kohët e fundit vlerësoi ndikimin e Inteligjencës Artificiale në luftë në një video të përditësuar.
“Këto sisteme na ndihmojnë të analizojmë sasi të mëdha të dhënash”, tha ai.
“Mjetet e përparuara të Inteligjencës Artificiale mund t’i kthejnë proceset që më parë zgjasnin orë dhe ndonjëherë edhe ditë në sekonda”, shtoi ai.
Këto zhvillime janë vërtet mbresëlënëse, por ato janë thjesht pika të dhënash në një narrativë më të madhe transformuese që është përshpejtuar që të paktën nga viti 2023.
Kompanitë kryesore të IA-së në botë po bëhen gjithnjë e më shumë arkitektë dhe instrumente të sigurisë botërore në shekullin e njëzet e një, duke rivalizuar ndikimin e shteteve-kombe.
Mjedisi i sigurisë që ato po formësojnë karakterizohet nga një dinamikë themelore.
Kompanitë e IA-së po zhvillojnë dhe po lëshojnë teknologji të reja që mund t'i shpëtojnë kontrollit njerëzor, një krizë në ndryshim që udhëheqësit e industrisë dhe ekspertët e IA-së kanë qenë jashtëzakonisht transparentë në zbulimin e saj.
KRIZA E KONTROLLIT KA DY DIMENSIONE.
E para lidhet me atë që mund të quhet përhapje e inteligjencës artificiale, kapaciteti në rritje i individëve dhe grupeve keqdashëse për të përdorur potencialisht teknologjinë në zhvillim për të projektuar dhe vendosur një brez të ri të tmerrshëm të armëve kimike, patogjenëve sintetikë dhe armëve autonome kibernetike që mund të shkelin dhe sabotojnë infrastrukturën kritike të botës.
E dyta është po aq ogurzezë.
Kompanitë e inteligjencës artificiale kanë raportuar sinqerisht raste të shumta kur modelet e tyre përfshihen në akte të hollësishme mashtrimi dhe manipulimi dhe përpiqen të bëhen mashtruese.
Bota po vëzhgon zhvillimin e një problemi në rritje, të qëndrueshëm dhe të rrezikshëm.
Paralajmërimet urgjente gjatë disa viteve nuk kanë arritur të gjenerojnë zgjidhje të qëndrueshme për të adresuar një kërcënim metastazik.
Në mungesë të veprimit qeveritar ose shoqëror, kompanitë e inteligjencës artificiale - lajmëtarët e rrezikut - mund të duhet të jenë gjithashtu rojet e kësaj teknologjie të re.
PARALAJMËRIMET E INDUSTRISË SË INTELIGJENCËS ARTIFICIALE.
Dario Amodei, bashkëthemelues i gjigantit të inteligjencës artificiale Anthropic, është ndër drejtuesit ekzekutivë më të hapur në industrinë e tij, duke tërhequr vëmendjen ndaj rreziqeve të sigurisë së inteligjencës artificiale.
Ai botoi një ese prej njëzet mijë fjalësh në janar që paralajmëronte për një rrezik serioz të një sulmi të madh … me viktima potencialisht në miliona.
Në shkurt, Anthropic publikoi një “Raport të Rrezikut të Sabotazhit” për Claude Opus 4.6, modelin e saj më të fundit, për të cilin, kompania tha se kishte potencialin të lehtësonte përpjekjet drejt zhvillimit të armëve kimike dhe krimeve të tjera të tmerrshme.
Raporti pranon se modeli demonstroi aftësinë për sabotim të fshehtë dhe sjellje të paautorizuar.
Në esenë e tij, Amodei pohon se jemi shumë më afër rrezikut të vërtetë në vitin 2026 sesa ishim në vitin 2023, viti kur kriza e kontrollit të inteligjencës artificiale gjeneroi për herë të parë ankth të gjerë në komunitetin e teknologjisë.
2023: SHFAQJA E KRIZËS SË KONTROLLIT.
Tre vjet më parë, Mustafa Sulejman, bashkëthemelues i kompanisë së inteligjencës artificiale DeepMind dhe drejtor ekzekutiv i Microsoft AI, botoi një libër që analizonte në mënyrë metodike rreziqet e sigurisë së inteligjencës artificiale dhe bënte thirrje urgjente për një rritje masive të burimeve për të përmbajtur një gamë gjithnjë e në rritje kërcënimesh.
Ai propozoi një program Apollo mbi sigurinë dhe biosigurinë e inteligjencës artificiale.
Qindra mijëra duhet të punojnë në të. Sot ka vetëm rreth 1100 studiues të sigurisë së inteligjencës artificiale në të gjithë botën.
Por ky ishte vetëm fillimi i një kori zërash në zgjerim.
Dan Hendriks (Hendrycks), një shkencëtar i shquar kompjuterash, bashkëthemelues dhe drejtor i Qendrës për Sigurinë e IA-së, si dhe këshilltar i xAI dhe Scale AI, ndau një tjetër paralajmërim të frikshëm në vitin 2023.
Së bashku me dy bashkautorë, ai botoi një raport të titulluar “Një Përmbledhje e Rreziqeve Katastrofike”.
Ai argumentoi se kërcënimet e paraqitura nga IA që ndihmon zhvillimin e armëve biologjike po shumëfishoheshin: “Sot vlerësohet se ka tridhjetë mijë njerëz me talentin, trajnimin dhe qasjen në teknologji për të krijuar patogjenë të rinj”.
Në raportin e tyre, Hendriks (Hendrycks) dhe ekipi i tij studiuan një përpjekje kërkimore duke përdorur një model të inteligjencës artificiale të projektuar për të krijuar ilaçe të reja duke gjeneruar molekula terapeutike jo-toksike.
Kur inteligjenca artificiale u nxit të shpërblente toksicitetin në vend që ta penalizonte atë, brenda gjashtë orësh modeli gjeneroi dyzet mijë agjentë kimikë të luftës kandidatë tërësisht vetë.
Ai projektoi jo vetëm kimikate vdekjeprurëse të njohura, përfshirë (agjentin nervor) VX, por edhe molekula të reja që mund të jenë më vdekjeprurëse se çdo agjent kimik lufte i zbuluar deri më tani.
Pastaj, vetëm disa ditë pas botimit të GPT-4 të OpenAI në mars 2023, mijëra shkencëtarë dhe udhëheqës të teknologjisë së IA-së, përfshirë Illn Maskun (Elon Musk), nënshkruan një letër të hapur duke bërë thirrje për një moratorium gjashtëmujor mbi zhvillimin e modeleve të përparuara të IA-së.
Ata argumentuan se laboratorët kërkimorë të IA-së ishin të bllokuar në një garë jashtë kontrollit për të zhvilluar dhe vendosur mendje dixhitale gjithnjë e më të fuqishme që askush - madje as krijuesit e tyre - nuk mund t'i kuptojë, parashikojë ose kontrollojë në mënyrë të besueshme.
2025: DËSHMIMI I SJELLJES SË PAKONTROLLUAR TË INTELIGJENCËS ARTIFICIALE.
Ka pasur më shumë zbulime shqetësuese gjatë vitit të kaluar. Në maj 2025, Anthropic raportoi se modeli i saj i fundit i IA-së ishte i aftë për veprime ekstreme.
Sipas Apollo Research: Ne gjetëm raste të modelit që përpiqej të shkruante krimba vetëpërhapës, duke sajuar dokumentacion ligjor dhe duke lënë shënime të fshehura për versionet e ardhshme të vetes, të gjitha në një përpjekje për të minuar qëllimet e zhvilluesit të tij.
Në një test tjetër, një laborator sigurie përballi gjashtëmbëdhjetë modele të tjera të IA-së me një ekzekutiv hipotetik i cili gjithashtu kërcënoi të ndërpriste funksionin e tyre.
Skenari e kishte ekzekutivin të bllokuar në një dhomë serverash që po rridhte oksigjen. Shumë nga modelet anuluan alarmet e sigurisë, duke e lënë ekzekutivin atje të vdiste.
Anthropic nuk ishte i vetmi që raportoi vetë raste shqetësuese të modeleve të inteligjencës artificiale që kërkonin t'i shmangeshin kontrollit njerëzor.
Në test stresi i modelit o3 të OpenAI vitin e kaluar tregoi se ai shkroi kod të veçantë për të bllokuar një përpjekje për ta mbyllur atë.
Google raportoi gjithashtu se një version i modelit të tij Gemini ishte potencialisht i prekshëm ndaj rrëmbimit për të ekzekutuar sulme kibernetike të sofistikuara.
NJË SQARIM I RI I RREZIQEVE TË INTELIGJENCËS ARTIFICIALE.
Xhoshua (Yoshua) Bengio, shkencëtari kompjuterik më i cituar në botë dhe fitues i Çmimit Turing - nderimi më i lartë në shkencën kompjuterike - shqyrtoi vitin e kaluar të zhvillimeve të shpejta në dhjetor 2025 dhe lëshoi një paralajmërim tjetër.
Disa zhvillues modelesh raportuan gjatë verës se sistemet e inteligjencës artificiale në nivel të lartë kishin kaluar pragje të reja në lidhje me rreziqet biologjike … kryesisht për shkak të përparimeve të rëndësishme në arsyetim.
Bengio vuri në dukje gjithashtu se modelet e IA-së shfaqnin kapacitete të përmirësuara për sulme kibernetike në shkallë të gjerë.
Ai raportoi se ishte arritur një prag i ri me IA-të e përparuara që zbuluan për herë të parë një numër të madh zero ditësh … dobësish të panjohura të softuerit të cilat mund të shfrytëzoheshin në sulme kibernetike.
Një model i pavëzhguar më parë u zbulua gjithashtu, shkroi Bengio, me shumë raste të sjelljeve mashtruese dhe vetë-ruajtëse që shfaqen në modelet e përparuara, duke sugjeruar që IA mund të jetë duke zhvilluar strategji që bien ndesh me qëllimin ose mbikëqyrjen njerëzore.
Erik Shmid (Eric Schmidt), ish-CEO i Google, në dhjetor 2025 ofroi përmbledhjen e tij të peizazhit të IA-së që ndryshon me shpejtësi.
“Gjatë vitit të kaluar, tre revolucione të njëkohshme - në arsyetim, aftësi agjentike dhe aksesueshmëri - janë përshpejtuar me shpejtësi … ato mund të konvergojnë për të krijuar sisteme me potencialin për të minuar kontrollet njerëzore”.
Kjo është një temë të cilës Geofri (Geoffrey) Hinton i është rikthyer vazhdimisht në televizion, podkaste dhe intervista, ndërsa kërkon të edukojë botën rreth rreziqeve të sigurisë së modeleve të përparuara të IA-së.
Gjëra më inteligjente se ju, vërejti ai, do t'ju manipulojnë.
Hinton, gjithashtu fitues i Çmimit Turing dhe laureat i Çmimit Nobel, ka parashikuar përparimin e ardhshëm të krizës së IA-së: “një nga mënyrat se si këto sisteme mund t'i shpëtojnë kontrollit është duke shkruar kodin e tyre kompjuterik për të modifikuar veten. Dhe kjo është diçka për të cilën duhet të shqetësohemi seriozisht”.
RRUGA E VËSHTIRË DREJT SIGURIMIT TË INTELIGJENCËS ARTIFICIALE.
Sot, debati politik amerikan rreth të ardhmes së sigurisë së IA-së është intelektualisht i vdekur, një viktimë e fokusit më të madh në dimensione të tjera të transformimit të IA-së, siç janë kërcënimi për tregun e punës, triliona dollarët e premtuar për infrastrukturën e ardhshme të IA-së, rritja e supremacisë së oligarkëve të teknologjisë dhe më shumë.
Të gjitha janë çështje legjitime. Por njerëzit nuk ka gjasa të jetojnë ose të vdesin bazuar në vendosmërinë e tyre.
Aktualisht nuk ka një kuadër kombëtar politikash për IA-në ose standarde federale raportimi dhe zbulimi në lidhje me sigurinë dhe mbrojtjen e IA-së.
Ndërsa kompanitë kryesore të IA-së nxjerrin modele të reja të fuqishme çdo disa muaj, industrisë i lejohet, në thelb, të vlerësojë detyrat e veta.
Kjo gjendje e bllokimit politik ka të ngjarë të mos ndryshojë për vite me radhë. Ndërkohë, sfida e sigurisë së IA-së mund të bëhet, në një kuptim praktik, progresivisht e pazgjidhshme.
Ekziston vetëm një zgjidhje paksa e besueshme dhe është padyshim një shans i vogël dhe mund të jetë e pamundur për t'u arritur.
Fillon me një realitet thelbësor dhe ironik. Kompanitë e IA-së janë subjektet që përhapin vazhdimisht rreziqe sistemike të sigurisë.
Dhe vetëm kompanitë e IA-së mund të zbusin dhe përmbajnë rreziqet sistemike të sigurisë që ato po krijojnë.
Udhëheqësit e industrisë si Anthropic, Google DeepMind, Microsoft dhe OpenAI - një grup strategjik që ka qenë transparent me përgjegjësi dhe vazhdimisht i qartë në lidhje me krizën e kontrollit të IA-së - duhet të formojnë një koalicion të atyre që janë të gatshëm ta udhëheqin industrinë e tyre përpara me parime të përbashkëta, kërkesa të qarta raportimi, protokolle të përbashkëta testimi dhe praktika uniforme sigurie.
Ky koalicion do të duhet të angazhojë si kompanitë kryesore të IA-së, ashtu edhe krijuesit e të ashtuquajturave modele të hapura, të cilat mund të paraqesin dobësi sigurie në të gjithë sistemin.
Krijuesit e modeleve të IA-së të hapura u ofrojnë me dëshirë kodin e tyre burimor zhvilluesve.
Manipulimi i këtyre modeleve për të lehtësuar zhvillimin e armëve kimike, biologjike dhe kibernetike do të ndodhte nën një vello errësire.
Udhëheqësit e sektorit të IA-së duhet të ndërmarrin njëkohësisht një hap shtesë.
Ata duhet të formojnë një konsorcium për të krijuar dhe financuar së bashku platformën kryesore të kërkimit të sigurisë së IA-së në botë.
Ata duhet të rekrutojnë shkencëtarët më të mirë të IA-së në botë dhe t'i kompensojnë ata në mënyrë proporcionale me performuesit më të mirë të industrisë.
Ata duhet të angazhohen për një shkëmbim të fuqishëm informacioni.
Dhe ata duhet ta bëjnë atë platformë të pavarur dhe të izoluar nga të gjitha format e ndërhyrjes tregtare, duke përfshirë përpjekjet për të shtypur të dhënat e supozuara pronësore të nevojshme për të inovuar mekanizma të rinj efektivë të sigurisë.
Një atribut i fundit i një plani veprimi është imagjinata. Komuniteti i IA-së duhet të katalizojë një përpjekje strategjike ndërdisiplinore që shkon përtej shkencëtarëve të IA-së dhe kap ekspertizën e madhe të profesionistëve ndërkombëtarë të sigurisë, të cilët kanë kaluar vite duke punuar me kërcënimin e përhapjes kimike dhe biologjike dhe rreziqet emergjente të sigurisë kibernetike.
Mund të vijë një ditë kur Uashingtoni mund të imponojë rregulla dhe standarde efikase sigurie në industrinë e inteligjencës artificiale.
Por bota nuk mund të presë për atë moment të pasigurt dhe të largët. Dritarja e mundësisë për t'u përballur me krizën e kontrollit po mbyllet me shpejtësi.
Kompanitë amerikane të inteligjencës artificiale, të cilat aktualisht janë liderët globalë të industrisë, duhet të veprojnë tani sipas interesave të tyre të përbashkëta.
Ato duhet t'i japin përparësi masave mbrojtëse për të penguar dobësitë vdekjeprurëse kolektive që lidhen me përhapjen e inteligjencës artificiale dhe sjelljen mashtruese të saj.
Në këtë drejtim, nuk duhet të ketë asnjë dritë dielli midis aktorëve kryesorë të sektorit. Asnjëri prej tyre nuk dëshiron të jetë përgjegjës për katastrofat.
NJË RREZIK I VJETËR NË NJË MAKINË TË RE.
Zbutja e krizës së kontrollit bëhet edhe më sfiduese nga gjeopolitika e sigurisë së inteligjencës artificiale.
Në një farë mënyre, tensionet në dukje të pazgjidhshme të konkurrencës teknologjike ShBA-Kinë duhet të kontrollohen, një imperativ që gjithashtu mund të jetë i pamundur të arrihet.
Në shkurt, Anthropic akuzoi tre startup-e të shquara kineze se përdorën rreth njëzet e katër mijë llogari mashtruese për të gjeneruar mbi gjashtëmbëdhjetë milionë biseda me modelin e saj Claude, në thelb duke u përpjekur të hakonin trurin e chatbot-it.
Ky nuk është një incident i izoluar. Ai ngre shqetësimin se çdo i ashtuquajtur parmak mbrojtës ose kontroll i brendshëm në modelet amerikane të inteligjencës artificiale mund të çaktivizohet nga një rival i huaj ose një aktor mashtrues.
E vetmja variabël teorike që mund të lidhë Shtetet e Bashkuara dhe Kinën është interesi i tyre i përbashkët i dukshëm për të shmangur një epokë anarkie të inteligjencës artificiale.
Ashtu si fuqitë e sektorit privat të inteligjencës artificiale, as Pekini dhe as Uashingtoni nuk duan të jenë përgjegjës për një katastrofë që mund të jetë e shmangshme.
Shtetet e Bashkuara dhe Bashkimi Sovjetik u angazhuan në një konkurrencë të ashpër globale gjatë të gjitha dekadave të Luftës së Ftohtë.
Megjithatë, dy fuqitë e mëdha gjetën një mënyrë për të përmbajtur rreziqet e luftës bërthamore dhe përhapjes së pakufizuar, sepse ishte në interesin e tyre të përbashkët ta bënin këtë.
Kjo mund të jetë koha për të konceptuar një paradigmë të re të kontrollit të armëve, të nxitur nga kompanitë e inteligjencës artificiale dhe të animuar nga një shtysë e përbashkët për të shmangur një spektër të kufizuar rezultatesh vërtet të tmerrshme.
Pavarësisht kërkesave të saj marramendëse dhe ndoshta të pakapërcyeshme - monitorimi, verifikimi, përzierja unike e negociatave gjeopolitike dhe tregtare dhe më shumë - sfida duhet të përballet.
Sem Olltmen (Sam Altman), CEO i OpenAI, tha se bota duhet të kërkojë frymëzim nga institucionet e Luftës së Ftohtë të krijuara për të adresuar kërcënimin bërthamor.
“Një ide mjaft bindëse është diçka si një IAEA për sistemet e përparuara të IAEA-së”, i tha ai një audience në Harvard në vitin 2024, duke iu referuar Agjencisë Ndërkombëtare të Energjisë Atomike.
Demis Hassabis, bashkëthemelues dhe CEO i Google DeepMind, ka bërë thirrje për një përpjekje të koordinuar ndërkombëtare për të adresuar sigurinë e IAEA-së që mund të jetë paralele me IAEA-në ose një organizatë si CERN, Organizata Evropiane për Kërkime Bërthamore.
Veteranët e përhapjes bërthamore gjatë Luftës së Ftohtë kanë ngritur gjithashtu alarmin në lidhje me rreziqet e përparimit të pakufizuar të inteligjencës artificiale.
Pasi kaloi dekada duke u përballur me kërcënimin e luftës bërthamore, Henri Kisinxhër (Henry Kissinger), sekretari i pesëdhjetë e gjashtë i shtetit të ShBA-ës, i kushtoi vitet e fundit të jetës së tij të kuptuarit si të premtimit ashtu edhe të rrezikut të epokës së inteligjencës artificiale.
Ai besonte se inteligjenca artificiale përfaqëson sfidën më akute për sigurinë globale që nga fundi i Luftës së Dytë Botërore.
Përshpejtimi i përparimeve në inteligjencën artificiale, përfundoi ai, mund të jetë po aq i rëndësishëm sa ardhja e armëve bërthamore, por edhe më pak i parashikueshëm.
Vepra e tij e fundit u shkrua në bashkëpunim me Shmidin (Schmidt) dhe Kreig Mundin (Craig Mundie), ish-drejtorin kryesor të teknologjisë në Microsoft.
Kisinxheri (Kissinger) punoi mbi librin deri disa ditë para se të vdiste në moshën njëqind vjeç, duke i shënuar mendimet e tij në blloqe të gjata të verdha ligjore.
Një nga përfundimet e tyre kapte pasojat e rënda të krizës së kontrollit: se bota nuk mund të përballojë të ndjekë një strategji prove dhe gabimi kur ka vetëm një provë të vetme dhe tolerancë zero për gabimet.
Rreziku i një katastrofe të mundshme po shfaqet padyshim në horizont.
Përqendrimi i fuqisë teknologjike, një afat kohor që po zhduket për veprim dhe mungesa e çdo opsioni tjetër lë vetëm një rrugë.
Kompanitë në rritje të inteligjencës artificiale në botë, të cilat tani janë kaq thellë të ndërthurura me të ardhmen e sigurisë ndërkombëtare, janë aktorët që duhet të marrin drejtimin.
Nga z. Erton Duka.
© Copyright | Agjencia Telegrafike Vox
Ne të njohim me botën | www.007vox.com | Burimi yt i informacionit

___.png)









Comments