ORGANIZATA JO-QEVERITARE HUMAN RIGHTS WATCH BËN THIRRJE PËR RREGULLIM LIGJOR URGJENT TË FUNKSIONIMIT TË ROBOTËVE VRASËS TË PAJISUR ME INTELIGJENCË ARTIFICIALE.
- Agjencia Telegrafike Vox
- May 5
- 2 min read

Jorku i ri, Amerikë | Organizata jo-qeveritare Human Rights Watch botoi një raport mbi robotët vrasës, armë të automatizuara të inteligjencës artificiale që mund të vrasin njerëz pa udhëzime ose mbikëqyrje njerëzore, përpara takimit të parë të Asamblesë së Përgjithshme të Kombeve të Bashkuara mbi sistemet autonome të armëve në Nju Jork.
HRW-ja vuri në dukje thirrjen, të mbështetur nga të paktën 129 vende, për negociata dhe miratim urgjent të një instrumenti ligjërisht të detyrueshëm për të ndaluar dhe rregulluar sistemet autonome të armëve.
Human Rights Watch përshkruan gjashtë rreziqe kryesore për të drejtat e njeriut që vijnë nga robotët vrasës.
Ndër këto rreziqe, rreziku më i madh që vjen është për të drejtën për të mos u privuar arbitrarisht nga jeta, gjë që kërkon që përdorimi i forcës të jetë i nevojshëm për të arritur një qëllim legjitim në mënyrë proporcionale.
Organizata Human Rights Watch tha: “Sistemet (autonome) të armëve do të përballeshin me vështirësi serioze në përmbushjen e këtij testi tre-pjesësh…
Sistemet autonome të armëve nuk do të mund të identifikonin sinjale delikate të sjelljes njerëzore për të interpretuar domosdoshmërinë e një sulmi, do të mungonte gjykimi njerëzor për të peshuar proporcionalitetin dhe nuk do të mund të komunikonin në mënyrë efektive me një individ për të çaktivizuar një situatë dhe për të siguruar që forca vdekjeprurëse të jetë një opsion i fundit.
Një e drejtë tjetër e vënë në rrezik nga sistemet e inteligjencës artificiale është e drejta për tubim paqësor”.
Human Rights Watch ngre shqetësime se robotët vrasës nuk do të kenë aftësinë për të dalluar në mënyrë adekuate protestat e dhunshme nga ato paqësore, duke u përdorur kështu shumë shpesh në ndërhyrje në këtë të drejtë.
HRW-ja beson se robotët vrasës mund të kenë një efekt frenues dhe se njerëzit do të ndalojnë së ushtruari të drejtën e tyre për tubim paqësor për të mbrojtur veten.
Për më tepër, robotët vrasës paraqesin një rrezik për parimin e mosdiskriminimit, pasi paragjykimi algoritmik mund të ndikojë në mënyrë disproporcionale dhe negative në grupet tashmë të margjinalizuara.
Ashtu si me të gjitha sistemet e inteligjencës artificiale, problemet me armët automatike rrjedhin nga mungesa e shpjegueshmërisë dhe transparencës në lidhje me procesin e vendimmarrjes.
Kjo njihet si problemi i kutisë së zezë, i cili, shpjegon se si kompleksiteti dhe disa faktorë të të dhënave që hyjnë në vendimet e inteligjencës artificiale rezultojnë në një pamundësi për ne për të parë se si sistemet e të mësuarit të thellë i marrin vendimet e tyre.
Problemi i kutisë së zezë, nga ana tjetër, paraqet rreziqe për të drejtat e njeriut.
Rreziqet e inteligjencës artificiale në lidhje me të drejtat e njeriut kanë qenë një çështje mbizotëruese për t'u shqyrtuar nga OKB-ja, pasi në fillim të këtij muaji, ekspertët e OKB-së kërkuan rregullimin e inteligjencës artificiale nga OKB-ja për të siguruar respektimin e të drejtave të njeriut.
Siç theksoi z. Arnoud Valli në OKB, rregullimi i inteligjencës artificiale në fushën e betejës është një nevojë urgjente për të parandaluar pasojat vdekjeprurëse.
Nga z. Erton Duka.
© Copyright | Agjencia Telegrafike Vox
Ne të njohim me botën | www.007vox.com | Burimi yt i informacionit
Comments