NJË APEL KUNDËR RREZIQEVE TË INTELIGJENCËS ARTIFICIALE NGA 25 EMRA TË MËDHENJ NË KËRKIM SHKENCOR.
- Agjencia Telegrafike Vox

- May 21, 2024
- 2 min read
Uashington, Amerikë | Inteligjencat Artificiale (IA) po rriten shumë shpejt dhe qeverisja e këtij zhvillimi është urgjentisht thelbësore për të parandaluar që ato të bëhen të pamenaxhueshme dhe të rrezikshme.
Për këtë arsye, qeveritë dhe kompanitë kryesore duhet të investojnë shumë më tepër për të gjetur kundërmasa efektive ndaj rreziqeve që variojnë nga paqëndrueshmëria sociale deri te manipulimi masiv, deri te luftërat e zhvilluara me makina autonome.
Apeli u prezantua në revistën Shkenca (Science) nga 25 ekspertë kryesorë në botë të inteligjencës artificiale (AI) nga Shtetet e Bashkuara, Kina, Europa dhe Mbretëria e Bashkuar, të udhëhequr nga Xhoshua (Yoshua) Bengio, nga Universiteti Kanadez i Montrealit.
Ata e bëjnë këtë në një letër të botuar në revistën Shkenca (Science) në prag të samitit ndërkombëtar për sigurinë e IA-le, të planifikuar për tu mbajtur në Seul më 21 dhe 22 maj 2024.
Ajo që 25 nënshkruesit e apelit thonë se tani nevojitet urgjentisht është rregullim rigoroz nga qeveritë, jo kode vullnetare të sjelljes të shkruara nga industria.
Për shkencëtarin kompjuterik Stjuart Rasll (Stuart Russell), nga Universiteti i Kalifornisë në Berkeli (Berkeley) dhe një nga nënshkruesit e letrës, është koha për të marrë seriozisht sistemet e avancuara të inteligjencës artificiale, pasi ato nuk janë lodra.
Rritja e aftësive të tyre përpara se të kuptoni se si t'i bëni ato të sigurta është absolutisht e pamatur.
Kërkimet në fushën e inteligjencës artificiale (IA) po përparojnë shumë shpejt, aq sa në hapësirën e disa viteve mund të lindin skenarë shqetësues në lidhje me fusha delikate si stabiliteti social, mbikëqyrja e përhapur, manipulimi masiv, krimet kibernetike në shkallë të gjerë, deri në atë pikë të lehtësimit të sistemeve të automatizuara të luftës.
Sipas nënshkruesve të artikullit, është e domosdoshme që udhëheqësit politikë dhe kompanitë e mëdha të kalojnë nga fjalët në veprime, konkretisht duke rritur investimet për sigurinë, të cilat, sot pothuajse nuk ekzistojnë, dhe duke vendosur rregulla serioze.
Pika e parë e deklaruar në dokument është krijimi i një organizate efektive ekspertësh të aftë për të ndërmarrë veprime të shpejta kundër IA-le.
Për krahasim - theksojnë ata - Instituti Amerikan për Sigurinë e IA-le ka një buxhet vjetor prej 10 milionë dollarësh, ndërsa Administrata Federale e Barnave (FDA) ka 6.7 miliardë dollarësh.
Më pas duhet të imponohen politika shumë më rigoroze të vlerësimit të rrezikut me pasoja konkrete, dhe, në kundërshtim me atë që ndodh sot, nuk duhet të mbështetemi në vlerësime vullnetare të modeleve të IA-le.
Ekspertët po u bëjnë thirrje gjithashtu kompanive të mëdha të IA-le që t'i japin përparësi sigurisë, duke demonstruar se sistemet e tyre nuk mund të shkaktojnë dëm dhe besojnë se është urgjente të vendosen politika që fillojnë automatikisht kur IA-le arrin piketa të caktuara të aftësive.
Prandaj, mekanizmat janë të aftë të shtrëngohen ose lirohen në varësi të aftësive reale të arritura nga algoritmet.
“Kompanitë”, përfundoi z. Rasll (Russell), do të ankohen se është shumë e vështirë të përmbushen rregulloret, se rregullimi mbyt inovacionin se ka më shumë rregulla mbi dyqanet e IA-le.
Nga z. Erton Duka.
© Copyright | Agjencia Telegrafike Vox
Ne të njohim me botën | www.007vox.com | Burimi yt i informacionit









___.png)


















































