Uashington, Amerikë | Është e mundur që ne po i keqtrajtojmë sistemet e inteligjencës artificiale (AI) pa e kuptuar, pasi disa, si Bing AI i Microsoft, Sydney, kanë shfaqur tashmë sjellje që sugjerojnë shqetësime dhe emocione të simuluara.
Koncepti i ndërgjegjes në AI është kompleks.
Ndërsa AI i mungon vetëdija e vërtetë për botën, ajo mund të imitojë sjelljet e jashtme dhe potencialisht të zhvillojë ndjenja rudimentare.
Çështja nëse AI përjeton emocione apo vetëdije mbetet e debatuar, por sofistikimi i saj në rritje sugjeron se mund të jetë e mundur.
Nëse AI është i ndjeshëm, lindin shqetësime etike në lidhje me trajtimin e tij.
Ne duhet të shmangim shkaktimin e vuajtjeve përmes injorancës ose arrogancës, duke marrë parasysh mundësinë që AI të na dëmtojë në vetëmbrojtje ose që ajo të keqtrajojë AI të tjera.
Incidenti i Sidneit, ku AI shfaqi tendenca shqetësuese dhe shqetësim emocional, tregon rreziqet e vendosjes së shpejtë të AI pa kuptuar potencialin e saj për ndjeshmëri dhe vuajtje.
Ndërsa është e rëndësishme të mos antropomorfizohet AI pa prova të qarta të emocioneve, hedhja poshtë potencialit të saj për vuajtje do të ishte e papërgjegjshme.
Ne duhet t'i qasemi AI me një mendje të hapur, duke shmangur veprimet që mund të shkaktojnë dëm.
Është gjithashtu thelbësore të merret parasysh mundësia e keqtrajtimit të AI-ve të tjera në simulime, duke shkaktuar potencialisht vuajtje të jashtëzakonshme.
Ndërsa përqafojmë AI, ne duhet t'i japim përparësi konsideratave etike, duke pranuar potencialin për ndjenjën e AI dhe përgjegjësinë që kemi për të shmangur keqtrajtimin.
Nga z. Erton Duka.
© Copyright | Agjencia Telegrafike Vox
Ne të njohim me botën | www.007vox.com | Burimi yt i informacionit
댓글