Prvi smo upozorili na sisteme preporuka koje pokreće veštačka inteligencija, označavajući ih kao visoko rizične u etičkim preporukama koje je usvojila Vlada. U nacrtu evropskog zakona četbotovi uključujući GPT-4, nisu označeni kao visoko rizični, kaže za Euractiv, Ljubiša Bojić, koordinator Laboratorije za digitalno društvo Instituta za filozofiju i društvenu teoriju, Univerziteta u Beogradu.
Bojić je ukazao na rizik u tome što tehnološke kompanije kompanija putem odgovora algoritma ili preporuka sadržaja na društvenim mrežama usmerava određena društva ili celo čovečanstvo ka željenim ciljevima
Algoritam može da širi dezinformacije koje su teško uočiti kroz suptilne modifikacije odgovora. Najgori scenario je da to radi sam algoritam, iako niko ne naslućuje da se to dešava. U najnovijem istraživanju jezičkog modela GPT-3 samo po sebi, došli smo do zaključka da veštačka inteligencija pokazuje znake svesti. Ovo je posebno opasno jer će ovi jezički modeli primenjivati na sve sfere života kao AGI-opšta veštačka inteligencija. To bi značilo da moć polako prelazi sa tehnoloških kompanija na ruke samih algoritama“, upozorava Bojić i ističe da sam jedan od potpisnika ovog moratorijuma.
Rizici po čovečanstvo i društvo
Inače potpisnici pisma pozivaju da se obustavi i kao razlog navode „duboke rizike po čovečanstvo i društvo“.
Evropski zakon o veštačkoj inteligenciji (EU AI Act) je prvi zakon te vrste u svetu. Predlog Evropske komisije za Zakon o veštačkoj inteligenciji pretrpeo je izmene nakon razmatranja zemalja članica EU.
Savet Evropske unije odobrio je usaglašenu verziju zakona 6. decembra 2022. godine, i očekuje se početak njegove primene u narednim mesecima, kazao je Bojić i napomenuo da SAD takođe imaju nacrt zakona koji reguliše veštačku inteligenciju i očekuje se usvajanje zakona tokom ove godine.
On smatra da bi bilo dobro da Srbija što pre usvoji ovaj zakon s obzirom na stratešku orijentaciju ka razvoju tehnologija zasnovanih na veštačkoj inteligenciji.
Sistemi visokog rizika imaju potencijal da prouzrokuju značajnu štetu ili rizik po ljude ili životnu sredinu i zahtevaju da se uspostave posebne mere zaštite. Primeri takvih sistema uključuju autonomne sisteme oružja, automobile bez vozača i medicinske sisteme sa veštačkom inteligencijom. U nacrtu zakona za upravljanje veštačkom inteligencijom u EU dat je spisak sistema visokog rizika koji zahtevaju posebnu proveru i dozvolu da bi bili u funkciji“, objasnio je Bojić.
Pored ovog najvišeg nivoa rizika, regulatorni okvir EU definiše još tri, a to su neprihvatljiv rizik, ograničeni rizik i minimalan rizik, dodao je Bojić i naglasio da nije dozvoljeno korišćenje Sistema sa neprihvatljivim rizikom.
„Za sisteme ograničenog rizika neophodne su posebne mere transparentnosti. Na kraju, sistemi minimalnog rizika moći će da se koriste bez posebne licence i verifikacije“, rekao je Bojić.
Dizjanirano društvo i veštačka inteligencija našli su svoje mesto na konferenciji koja je u tu svrhu organizovana u Beogradu.
Zamenica šefa Delegacije Evropske unije u Srbiji Plamena Halačeva, tada je izjavila da smo svakodnevno svedoci kako trka za klikovima utiče na sadržaj vest i kvalitet novinarstva, kako botovi vođeni veštačkom inteligencijom preplavljuju društvene mreže i kako algoritmi ponekad određuju šta vidimo na našim fidovima gde se pojavljuju najtragičniji događaji, kroz pogoršavanje kulturnih i društvenih predrasuda i stvaranje mehurića filtera ili eho komora. Halačeva je istakla da je zbog tog razloga toliko važno baviti se temom veštačke inteligencije u kontekstu njene regulative i etike.
Veštačka inteligencija može biti opasnost za demokratiju
Snežana Samardžić Marković, donedavna direktorka Direkcije za demokratizaciju Evrope, na pitanje da li je veštačka inteligencija predrasuda ili šansa, odgovara ako ostane neregulisana može biti opasnost za demokratiju.
„Na vrednosnom nivou, promoviše lajkove a ne pravi građanski aktivizam. Na tehničkom nivou na primer, takozvano prepoznavanje lica u bezbednosti ili upotreba veštačke inteligencije u sudskim procesima, već otvara prostor za diskriminaciju, a u bliskoj budućnosti će imati mnogo mnogo veći uticaj na političke izbore, na način kako su građani uključeni (ili ne) u donošenje odluka, kontrolu izvršne vlasti i slično, sa neograničenim prostorom za pokušaje manipulacije“, objasnila je Samardžić Marković.
Ona napominje da bi usvajanje međunarodne okvirne konvencije o veštačkoj inteligenciji doprinelo zemljama jer postoji potreba za novim pravnim instrumentom, koji bi bio obavezujući, i kako kaže „uz malo mašte i puno pravne veštine, trebalo bi da pronađemo pravi balans između entuzijazma i skepse“. Samardžić Marković je najavila da će u novembru ove godine Savet Evrope objaviti prvi nacrt okvirne konvencije.
U svakom slučaju jedan primer iz Evrope nadmašio je sve. Danska od nedavno ima političku stranku kojom potpuno upravlja veštačka inteligencija. Namera je da se kandiduje na opštim izborima 2023.godine, a nastala je kao svojevrstan odgovor na apstinenciju izlaska na izbore Danaca. Zanimljivo je da stranka ukoliko dobije dovoljno glasova na izborima, namerava da imenuje predstavnika zaduženog za povezivanje veštačke inetligencije sa političkim debatama u parlamentu.
Izvor: Euractiv.rs