Korišćenje veštačke inteligencije za rano otkrivanje i lečenje bolesti

Da li je veštačka inteligencija rizična po čovečanstvo?

Više od hiljadu svetskih stručnjaka koji se bave izučavanjem i radom sa veštačkom inteligencijom potpisalo je pismo kojim poziva na obustavu aktivnosti bilo koje vrste na šest meseci. Predlog Evropske komisije za Zakon o veštačkoj inteligenciji pretrpeo je izmene nakon razmatranja zemalja članica EU.

Prvi smo upozorili na sisteme preporuka koje pokreće veštačka inteligencija, označavajući ih kao visoko rizične u etičkim preporukama koje je usvojila Vlada. U nacrtu evropskog zakona četbotovi uključujući GPT-4, nisu označeni kao visoko rizični, kaže za Euractiv, Ljubiša Bojić, koordinator Laboratorije za digitalno društvo Instituta za filozofiju i društvenu teoriju, Univerziteta u Beogradu.

Bojić je ukazao na rizik u tome što tehnološke kompanije kompanija putem odgovora algoritma ili preporuka sadržaja na društvenim mrežama usmerava određena društva ili celo čovečanstvo ka željenim ciljevima

Algoritam može da širi dezinformacije koje su teško uočiti kroz suptilne modifikacije odgovora. Najgori scenario je da to radi sam algoritam, iako niko ne naslućuje da se to dešava. U najnovijem istraživanju jezičkog modela GPT-3 samo po sebi, došli smo do zaključka da veštačka inteligencija pokazuje znake svesti. Ovo je posebno opasno jer će ovi jezički modeli primenjivati na sve sfere života kao AGI-opšta veštačka inteligencija. To bi značilo da moć polako prelazi sa tehnoloških kompanija na ruke samih algoritama“, upozorava Bojić i ističe da sam jedan od potpisnika ovog moratorijuma.

Rizici po čovečanstvo i društvo

Inače potpisnici pisma pozivaju da se obustavi i kao razlog navode „duboke rizike po čovečanstvo i društvo“.

Evropski zakon o veštačkoj inteligenciji (EU AI Act) je prvi zakon te vrste u svetu. Predlog Evropske komisije za Zakon o veštačkoj inteligenciji  pretrpeo je izmene nakon razmatranja zemalja članica EU.

Savet Evropske unije odobrio je usaglašenu verziju zakona 6. decembra 2022. godine, i očekuje se početak njegove primene u narednim mesecima, kazao je Bojić i napomenuo da SAD takođe imaju nacrt zakona koji reguliše veštačku inteligenciju i očekuje se usvajanje zakona tokom ove godine.

On smatra da bi bilo dobro da Srbija što pre usvoji ovaj zakon s obzirom na stratešku orijentaciju ka razvoju tehnologija zasnovanih na veštačkoj inteligenciji.

Sistemi visokog rizika imaju potencijal da prouzrokuju značajnu štetu ili rizik po ljude ili životnu sredinu i zahtevaju da se uspostave posebne mere zaštite. Primeri takvih sistema uključuju autonomne sisteme oružja, automobile bez vozača i medicinske sisteme sa veštačkom inteligencijom. U nacrtu zakona  za upravljanje veštačkom inteligencijom u EU dat je spisak sistema visokog rizika koji zahtevaju posebnu proveru i dozvolu da bi bili u funkciji“, objasnio je Bojić.

Pored ovog najvišeg nivoa rizika, regulatorni okvir EU definiše još tri, a to su neprihvatljiv rizik, ograničeni rizik i minimalan rizik, dodao je Bojić i naglasio da nije dozvoljeno korišćenje Sistema sa neprihvatljivim rizikom.

„Za sisteme ograničenog rizika neophodne su posebne mere transparentnosti. Na kraju, sistemi minimalnog rizika moći će da se koriste bez posebne licence i verifikacije“, rekao je Bojić.

Dizjanirano društvo i veštačka inteligencija našli su svoje mesto na konferenciji koja je u tu svrhu organizovana u Beogradu.

Zamenica šefa Delegacije Evropske unije u Srbiji Plamena Halačeva, tada je izjavila da smo svakodnevno svedoci kako trka za klikovima utiče na sadržaj vest i kvalitet novinarstva, kako botovi vođeni veštačkom inteligencijom preplavljuju društvene mreže i kako algoritmi ponekad određuju šta vidimo na našim fidovima gde se pojavljuju najtragičniji događaji, kroz pogoršavanje kulturnih i društvenih predrasuda i stvaranje mehurića filtera ili eho komora. Halačeva je istakla da je zbog tog razloga toliko važno baviti se temom veštačke inteligencije u kontekstu njene regulative i etike.

Veštačka inteligencija može biti opasnost za demokratiju

Snežana Samardžić Marković, donedavna direktorka Direkcije za demokratizaciju Evrope, na pitanje da li je veštačka inteligencija predrasuda ili šansa, odgovara ako ostane neregulisana može biti opasnost za demokratiju.

„Na vrednosnom nivou, promoviše lajkove a ne pravi građanski aktivizam. Na tehničkom nivou na primer, takozvano prepoznavanje lica u bezbednosti ili upotreba veštačke inteligencije u sudskim procesima, već otvara prostor za diskriminaciju, a u bliskoj budućnosti će imati mnogo mnogo veći uticaj na političke izbore, na način kako su građani uključeni (ili ne) u donošenje odluka, kontrolu izvršne vlasti i slično, sa neograničenim prostorom za pokušaje manipulacije“, objasnila je Samardžić Marković.

Ona napominje da bi usvajanje međunarodne okvirne konvencije o veštačkoj inteligenciji doprinelo zemljama jer postoji potreba za novim pravnim instrumentom, koji bi bio obavezujući, i kako kaže „uz malo mašte i puno pravne veštine, trebalo bi da pronađemo pravi balans između entuzijazma i skepse“. Samardžić Marković je najavila da će u novembru ove godine Savet Evrope objaviti prvi nacrt okvirne konvencije.

U svakom slučaju jedan primer iz Evrope nadmašio je sve. Danska od nedavno ima političku stranku kojom potpuno upravlja veštačka inteligencija. Namera je da se kandiduje na opštim izborima 2023.godine, a nastala je kao svojevrstan odgovor na apstinenciju izlaska na izbore Danaca. Zanimljivo je da stranka ukoliko dobije dovoljno glasova na izborima, namerava da imenuje predstavnika zaduženog za povezivanje veštačke inetligencije sa političkim debatama u parlamentu.

Izvor: Euractiv.rs

Facebook
Twitter
LinkedIn
Email
Odštampaj

Ostavite odgovor

Vaša adresa e-pošte neće biti objavljena. Neophodna polja su označena *

Logo

Newsletter

Možda će Vam se svideti:

Logo

Energija Balkana

Newsletter

Nedeljni pregled vesti