8. novembar 2023 11:10

Andrea Nikolić: Veštačka inteligencija prelazi na polje književnosti, filma i nauke

Izvor: TANJUG

podeli vest

Andrea Nikolić: Veštačka inteligencija prelazi na polje književnosti, filma i nauke

Foto: Shutterstock.com/ART STOCK CREATIVE, ilustracija

BEOGRAD - Nedavni Samit o bezbednosti veštačke inteligencije u Velikoj Britaniji, u kome je učestvovao i generalni sekretar Ujedinjenih nacija Antonio Gutereš, među ključnim pitanjima je identifikovao potrebu za kontrolom i nadzorom nad sistemima veštačke inteligencije, ocenila je Andrea Nikolić sa Fakulteta organizacionih nauka.

Asistentkinja na Katedri za organizaciju poslovnih sistema FON-a Nikolić je rekla Tanjugu da problemi i izazovi veštačke inteligencije postaje tema brojnih zvaničnih rasprava, ali i neformalnih razgovora, a među ključnim pitanjima samita je bila i mogućnost smanjivanje njenog negativnog uticaja.

U svom obraćanju na Samitu, Gutjereš je istakao da bi globalni nadzor nad narastajućom veštačkom inteligencijom trebalo da bude zasnovan na osnovnim načelima Povelje UN u cilju poštovanja ljudskih prava.

Opisavši UN kao opštu platformu za upravljanjem nadzora veštačke inteligencije, Gutjereš je pozvao da se obrati pažnja na postojeće pretnje od puštanja moćnih modela veštačke inteligencije bez odgovarajućeg nadzora.

Gutjereš je dodao da izazivaju zabrinutost negativne posledice veštačke inteligencije, kao što je njen uticaj na gubitak poslova, eroziju kulturne raznolikosti, smeštaj korporacija koje se bave veštačkom inteligencijom samo u nekoliko zemalja i drugo.

Nikolić je rekla da je cilj polemika pred državnim i međunarodnim organima građenje sistema poverenja o veštačkoj inteligenciji, i da tu svrhu su doneti neki akti na međunarodnom nivou, kao i u Srbiji.

Prema njenim rečima, za ispunjenje cilja i povećanje poverenja u veštačku inteligenciju potredno je uključiti sve ključne aktere, kao što je to je bio samit, dok je Evropska komisija bila donela etičke smernice za pouzdanu veštačku inteligenciju.

Nikolić je podsetila da je to dokument donet od strane visokog ekspertskog komiteta sastavljenog od 52 predstavnika državnih organa, industrije, akademije i nezavisnih eksperata, koji "propisuje osnovna načela koji se tiču etičkih principa, kao što je zabrana činjenja štete, poštovanje ljudskog dostojanstva i ljudskih prava".

Istakavši da su "to neki osnovni principi na kojima treba da počiva veštačka inteligencija", koji su već ustanovljeni na evropskom nivou, Nikolić je podsetila da je i Srbija donela svoje etičke smernice za razvoj i upotrebu pouzdane veštačke inteligencije, koji su bazirani na standardima EU.

Prema njenim rečima, postoji veliki interes da se pitanja veštačke inteligencije regulišu, pošto "postoji mnogo benefita, ali i brojni rizici koje nosi sa sobom".

"Da to pitanje nije lako regulisati govori činjenica da je u junu bio pokušaj donošenja evropske uredbe o veštačkoj inteligenciji, ali period se prolongirao zbog neslaganja oko nekih ključnih pitanja kao što su klasifikacija rizika", navela je Nikolić.

Govoreći o kategorijama rizika u pomenutoj uredbi - minimalni, ograničeni, visoki i zabranjeni rizici, Nikolić je rekla da je opšte pravilo da kako je viši rizik, tako se više obaveza propisuje, odnosno detaljnija je regulacija određenog sistema veštačke inteligencije.

"Na dnu piramide je niži, minimalni rizik, i većina sistema veštačke inteligencije danas potpada pod tu kategoriju. To su filteri za spamove i računarske igre", rekla je Nikollić.

Ograničeni rizik nose sistemi veštačke inteligencije koji imaju neku interakciju sa čovekom, i tu se propisuje obaveza transparentnosti, kako bi se osoba informisala da ima interakciju sa veštačkom inteligencijom, i kako bi dala pristanak da se ta komunikacija nastavi.

"Verujem da je svako od nas komunicirao sa nekim korisničkim servisom banke ili moblnog operatera, i uvek smo morali veoma transprarentno dobiti obaveštenje da se radi o komunikaciji koja se vrši od strane veštačke inteligencije", navela je Nikolić.

Kod sistema visokog rizika postoji lista obaveza koje moraju ispunjavati proizvođači, distributeri i uvoznici, a Nikolič je navela kao primer izdavanje dozvole za vozilo bez vozača, gde se dovodi u pitanje kakva je odgovornost takvog sistema veštačke inteligencije.

Prema njenim rečima, tu spada i situacija kada veštačka inteligencija vrši selekciju radnika ili kandidata za određeni posao, ili kada vrši pregled radova učenika u školstvu.

U zabranjene sisteme veštačke inteligencije spadaju oni sa "neprihvatljivim rizikom, koji su zabranjeni za razvijanje i korišćenje", odnosno koji krše osnovna ljudska prava, i "manipulacijom i sublimiranim tehnikama utiču na ponašanje ljudi i na njihove preference", rekla je Nikolić.

"Jedna je stvar da li ćemo kupiti proizvod, a druga da nas tera na određeno ponašanje ili odlučuje o našim ključnim karakteristikama", istakla je Nikolić.

Zabrinutost oko sve veće upotrebe veštačke inteligencije nedavno je bila jedna od teme štrajka scenarista i drugih filmskih radnika u Holivudu, dok je ovih dana objavljena poslednja pesma "Now And Then" legendarnih Bitlsa (Beatles) primer upotrebe koji je do sada najglasnije odjeknuo.

Sa tehnički lošeg demo snimka preminulog pevača Džona Lenona (John Lennon 1940-1980) uz pomoć programa na osnovu veštačke inteligencije izdvojen je i očišćen glas, koji je bio izmešan sa zvukom klavira.

Istakavši da uticaj veštačke inteligencije prevazilazi tehnički sektor, i da prelazi i na polje muzike, filma, književnosti, nauke i drugog, Nikolić je podsetila da se autorsko delo definiše kao "originalna duhovna tvorevina nastala od strane čoveka".

Prema njenim rečima, osnovano se onda postavlja pitanje da li rezultat dobijen veštačkom inteligencijom uopšte može biti zaštićen ili ne.

Podsetivši da autorsko delo kao treća strana ne možemo koristiti bez saglasnosti i nadoknade autora, uz neke ograničene izuzetke, Nikolić je rekla da tu postoje dva suprostavljena stava.

Jedan je stav autora koji kažu da se njihovo delo ne može koristiti ni na koji način, čak ni kao neki podatak kojim hranimo sistem veštačke inteligencije, kako bi kasnije dobili neki rezultata ili delo, dok sa druge strane imamo standard slobode govora i slobodno dostupnih informacija.

"Ta dva stava treba izbalansirati. Što više ograničavamo mogućnost korišćenja autorskog dela imaćemo na kraju sistem koji neče biti visokog kvaliteta ili sa današnjim vremenom", zaključila je Nikolić.