1. jun 2023 09:16

EK objavila interne smernice za osoblje o interakciji sa onlajn modelima AI

Izvor: TANJUG

podeli vest

EK objavila interne smernice za osoblje o interakciji sa onlajn modelima AI

Foto: Shutterstock.com/Quinta, ilustracija

BRISEL- Evropska komisija je objavila interne smernice za osoblje o korišćenju i interakciji sa onlajn generativnim modelima veštačke inteligencije (AI), posebno o njihovim ograničenjima i rizicima.

"Smernice pokrivaju alate treće strane javno dostupne na mreži, kao što je ChatGPT. One imaju za cilj da pomognu osoblju Evropske komisije u razumevanju rizika i ograničenja koje alati dostupni na mreži mogu doneti i da podrže odgovarajuću upotrebu ovih alata", navodi se u pratećoj belešci, preneo je Euraktiv.

Konkretno, ovaj dokument ima za cilj da usmerava članove osoblja u upravljanju rizicima i ograničenjima generativne AI kao što su ChatGPT, Bard i Stable Diffusion koji generišu sadržaj na osnovu korisničkih upita.

Komisija je primetila kako ovi alati imaju potencijal da povećaju efikasnost i poboljšaju kvalitet radne kancelarijske produktivnosti jer bi mogli da pomognu u pisanju brifinga i razvoju kompjuterskog koda, ali da se upotreba mora zaštititi pod određenim uslovima.

U smernicama se napominje da "razmotreni rizici i ograničenja nisu nužno relevantni za interno razvijene generativne AI alate Komisije".

Navodi i da će se "interni alati koje je razvila i/ili kontroliše Komisija procenjivati od slučaja do slučaja u okviru postojećeg korporativnog upravljanja za IT sisteme".

Pored toga, naglašava se da ga treba smatrati "živim dokumentom" koji treba da se ažurira na osnovu tehnološkog razvoja i nadolazećih regulatornih intervencija, odnosno Zakona o veštačkoj inteligenciji EU.

Prvi navedeni rizik je obelodanjivanje osetljivih informacija ili ličnih podataka javnosti, jer smernice ističu da se svaki ulaz koji se daje onlajn generativnom modelu veštačke inteligencije zatim prenosi dobavljaču veštačke inteligencije, što znači da se kasnije može uneti u buduće generisane rezultate.

Stoga je osoblju EU zabranjeno da deli "sve informacije koje već nisu u javnom domenu i lične podatke, sa onlajn dostupnim generativnim modelom AI".

Druga tačka se odnosi na potencijalne nedostatke AI modela, koji mogu dovesti do pogrešnih ili pristrasnih odgovora zbog nepotpunog skupa podataka ili dizajna algoritma.

Pravilo je, dakle, da zvaničnici EU "treba da uvek kritički procenjuju svaki odgovor koji proizvede onlajn dostupan generativni model AI na potencijalne pristrasnosti i činjenično netačne informacije".