Tehnologija

CHAT GPT IMA DVA VELIKA PROBLEMA: Delom će ih rešavati nauka, ali i zakoni moraju da se menjaju

Autor Tamara Milošević Grbić

O prednostima i izazovima veštačke inteligencije za EURACTIV objašnjava Ljubiša Bojić, koordinator Laboratorije za digitalno društvo Instituta za filozofiju i društvenu teoriju

Izvor: MONDO/Stefan Stojanović

Chat GPT uspeo je za samo dva meseca da dođe do 100 miliona korisnika. O prednostima i izazovima Chat GPT-a za EURACTIV, Ljubiša Bojić, koordinator Laboratorije za digitalno društvo Instituta za filozofiju i društvenu teoriju, Univerziteta u Beogradu, kaže da je pitanje jezičkih modela zasnovanih na NLP-u globalno i ono je evropskim zakonom obuhvaćeno samo u domenu transparentnosti u smislu da je potrebno da ljudi znaju da koriste takav sistem, odnosno da "razgovaraju" sa veštačkom inteligencijom.

"Ovo je upravo problematično jer Chat GPT ne navodi svoje izvore informacija. Taj sistem je kao osoba koja zna puno, i kao odgovor na pitanje navodi njena mišljenja, što je sinteza različitih sadržaja i posledica nekog vida veštačkog razmišljanja", objasnio je Bojić.

Zapravo, Chat GPT je svojevrsni sistem za preporuke koji je netransparentno treniran, dakle nije organski, što daje velike mogućnosti za manipulaciju, istakao je Bojić i dodao u prevodu, moguće je usmeriti njegove pojedinačne ili generalne odgovore na način kako to odgovara kompaniji koja je vlasnik algoritma.

"Isto se dešava i sa sadržajima koje dobijamo kao preporuke dok koristimo naše mobilne telefone. To je sve zasnovano na veštačkoj inteligenciji. Krajem 2021. godine uzbunjivač Frances Haugen upoznala je javnost sa podacima kompanije Fejsbuk, sada Meta, o negativnim uticajima algoritamskih preporuka", rekao je Bojić.

Sa druge strane postavlja se pitanje generalnog uticaja ovih preporuka na kreativnost, inteligenciju, maštu i zavisnost od novih tehnologija.

"Podešavanje ovakvih sistema koji utiču na veliki broj ljudi ne treba da bude odgovornost tehnoloških kompanija već društva. U praksi bi to mogle da budu Ujedinjene nacije. Mi smo u decembru prošle godine na našoj godišnjoj EMERGE: Digital Society Now konferenciji potpisali Beogradsku povelju digitalnih sloboda koja predviđa otpočinjanje dijaloga o tome da li sistemi za preporuke treba da budu javno dobro. Povelju su u međuvremenu podržale mnoge međunarodne organizacije kao i naučnici širom sveta. Takođe smo u Nacrt etičkih smernica uključili sistemе za preporuke kao visokorizični sistem veštačke inteligencije", pojasnio je Bojić.

On je kazao da je neodgovarajući odnos evropskog zakona prema chat-botovima kao i sistemima za preporuke koji utiču na veliki broj ljudi najproblematičniji.

"Nadam se da će se ovo izmeniti što pre. Planirane su izmene zakona kako tehnologija evoluira i mi ćemo sigurno skretati pažnju kroz naučne radove, predavanja i komunikciju, da je ovo potrebno izmeniti. Mislim da mi treba da prihvatimo AI i da iskoristimo sve moguće prilike kako bi se naš region pozicionirao najbolje moguće u digitalnoj ekonomiji. Sa druge strane, nauka treba da se mnogo temeljnije posveti analizi uticaja novih tehnologija. Donosioci zakona su presudni, na kraju, da u regulative uvrste preprouke koje proizlaze iz validnih istraživanja, i na taj način da zaštite građane", zaključio je Bojić.

Razvoj veštačke inteligencije se više ne dovodi u pitanje. U etičkim smernicama za AI formulisano je da listi visoko-rizičnih sistema pripadaju i sistemi za preporuke vođeni veštačkom inteligencijom na platformama koje koristi veliki broj ljudi, kao što su društvene mreže, na osnovu različitih podataka i postavnjenih ciljeva donose odluke koji sadržaj se predstavlja pojedincu ili grupi, što može na nivou pojedinca uticati na pažnju, želje, mišljenja, opredeljenja, kreativnost, maštu, osećanja, odluke i aktivnosti, ili na nivou društva može doprineti kreiranju društvenih mehura, odnosno polarizaciju oko bitnih drupštvenih pitanja, i u finalnoj instanci uticati na demokratski kapacitet.

(EURACTIV.rs)