ПАУЗИРАЈ ВИ

„Srce“ Veštačke inteligencije ne sme kucati u mraku

„SRCE“ VEŠTAČKE INTELIGENCIJE NE SME KUCATI U MRAKU

PauseAI Srbija zahteva hitnu transparentnost i demokratski nadzor nad projektom „Srpskog LLM-a“

Povodom najave Marka Čadeža o razvoju nacionalnog jezičkog modela do Ekspa 2027. godine, pokret PauseAI Srbija obraća se javnosti sa upozorenjem. Iako podržavamo razvoj digitalnih alata na srpskom jeziku, način na koji se ovaj projekat trenutno sprovodi predstavlja direktnu pretnju stabilnosti i bezbednosti našeg društva.

Identifikovali smo trenutno četiri stuba rizika koji pokazuju da je ovaj projekat postavljen na pogrešnim temeljima:

1. Netransparentnost: Odluke u tajnosti

Trenutno se proces razvoja „nacionalnog mozga“ odvija iza zatvorenih vrata. Odluke o tehnologiji koja će sutra uticati na svakog pojedinca donosi mali broj ljudi, bez javnog nadzora i bez učešća nezavisnih stručnjaka.

Problem: Veštačka inteligencija nije privatni projekat PKS-a ili Vlade – to je infrastruktura koja pripada svim građanima. Razvoj bez javnog uvida je direktan udar na demokratske procese i pravo naroda da zna ko i kako se njime upravlja.

2. Politički rokovi (Expo 2027): Brzina ispred bezbednosti

Vezivanje tehnološkog razvoja za fiksni datum sajma je opasna neodgovornost. U svetu AI bezbednosti, najopasnije greške se dešavaju kada se žrtvuju testiranja zarad „presecanja vrpce“.

Problem: Forsiranje roka do 2027. godine znači da će bezbednosni protokoli moguće biti u drugom planu. Puštanje neproverenog i ubrzano „sklepanog“ modela u državne institucije je kockanje sa bezbednošću države.

3. Pristrasnost podataka: Model kao „državni megafon“

Ukoliko se model obučava na filterisanim i jednostranim arhivama bez javne revizije, on gubi funkciju objektivnog asistenta.

Problem: Postoji opravdan strah da će nacionalni LLM postati automatizovani alat za propagandu. Model koji generiše odgovore isključivo po meri trenutne politike nije „pametan sistem“, već digitalni megafon koji guši pluralizam mišljenja i objektivnu istinu.

4. Društveni inženjering: Mašina umesto čoveka

Najava da će model „analizirati i predviđati“ u ekonomiji i društvu otvara vrata hladnoj, algoritamskoj nepravdi.

Problem: Kada mašina počne da „predviđa“ potrebe građana ili odlučuje o njihovim pravima, mi gubimo ljudski faktor. Ako algoritam pogreši u proceni bolesti, vašeg kredita, posla ili socijalne pomoći, kome ćete se žaliti? Ne smemo dozvoliti da se sudbina naroda prepusti neproverenim algoritmima koji nemaju odgovornost pred zakonom.

„Ne želimo digitalni suverenitet koji služi kontroli, već tehnologiju koja služi čoveku. Ako ‘srce nacionalne strategije’ kuca u mraku tajnih data centara, to srce ne kuca za narod Srbije.“ – poručuju aktivisti PauseAI Srbija.