Umjetna inteligencija, popularni AI, zanimljiv je novi alat koji može biti od pomoći u različitim situacijama: može za nas stvarati tekst, slike i zvuk, s njim možemo “razgovarati”, zatražiti da nam pojasni pojmove ili provjeri pravopis, pa čak i umjesto nas napiše domaću zadaću (nemojte ovo pokušavati kod kuće).
Slika umjetne inteligencije u javnosti daleko je od idealne: neki ljudi smatraju kako je AI prijetnja čovječanstvu, drugi smatraju kako će zbog napretka tehnologije ostati bez posla, treći kao argument navode korištenje umjetne inteligencije za kriminalne radnje… Sve te zabrinutosti stoje, osim možda prijetnje čovječanstvu; no, AI revolucija zbilja će neke ljude učiniti viškom na pozicijama na kojima se trenutno nalaze, a kriminalci već koriste AI za svoje kriminalne rabote: od potrage za sigurnosnim propustima u računalima do varanja naivnih pomoću botova koji glume napaljene pohotnice, usamljene američke vojnike ili djecu koja su nesretnom igrom slučaja ostala zaglavljena negdje bez svog telefona i bez novca.
Trebamo ipak znati da je AI samo alat, ništa više i ništa manje od toga. Iako se njegov rad čini magijom i dokazom inteligencije računala, jednostavna matematička činjenica je da je u svim svojim pojavnim oblicima umjetna inteligencija samo kompleksan skup matematičkih pravila koja obrađuju ulazne podatke i daju izlazne podatke: praktički svaki računalni program je upravo to, samo što su AI programi specifični i vrlo kompleksni, pa nas lako zavaraju.
LLM (Large Language Model) koji je danas najpopularnija vrsta umjetne inteligencije jedna je od ne tako malobrojnih inkarnacija onoga što zovemo “umjetna inteligencija” jer se mnoštvo različitog softvera s različitim algoritmima trpa u taj općeniti naziv, iako načinom rada mogu biti i vrlo različiti.
No, ono što je za nas ovdje važno je da LLM, koji je treniran na ogromnoj količini podataka koje su stvorila ljudska bića, posjeduje neke karakteristike koje nam mogu biti vrlo korisne u provjeravanju informacija u medijima.
Istaknuo bih dvije ključne značajke:
- AI je treniran na tekstovima mnogih ljudi na mnogim jezicima, pa može poslužiti kao ad-hoc prevoditelj: dokument na jeziku kojeg ne poznajete možete dati računalu da ga za vas prevede;
- AI je treniran u širokom rasponu ljudskih znanja i koncepata.
Ove dvije točke čine AI alate dobrim pomoćnim alatom za provjeru istinitosti informacija. Naglašavam da je riječ o pomoćnom, a ne primarnom i svakako ne jedinom alatu jer AI itekako zna griješiti – i u te dvije navedene točke:
- AI nije u stanju “razumjeti” finije kontekste poput sarkazma, dvosmislenosti, stilskih figura ili vrlo specijalističkih koncepata, pa ih može preskočiti ili pogrešno interpretirati;
- ljudska znanja, posebice vrlo specifična, mogu biti izvor sličnih problema za AI koji je “fokusiran” na općenite kontekste.
Drugim riječima, a to je toliko važno da zaslužuje poseban naglasak u tekstu:
Svaki rezultat kojeg prikaže AI podložan je pogrešnim interpretacijama, pogrešnim kontekstima, pogrešnim izračunima i halucinacijama, odnosno izmišljenim podacima.
Tome je tako zato što je LLM zamišljen kao računalni program čija je svrha (poprilično doslovce) da predviđa koja će biti sljedeća riječ u nizu. No, radi to tako dobro da nam se čini da iza te matematike stoji neka inteligencija. Ne stoji, riječ je samo o fatamorgani, prividu kojeg nam stvara ovaj fenomenalan, ali ipak samo statistički proračun.
To valja uvijek imati na umu, i valja nam uvijek sumnjati u odgovore koje nam pruža AI koji nas može slagati bez pardona: te odgovore valja provjeriti.
Ako smo apsolvirali tu jednostavnu ali jako bitnu činjenicu, možemo se osvrnuti na načine na koje nam taj nesavršeni AI ipak može pomoći – jer i ovako nesavršen ponekad može stvari obaviti puno bolje od nas. Primjerice, analizirati stručne tekstove iz polja u kojima mi sami nismo stručnjaci. Kako je AI treniran u širokom rasponu ljudskih znanja (točka 2), treniran je i u specijaliziranim znanjima koja po potrebi može iskoristiti za “razumijevanje” danog teksta.
No, pokažimo to primjerom – tako se najlakše uči.
Nedavno je na Facebook grupi Vakcine.ba ostavljen tekst o, pogađate već, cijepljenju.
Kao što vjerojatno isto tako pogađate, u komentarima se razvila rasprava o cijepljenju, što je i naša mala prilika da konkretnim primjerom pokažemo kako nam AI može pomoći u donošenju vlastitog, neovisnog i koliko-toliko informiranog zaključka:

Sugovornik ovdje navodi, kao svoj argument, tri znanstvena rada. I sad je tu problem: jeste li dovoljno stručni da bez problema pročitate znanstveni rad i razumijete što u njemu piše? Vjerojatno ne.
Bez pomoći AI alata morali biste upitati nekog poznanika liječnika ili znanstvenika i nadati se da će imati volje i vremena proučiti radove i pomoći vam. Ako u džepu nemate takvog poznanika možete te argumente zanemariti ili, što je češće, povjerovati da u njima piše ono što sugovornik tvrdi da piše.
I tu vas čekaju ljudi koji koriste ovaj trik: provjeriti znanstvene radove je teško i zahtijeva poprilično truda, pa se nadaju da njihov sugovornik neće ulaziti u napor provjere informacije – ako je i ne prihvati i ne konvertira se u istomišljenika, sugovornik koji odignorira argument koji izgleda kao da je došao od nekog autoriteta odat će drugim sudionicima rasprave dojam kako je prvi sugovornik svojim neoborivim i stručnim argumentima dokazao svoj stav.
U praksi se vrlo često pokaže kako ljudi koji nabrajaju znanstvene članke kao dokaze za tvrdnju koja nije u domenu njihove struke “previde” dijelove rada koji im ne odgovaraju (i nadaju se da ih nitko drugi neće uočiti) ili čak “fulaju ceo fudbal” jer rad govori o nečem drugom ili čak govori suprotno onome što oni žele predstaviti kao argument.
Umjetna inteligencija nam može pomoći raskrinkati takve pokušaje.
Za provjeru takvih informacija možete koristiti bilo koji popularni alat: ChatGPT, Perplexity, Gemini, Grok, DeepSeek… svaki alat koji može dohvatiti URL (link) na stranicu koju je sugovornik naveo trebao bi biti dobar. Alati koji ne mogu dohvatiti URL su, naravno, neupotrebljivi.
Korištenje tih alata za provjeru informacija je bezobrazno jednostavno, ali traži sitnu pripremu: prije korištenja je alat potrebno “programirati”.
Nemojte se plašiti, “programiranje” LLM alata nije kompleksno, ne zahtijeva matematiku i učenje programskih jezika: shvatite programiranje kao davanje vrlo jasnih uputa programu što se od njega očekuje. Na taj način AI će davati fokusiranije odgovore uz nešto manju vjerojatnost da podatke naprosto izmisli.
U našem slučaju, prije zadavanja zadatka za analiziranje rada na linku, programu oblikujemo način ponašanja i obrade podataka:
Ti si znanstvenik i stručnjak u području koje se tiče znanstvenog rada kojeg obrađuješ. Koristi isključivo podatke pronađene u radu. Niti jedan podatak ne smije biti izmišljen, a svi podaci koje daješ moraju biti provjereni i utemeljeni u tekstu. Izbjegavaj laskanje. ELI10. Analiziraj rad na ovoj poveznici: (URL)
Gore navedeno je prompt kojeg upisujete kao upit AI programu, te naravno na kraju dodate URL koji vodi do dokumenta kojeg je sugovornik naveo kao svoj argument. Nakon kraćeg ili duljeg razmišljanja, AI će vam vratiti svoju interpretaciju rezultata (koju, podsjećam, treba uzeti s određenom rezervom jer AI može ishalucinirati stvari koje ne postoje ili shvatiti kontekst na pogrešan način).
Analizirajmo malo zašto je prompt takav kakav jest. Ovo je relativno jednostavan prompt, ali daje dosta dobre rezultate. Uz još malo truda i fokusiranja na meritum problema moguće je dobiti i bolje rezultate, ali za naš amaterski fact-checking ovakav jednostavan prompt trebao bi biti dostatan.
“Ti si znanstvenik i stručnjak u području koje se tiče znanstvenog rada kojeg obrađuješ.” – ova rečenica služi da LLM usmjerimo na kontekste koji su povezani sa ekspertizom u polju koje se obrađuje. Na neki način govorimo mu “zanemari ptičice, cvijeće, hortikulturu, astronomiju, bilo što što nema veze sa znanstvenim radom i fokusiraj se na znanja koja imaš u toj znanstvenoj domeni”. Time smo dodali težinu upravo onim dijelovima znanja koja su nam potrebna za obradu ovog podatka. Time se smanjuje (ne i uklanja) mogućnost shvaćanja teksta na pogrešan način ili krivo interpretiranje podataka.
“Koristi isključivo podatke pronađene u radu.” – ovom rečenicom upućujemo AI da su najvažniji podaci oni koji su napisani u radu, a slične podatke koje već posjeduje u svojoj memoriji (kao rezultat treninga) ne treba uzeti u obzir. Time se smanjuje vjerojatnost da AI “odluta” u svom “razmišljanju” – što je, priznajmo si, česta karakteristika i nas ljudi, posebice rastresenih profesora.
“Niti jedan podatak ne smije biti izmišljen, a svi podaci koje daješ moraju biti provjereni i utemeljeni u tekstu.” – kristalno jasno, uputa umjetnoj inteligenciji da svi podaci koje će izbaciti kao odgovor moraju imati temelj u konkretnom tekstu koji se obrađuje. Zabranom izmišljanja podataka nastojimo smanjiti vjerojatnost da računalo izhalucinira nepostojeći podatak, no imajmo na umu da to ne možemo u potpunosti eliminirati.
“Izbjegavaj laskanje.” – trik zahtjev: većina LLM modela koncipirana je tako da se slaže sa sugovornikom i vodi pozitivnu komunikaciju punu odobravanja i podrške. Takvo ponašanje je nepotrebno u fact checkingu i na ovaj način upućujemo AI da ne koristi takve izraze, već da se fokusira na meritum stvari.
“ELI10” – ovo je posebno efektan trik zahtjev! ELI10 znači: “Explain to me like I’m 10”, odnosno: “objasni mi to kao da imam deset godina”. Ovim zahtjevom usmjeravamo AI kojem smo rekli da se ponaša kao stručnjak u području da svoj odgovor formulira tako da ga može razumjeti desetogodišnje dijete. AI možda možemo “nagovoriti” da se ponaša kao stručnjak u nekom području jer vjerojatno ima dovoljno utreniranih podataka iz tog područja, no mi nemamo. Odgovor koji bi bio pun stručnih izraza i formula možda nam ne bi bio razumljiv, no ako računalu kažemo da nam rezultat objasni kao ELI10, rečenice i stil bit će prilagođeni lakom razumijevanju i jednostavnom čitanju, uz zadržavanje svih bitnih činjenica.
“Analiziraj rad na ovoj poveznici: (URL)” – ovdje naprosto umjesto (URL) dodamo poveznicu na znanstveni rad.
Rezultat rada računala trebao bi biti tekst koji relativno opširno, ali razumljivo objašnjava na hrvatskom jeziku sadržinu i zaključak istraživačkog rada (koji može biti na nekom stranom jeziku). Imajte na umu da različiti LLM-ovi daju različite rezultate, pa se nemojte čuditi ako je jedan opširniji, a drugi daje fokus na drugačiji način. Dapače, možete isto pitanje postaviti dva, tri ili više različitih AI alata i potom unakrsno provjeriti njihove odgovore: ako se poklapaju u bitnim stvarima i uglavnom poklapaju u manje bitnim, sa velikom vjerojatnošću možete zaključiti da su njihovi odgovori ispravni i da imate rezultat kojem možete vjerovati. Nemojte smetnuti s uma da prompt možete i širiti dodatnim instrukcijama, no pazite da ne stvorite kombinacije koje su zbunjujuće ili dvosmislene, jer u tom slučaju možete dobiti suprotan efekt: pogoršanje u shvaćanju konteksta domene koja se obrađuje ili povećanu vjerojatnost halucinacija.
Ovo je primjer jednog rezultata kojeg sam dobio za jedan od gore navedenih argumenata:
Što je znanstvenica istraživala?
Znanstvenica po imenu Gayle DeLong pokušala je odgovoriti na jedno veliko pitanje: zašto se čini da sve više djece u Americi ima autizam? Pitala se postoji li veza između cjepiva koja djeca primaju i autizma.
Kako je tražila odgovor?
Ona nije gledala djecu jedno po jedno. Umjesto toga, koristila je podatke iz svih američkih saveznih država, kao da gleda veliku mapu. Za svaku državu, usporedila je dvije stvari:
1.
Koliko je djece u toj državi cijepljeno po preporukama liječnika.
2.
Koliko je djece u toj istoj državi imalo dijagnozu autizma ili problema s govorom.
To je radila za podatke prikupljene između 2001. i 2007. godine.
Što je otkrila?
Njezino istraživanje je pokazalo sljedeće: u onim državama gdje je bio veći postotak cijepljene djece, bio je i veći postotak djece s dijagnozom autizma ili problema s govorom. U radu piše da je povećanje cijepljenosti od 1% bilo povezano sa 680 dodatne djece s tim stanjima.
Koji je bio njezin zaključak?
Na temelju ovoga, znanstvenica je zaključila da, iako su iz cjepiva maknuli živu (za koju su se neki ljudi prije brinuli), možda postoji nešto drugo u cjepivima što bi moglo biti "okidač" za autizam kod djece koja su mu možda već sklona. Zato je rekla da bi se to trebalo još istraživati.
Jako važan dio: Što nam ovaj trag zapravo govori?
Ovdje kao znanstvenici moramo biti jako oprezni. Ovaj rad pokazuje nešto što zovemo povezanost (korelacija), ali ne i uzrok. To je velika razlika!
Evo primjera da lakše razumiješ: ljeti se jede puno više sladoleda. Ljeti se ljudi i puno više opeku na suncu. Znači li to da jedenje sladoleda uzrokuje opekline od sunca? Naravno da ne! Pravi uzrok obojega je nešto treće – vruće vrijeme i jako sunce.
U ovom slučaju, znanstvenica je pronašla povezanost između cijepljenja i autizma. Ali mnogi drugi znanstvenici upozoravaju da to ne znači da cjepiva uzrokuju autizam. Moglo bi biti da u državama gdje roditelji više vode djecu na cijepljenje, također više vode djecu i na preglede gdje se autizam može otkriti. To bi bio "treći faktor", kao sunce u našem primjeru sa sladoledom.
Pojam
Objašnjenje za desetogodišnjaka
Povezanost (Korelacija)
Dvije stvari se događaju u isto vrijeme ili na istom mjestu. (Npr. prodaja sladoleda i opekline od sunca rastu zajedno ljeti).
Uzročnost
Jedna stvar izravno uzrokuje drugu. (Npr. dugo stajanje na jakom suncu uzrokuje opekline).
Ovaj rad pokazuje povezanost, ali ne dokazuje uzročnost.
Tko je napisao ovaj rad?
Važno je znati i tko je autorica. U samom radu piše da ona ima dvoje djece s teškoćama u razvoju i da je članica udruge koja vjeruje da sastojci iz cjepiva mogu biti štetni. To ne znači da njezino istraživanje nije iskreno, ali nam govori da ona ima osobni i snažan interes za ovu temu, što može utjecati na to kako gleda na podatke.
Što kaže ostatak znanosti?
Nakon ovog rada, napravljeno je još mnogo, mnogo većih i detaljnijih istraživanja diljem svijeta. Ta istraživanja, koja su pratila milijune djece pojedinačno (a ne samo gledala statistike po državama), nisu pronašla vezu između cjepiva i autizma. Zbog toga velika većina znanstvenika i liječnika danas smatra da cjepiva ne uzrokuju autizam i da je rad koji smo analizirali pokazao samo statističku povezanost, ali ne i stvarni uzrok.
Ovo je opis koji je najbliži pojednostavljenom objašnjenju za djecu (ako vas zanima, ovo je rezultat programa Manus <- invitation link s 500 kredita), a koji uključuje i podatke koje nismo tražili (tko je napisao rad i što kaže ostatak znanosti), ali koji su relevantni za našu provjeru da li rad dokazuje uzročno-posljedičnu vezu između cijepljenja i autizma.
No, zabava tu ne mora stati! Nakon što je AI dao svoj pravorijek, nemojte zaboraviti da mu možete postavljati dodatna pitanja na tu temu, a on će vam na ta pitanja odgovoriti. Jednom postavljena pravila iz prvog prompta ne morate ponavljati, sve dok je razgovor u tijeku računalo će se ponašati kako ste mu rekli da se ponaša na početku tog razgovora. (novi razgovor resetirat će te postavke ako mu ih niste naveli kao sistemski prompt, no to je tema za neki drugi članak)
Moj sugovornik tvrdi da je taj rad dokaz o štetnosti cijepljenja, je li taj argument ispravan?
Ne, taj argument nije ispravan. Evo zašto, koristeći samo podatke iz samog rada:
1. Rad ne dokazuje uzročnost
Sam rad koristi ekološku studiju koja uspoređuje statistike po državama. Ovaj tip studije ne može dokazati da jedna stvar uzrokuje drugu – može samo pokazati da se dvije stvari pojavljuju zajedno (povezanost).
Sama autorica u radu ne tvrdi da je dokazala da cjepiva uzrokuju autizam. Ona kaže: "rezultati sugeriraju" i "potrebna je daljnja studija". To su oprezne formulacije koje znanstvenici koriste kada imaju samo korelaciju, ne dokaz uzroka.
2. Problem "trećeg faktora"
U radu piše da je autorica kontrolirala obiteljski prihod i etničku pripadnost. Ali postoje mnogi drugi faktori koje nije kontrolirala:
Države s većom stopom cijepljenja često imaju bolji pristup zdravstvu
Bolji pristup zdravstvu znači više dijagnoza autizma (jer se više djece pregleda)
To bi moglo objasniti povezanost bez da cjepiva uzrokuju autizam
3. Autoričin sukob interesa
U samom radu piše:
"Autorica ima dvoje djece s pervazivnim razvojnim poremećajem, nespecificiranim. Podnijela je peticiju u U.S. Court of Federal Claims prema National Vaccine Injury Compensation Program za jedno od svoje djece. Autorica je u upravnom odboru i istraživačkom odboru organizacije SafeMinds."
To znači da autorica:
Ima osobni interes u ishodu
Aktivno je uključena u organizaciju koja promovira ideju o štetnosti cjepiva
Ima financijski interes (tužba za kompenzaciju)
4. Što bi bio pravi dokaz?
Pravi dokaz bi zahtijevao:
Praćenje pojedinačne djece kroz vrijeme
Usporedbu cijepljene i necijepljene djece s istim pristupom zdravstvu
Kontrolu svih relevantnih faktora
Replikaciju rezultata u drugim studijama
Takve studije su napravljene i nisu pronašle vezu.
Zaključak
Tvoj sugovornik koristi logičku grešku: miješa povezanost s uzročnošću. To je kao da netko kaže "u ljetnim mjesecima raste i prodaja sladoleda i broj utapanja u moru, dakle sladoled uzrokuje utapanje".
Ovaj rad pokazuje samo da se dvije stvari pojavljuju zajedno u statistici, ali ne dokazuje da jedna uzrokuje drugu. Sama autorica to priznaje tražeći "daljnje studije".
… i tako dalje. Uronite u razgovor, pitajte sve i svašta, i ne zaboravite: iako je AI izvrstan alat za provjeru informacija, možda i nezamjenjiv u ovakvim situacijama kad vaše znanje nije na tako visokom nivou – uvijek se može dogoditi da se AI zabuni ili nešto naprosto izmisli.
Koristite više različitih programa kako biste provjerili konzistentnost njihovih odgovora i – ne dajte se zaplašiti ljudima koji citiraju znanstvene radove kako bi vam zamazali oči. S ovim alatima možete u razumnoj mjeri i s razumnom sigurnošću u rezultat provjeravati istinitost gotovo svih tvrdnji.
(autor nije u vezi s aplikacijom Manus niti od njih ima financijsku korist, invitation link donosi signup bonus od 500 kredita novim korisnicima)
Views: 1


Comments, rants and vents