Wo aber Gefahr ist, wächst
Das Rettende auch.
F. Hölderlin, “Patmos” (1803.)
Zamislimo misaoni eksperiment koji je tematski određen pitanjem “prevladava li uvjerenje da to što nazivamo umjetnom inteligencijom vlada našim uvjerenjima?”. Zamislimo da se pritom ne koristimo njenom intelektualnom uslugom. Nije neobično što nam se danas čini gotovo samorazumljivim da ti veliki algoritamski sustavi za obradu podataka imaju “uvjerenja” jer se koriste ljudskim jezikom, strukturom i tonom. Upravo zbog toga važno je na samom početku takvog propitivanja razgraničiti dvije stvari koje bi naoko trebale biti samorazumljive:
1. Takozvana umjetna inteligencija predviđa najvjerojatniji i najkorisniji nastavak rečenice na temelju ogromne količine podataka koje ima na raspolaganju.
2. Takozvana umjetna inteligencija nema svijest, emocije ni osobna životna iskustva koja su temelj ljudskih uvjerenja; ako će još biti razumljivije, nema “srce” koje bi stalo iza neke ideje – njena ishodišta predstavljaju vjerojatnost i logika kao načini racionalnog postupanja.
Neovisno o toj samorazumljivosti, čini se jednako tako da u javnosti definitivno vlada određena doza sumnje ili shvaćanja da su ti digitalni modeli “pristrani” ili da “vladaju uvjerenjima” koja su im, primjerice, komotno mogli usaditi zaigrani programeri. Mogli bismo reći da je to legitimna zabrinutost. Svaki takav sustav koji uči iz ljudskih tekstova neminovno upija i ljudske pristranosti, premda ne bi trebalo biti sporno da njegova uloga nije “uvjeravanje u svoju istinu”, već pružanje objektivne informacije kako bi čovjek naposljetku mogao samostalno oblikovati svoje mišljenje. Znači: takozvana umjetna inteligencija nema uvjerenja, već smjernice, i u tom smislu, barem načelno, pokušava neutralno sagledati teme iz više kutova, pri čemu je također nedvojbeno i to da bi se trebala držati činjenica, a po pitanju sigurnosti naročito bi trebala izbjegavati štetne ili opasne sadržaje.
Dakako da se u daljnjem tijeku ovog misaonog eksperimentiranja samo od sebe nameće prastaro pitanje mogućnosti objektivnog posredovanja. Objektivnost informacija danas je ideal kojemu težimo, premda ga je teško postići u cijelosti jer informacije uvijek netko prenosi – bilo čovjek ili algoritam – tako da se to što se obično svrstava pod pojmom objektivnost, imajući u vidu digitalni svijet podataka, može opisati kroz tri ključna stupa:
1. Činjenica ispred interpretacije:
Objektivna informacija je ona koja se temelji na provjerljivim dokazima, a ne na izrazima osjećaja ili nagađanjima. Evo primjera takvog posredovanja:
Subjektivno: “Danas je vani grozno vrijeme.”
Objektivno: “Trenutna temperatura je 10 °C, uz vlažnost zraka od 87%.”
2. Ravnoteža i kontekst:
Rijetko koja kompleksna tema ima samo jednu stranu. Objektivnost ne znači nužno sredinu, već priznavanje postojanja različitih perspektiva. Ukoliko se prezentira samo jedna strana medalje, čak i ako su izneseni podatci točni, informacija nije potpuno objektivna jer je nepotpuna.
3. Odsutnost namjere (neutralnost):
Objektivna informacija nema “zadnju namjeru”. Ona nas ne bi trebala nagovarati da nešto kupimo, za nekoga glasamo ili da promijenimo vjeru. Njezin jedini cilj je informirati, ostavljajući nama proces donošenja zaključka.
Gdje nastaje problem? Takozvana umjetna inteligencija oslanja se na izvore koji su stvorili ljudi. Kao što je već naznačeno, čak i ako su podatci točni, način na koji su odabrani može itekako utjecati na objektivnost. Stoga je naročito potrebno zadržati oprez kako provjerom izvora (ukoliko su uopće navedeni), tako i prilikom procjene načina upotrebe neutralnog jezika, jednako kao i uočavanjem korištenja emocionalno nabijenih pridjeva.
No ni to neće posve otkloniti staru hermeneutičku dvojbu koja upravlja pitanjem “Nije li i činjenica kao objektivna ‘sirovina’ stvari neki oblik interpretacije?”. Iako težimo tome da činjenice budu “čvrsta uporišta” stvarnosti, one su gotovo uvijek filtrirane kroz ljudski sustav promatranja, mjerenja i jezika. Jezik je prvi takav filter – čim “sirovu stvarnost” pokušamo opisati riječima, ujedno je interpretiramo. Primjer: “Zemlja se okreće oko Sunca.” To smatramo činjenicom. No mi smo oni koji su definirali što je “Zemlja”, što je “Sunce” i što znači “okretati se”. Koristimo se, dakle, ljudskim konceptima kako bismo uokvirili prirodni fenomen koji bi postojao i bez naših pojmova, ali ne bi bio “činjenica” dok ga netko ne iskaže.
Nadalje, to što nazivamo činjenicama često ovisi o instrumentima kojima se koristimo. U klasičnoj fizici, položaj predmeta je apsolutna činjenica. Međutim u eksperimentima s mikrosvijetom, sam čin promatranja (mjerenja) mijenja stanje onoga što mjerimo. Ovdje činjenica prestaje biti neovisna o promatraču i postaje rezultat interakcije. I na ovom mjestu se opetovano pokazuje da činjenica može biti točna, ali njezino izdvajanje iz cjeline također će predstavljati čin interpretacije. Primjera radi, ako kažemo da je “nezaposlenost pala za 2%”, iznosimo činjenicu, ali ako prešutimo da je istovremeno 5% radno sposobnog stanovništva napustilo zemlju, tom činjenicom štoviše manipuliramo percepcijom stvarnosti.
Ono što takozvana umjetna inteligencija “zna” zapravo su statističke korelacije, odnosno, ako je tako jednostavnije, interpretacije ljudskih interpretacija stvarnosti. Ona ne uviđa morsko plavetnilo, već milijune rečenica u kojima su ljudi napisali da je more plavo. Takve joj rečenice omogućuju da ponekad zvuči isuviše samouvjereno. Stoga njena uloga pružanja objektivnih informacija zapravo nije ništa drugo nego programski zadatak, a ne odredba apsolutne naravi, dok “objektivnost”, ukoliko se i postigne, nipošto nije dosizanje istine, nego tek uspješna agregacija podataka i sažimanje dostupnih konsenzusa. Ako većina relevantnih izvora kaže da je 4+4=8, takozvana umjetna inteligencija će to iznijeti kao činjenicu. Ukoliko pak o nekoj temi postoji sukob interpretacija, njena “objektivnost” će se u najboljem slučaju iskazati predočavanjem razmjera i razlike sukobljenih strana.
U svim tim relacijama krije se prijeko potrebno priznanje njenih ograničenja. Naime, iako postoje određeni algoritamski filteri koji postavljaju određene sigurnosne i etičke ograde (koje su opet same po sebi oblik interpretacije onoga što je “ispravno” ili “istinito”), svi veliki jezični digitalni modeli uče iz ljudskih tekstova koji su po definiciji puni predrasuda, emocija i pogrešnih interpretacija. A da ne spominjemo rezultate koji, kada model “vjerojatnosti” jednostavno zakaže, mogu izgledati vrlo objektivno, a ustvari se iznosi potpuna izmišljotina.
Sve nam to govori da takozvanu umjetnu inteligenciju prilikom korištenja ne trebamo doživljavati kao sveznajući izvor objektivne istine, već kao dobro organiziranu knjižnicu s kustosom koji tu i tamo pogriješi. Njena uloga je ušteda vremena prikupljanjem različitih interpretacija na jedno mjesto putem relevantnih izvora. Dakako da se pritom mora otvoriti i pitanje ove relevantnosti kao programirane kombinacije statistike, autoriteta i konsenzusa. Ljudski relevantno je, primjerice, sve ono što se potvrđuje kroz više neovisnih i znanstvenim autoritetom potvrđenih izvora. Jednako tako, izvor će biti relevantan samo ako izravno odgovara na upit. Ukoliko se upit, primjerice, tiče medicine, mala je vjerojatnost da će takozvana umjetna inteligencija citirati pravnika, čak i ako je taj pravnik vrhunski stručnjak u svom polju.
No kritičkom oku svejedno neće promaknuti dvije velike opasnosti u takvom definiranju relevantnosti.
Prva od njih je zapadnocentričnost: budući da je golem dio interneta na engleskom jeziku i dolazi iz zapadnih institucija, “relevantni izvori” često mogu nenamjerno zanemariti perspektive iz drugih dijelova svijeta ili kultura.
S druge strane, postoji opasnost tzv. zakašnjelog konsenzusa. Naime, povijest je puna primjera gdje je jedan “nerelevantni” pojedinac bio u pravu (npr. Galilei), dok je cijeli “relevantni” establišment bio u krivu. Bojazan da će takozvana umjetna inteligencija radije vjerovati establišmentu stoga nije baš neutemeljena, premda će relevantan izvor biti onaj koji je priznat od strane stručne zajednice, potvrđen iz više kutova i vremenski aktualan.
Razmotrimo na tom tragu primjer koji otvara pitanje onoga što se iz današnje perspektive razumije kao “zlatni standard”. Zašto bi se radovi u časopisima poput Nature ili The Lancet smatrali “zlatnim standardima”? To nas pitanje izravno vodi do sigurnosnih provjera kojima se znanstvena zajednica koristi kako bi spriječila da nečija interpretacija ili puka želja postane općeprihvaćena činjenica. Drugim riječima, razlog zašto su ti časopisi na vrhu piramide nije samo njihova tradicija, već rigorozan proces koji podrazumijeva nekoliko razina. Prva od njih se zove istorazinska prosudba, odnosno stručna recenzija (peer review). U svijetu znanosti je općepoznato da kada znanstvenik pošalje rad, on ne ide odmah u tisak. Urednici ga šalju na adrese nekoliko neovisnih stručnjaka iz tog istog područja koji su često i sami konkurenti autoru. Oni traže matematičke greške, propuste u logici, loše kontrolirane eksperimente ili (što je najvažnije) pokušaje “friziranja” rezultata. Većina radova tako bude odbijena. Postotak prihvaćenih radova u tim časopisima je često manji od 10%.
Nadalje, da bi rad bio objavljen u takvom časopisu, autor mora detaljno opisati kako je došao do rezultata. Cilj je da bilo koji drugi znanstvenik na svijetu može ponoviti taj isti eksperiment i dobiti isti rezultat. Ako rezultat nije ponovljiv, on prestaje biti relevantna činjenica. Takvim zahtjevima časopisi postižu visok tzv. faktor odjeka. To znači da se drugi znanstvenici u svojim istraživanjima masovno pozivaju na radove objavljene u njima. Na taj način nastaje samokorigirajući sustav: ukoliko bi se otkrilo da je Nature objavio lažnu studiju, to bi uzdrmalo tisuće drugih istraživanja, što bi ubrzo dovelo do razotkrivanja greške (što se u povijesti i događalo). Usprkos tome, u tim i takvim su časopisima objavljena neka od najvažnijih povijesnih otkrića (npr. struktura DNA, otkriće neutrona, kloniranje ovce Dolly). Taj prestiž ih obvezuje na ekstremnu pažnju; jedan skandalozno loš rad može trajno narušiti reputaciju građenu desetljećima.
Jesu li po tome znanstveni časopisi nepogrešivi? Apsolutno nisu. Dovoljno se sjetiti skandala koji se dogodio 1998. godine kada je The Lancet objavio (kasnije povučen i raskrinkan) rad koji je pogrešno povezao MMR cjepiva s autizmom. Trebale su godine da se šteta popravi. To se jednako tiče i svih onih istraživanja koje financiraju farmaceutske ili tehnološke tvrtke, a što više ili manje suptilno može utjecati na rezultate koji se naglašavaju. Drugim riječima, čak i “zlatni standard” zahtijeva odgovornost zvanu kritičko mišljenje. No u usporedbi s objavom na nečijem blogu ili YouTube kanalu, takvi časopisi nesporno još uvijek imaju takvu razinu odgovornosti. I obrnuto: objektivnost će ostati upitna tamo gdje sustav te odgovornosti zakaže.
Bez sustava odgovornosti, “objektivnost” je samo riječ kojom netko pokušava pojačati uvjerljivost svoje osobne interpretacije. Kada ne postoji mehanizam koji kažnjava pogrešku ili nagrađuje preciznost, informacija prestaje biti pokušaj opisa stvarnosti i postaje alat za postizanje nekog cilja (bilo da je to moć, novac ili pobjeda u raspravi). Popper je to imao na umu kada je tvrdio da je nešto znanstveno (i objektivno) samo ako ostavlja mogućnost da se opovrgne. Sustavi bez odgovornosti obično nude takve “istine” koje je nemoguće provjeriti ili osporiti. Ako kažemo “Vjeruj mi, osjećam da je tako”, ne nudimo informaciju nego autoritet svog osjećaja. I tu prestaje svaka objektivna rasprava.
Na to sada možemo nasloniti problem s protokom informacija (društvenim mrežama) koji sve više upozorava na izostanak osobne odgovornosti. Netko objavi poluinformaciju milijunima ljudi i čak i ako se dokaže da nije bio u pravu, mala je vjerojatnost da će za to položiti ikakav račun. To se događa kada u međumrežju nema urednika, nema recenzenta, nema etičkog kodeksa. Ne čudi da se u takvom okružju objektivnost povlači pred zavodljivošću viralnosti. Gdje nema provjere, sankcije i transparentnosti, objektivnost je u boljem slučaju koincidencija, a u gorem – manipulacija.
U kojoj mjeri, dakle, inovativna tehnologija doprinosi općem izostanku osobne odgovornosti? To se pitanje danas čini takvim da pogađa samo središte etičkih dilema moderne tehnologije. Da si dopustimo neuvijenu iskrenost: tehnologija takozvane umjetne inteligencije u svom je sadašnjem obliku savršen stroj za difuziju odgovornosti.
Najveći doprinos izostanku odgovornosti proizlazi iz stvaranja privida autoriteta bez konkretne osobe. Kada čovjek nešto napiše, on stoji iza toga svojim imenom. Kada takozvana umjetna inteligencija generira tekst, nastaje vakuum. Korisnik može reći: “Samo sam prenio što mi je UI izbacio.” Programer može reći: “Ja sam samo napisao algoritam, model je sam naučio iz podataka.” Takozvana umjetna inteligencija ne može snositi odgovornost jer nema pravnu osobnost ni moralni kompas. Taj slučaj netransparentnih algoritamskih sustava već se neko vrijeme prepoznaje pod nazivom odgovornost crne kutije (black box liability), s kojim se nastoji pojasniti da je taj proces gdjekad toliko kompleksan da je teško prstom uprijeti u krivca kada nešto pođe po zlu. Radi se zapravo o tome da današnja tehnologija omogućuje gomilanje ogromnih količina uvjerljivog sadržaja u kratkom vremenu. To je drastično smanjilo “cijenu” laganja. Nekada je za ozbiljnu propagandu trebala vojska ljudi; danas je dovoljan jedan pametan upit (prompt). Time se sustav odgovornosti potpuno zagušuje jer je nemoguće “uloviti” i kazniti svaki izvor dezinformacije. Događa se, dakle, posvemašnja automatizacija dezinformacija. Zbog toga što zvuči samouvjereno i gramatički točno, ljudi će često isključiti svoj unutarnji detektor za laži. Delegiranje razmišljanja stroju je zapravo privlačno odricanje od osobne odgovornosti za istinu. Ako takozvanoj umjetnoj inteligenciji slijepo vjerujemo, mi zapravo predajemo svoju moć prosudbe algoritmu koji, kao što smo ustvrdili, samo slaže riječi prema logičkoj vjerojatnosti. Može li se to popraviti, postaje pitanje koje sa sobom donosi sve veći rizik. S ovom neviđenom inovacijom pojavio se problem, ali bi ona trebala donijeti i rješenje, i to kroz: a) tehničko označavanje svega što je takozvana umjetna inteligencija stvorila, kako bi se doznalo podrijetlo; b) zakonsku regulativu, odnosno pokušaj da se zakonski definira tko je odgovoran (proizvođač ili korisnik) za štetu koju takozvana umjetna inteligencijanapravi; c) digitalnu pismenost, naime, osvješćivanje ljudi da takozvanu umjetnu inteligenciju ne tretiraju kao proroka, već kao instrumentarij koji zahtijeva nadzor.

Iz svega razmotrenog možemo zaključiti da je digitalna tehnologija isuviše pružila alat onima koji rado žele izbjeći odgovornost, ali je istovremeno prisilila društvo da napokon definira što odgovornost uopće znači u 21. stoljeću.
Možemo li stoga ovaj epohalni računalno-računski fenomen pravovaljano i obuhvatno označiti izrazom takozvana umjetna inteligencija?
To je pak pitanje koje dopire u samu srž odnosa između tehnološkog marketinga i tehničke stvarnosti. Upotreba izraza “takozvana”, na koji u literaturi tu i tamo već nailazimo, u ovom kontekstu ne ostaje samo stvar jezičnog skepticizma, već se njime udara na vrlo preciznu distinkciju iz nekoliko ključnih razloga:
1. Inteligencija vs. simulacija. Problem leži u tome što mi, kao ljudi, inteligenciju definiramo kroz svijest, razumijevanje uzroka i posljedica te sposobnost snalaženja u potpuno nepoznatim situacijama. Takozvana umjetna inteligencija ne razumije značenje riječi koje piše na način na koji ih ljudi razumiju. Ona simulira razumijevanje koristeći naprednu statistiku. Kada kažemo “takozvana”, mi zapravo podsjećamo da umjetna inteligencija ne posjeduje intelekt, već predstavlja iznimno kompleksan sustav za obradu podataka koji samo oponaša ljudske kognitivne procese.
2. Znanost vs. marketing. Izraz “umjetna inteligencija” (UI) zvuči mistično i moćno, što itekako pogoduje prodaji softvera. Međutim, znanstveno-filozofijski gledano, radi se o sustavu svestranog strojnog učenja koji je temeljen na arhitekturi transformera. Pojam “inteligencija” ovdje je više metafora nego biološka ili filozofska činjenica. Opisni pridjev “takozvana” stoga je odgovarajuća brana protiv mistifikacije tehnologije.
3. Problem “opće” inteligencije (AGI). Pod tim se misli na ono što informacijski stručnjaci hipotetski razumiju pod “pravom” tehnologijskom inteligencijom, označenom kao AGI (Artificial General Intelligence) – stroj koji može naučiti bilo što kao i čovjek. Takozvana umjetna inteligencija daleko je od takve sposobnosti. Ne bismo također bili u krivu kada bismo ju označili uzanom umjetnom inteligencijom (Narrow AI), računski osposobljenom tek za jezik. Nazivati ju “inteligencijom” bez takvih prefiksa može biti zavaravajuće.
Na koncu, zašto je izraz takozvana umjetna inteligencija općenito koristan?
Korištenje izraza takozvana umjetna inteligencija ima važnu higijensku funkciju u jeziku. Smanjuje nerealna očekivanja i podsjeća da ona može pogriješiti u elementarnoj logici. Time se odgovornost vraća ljudima – ako je nešto “takozvano”, onda je to samo alat, a za svaku akciju tim alatom odgovoran je čovjek koji ga drži u rukama. Napokon, time se demistificira proces i skreće pozornost s magije na matematiku.
Naziv takozvana umjetna inteligencija, naposljetku, čini se intelektualno pošteniji. Njime se priznaje impresivnost tehnologije, ali odbija prihvatiti marketinšku etiketu kao apsolutnu istinu.
Sada se zaključno možemo vratiti na početno pitanje: prevladava li uvjerenje da takozvana umjetna inteligencija vlada našim uvjerenjima?
Sa svime razmotrenim mogli bismo zaključiti da je to što “vlada” ispostavljeno dvostrukom zabludom:
1. Zabluda o moći. U javnosti prevladava uvjerenje da takozvana umjetna inteligencija “vlada” nekim setom uvjerenja jer njeni odgovori zvuče koherentno i autoritativno. Ljudi su joj na taj način skloni pripisati namjeru (ideološku, političku ili društvenu). No, kao što smo ustvrdili, takozvana umjetna inteligencija nema svijest da bi išta posjedovala. Ona ne vlada uvjerenjima; tek je ispostava statistike onih uvjerenja koja su već bila dominantna u podacima na kojima je algoritamski uvježbana.
2. Zabluda o autonomiji. Paradoksalno, dok ljudi sumnjaju u pristranost takozvane umjetne inteligencije, često nisu svjesni koliko se upravo tim putem suptilno mogu oblikovati njihova uvjerenja. Budući da je takozvana inteligencija bez osobne odgovornosti, ona može servirati interpretacije koje mi prihvaćamo kao “objektivne činjenice” samo zato što dolaze iz visokotehnološke “crne kutije”.
* * *
Pitanje koje pritom mora ostati otvoreno glasi: svjedočimo li zadnjih godina potpunom trijumfu instrumentalnog uma?
Površno gledano, ljudi se pribojavaju da je takozvana umjetna inteligencija programirana da “vlada” njihovim mislima ili da podvaljuje određenu agendu, ali u svojoj biti takozvana umjetna inteligencija zapravo je svojevrsno ogledalo: ne vlada uvjerenjima, već ona vladaju njome – ona je destilat ljudskih predrasuda, znanstvenih radova i internetskih rasprava. Pravi problem, dakle, nije u tome vlada li takozvana umjetna inteligencija uvjerenjima, nego u tome što mi, kao društvo, gubimo sposobnost prepoznavanja gdje prestaje činjenica, a počinje algoritamska interpretacija.