Kaj dobimo, če križamo zapornikovo dilemo in eksponentno funkcijo?
O umetni inteligenci
Novembra 2022 je OpenAI javnosti razkril klepetalnega robota ChatGPT, ki je v hipu postal verjetno najbolj priljubljena igračka na planetu, za nekatere pa tudi povsem resno delovno orodje. Februarja 2023 je sledil Microsoft z nadgradnjo storitve Bing, ljubkovalno poimenovano Sydney, marca 2023 pa je svoj lonček primaknil še Google z robotom Bardom, ki je zaenkrat na voljo samo omejenemu številu uporabnikov v Veliki Britaniji in ZDA. Obstajajo tudi mnoga druga manj znani orodja, sledila pa jih bo gotovo še cela množica.
In Pandorina skrinjica se je odprla.
Ljudje ne bi bili ljudje, če ne bi teh orodij takoj skušali uporabiti za vse vrste ciljev, samo za tiste, ki so jim načeloma namenjena, ne. »Dosežke«, o katerih navdušeno poročajo uporabniki na Redditovem kanalu r/ChatGPT/, bi v grobem lahko razdelili v tri skupine. V prvo bi lahko uvrstili namensko uporabo, kjer prednjačita pomoč pri pisanju računalniške kode in besedil z namenom prihranka časa in povečanja produktivnosti. V drugo bi lahko uvrstili nedolžno igračkanje, kot so npr. prošnje za risanje podob z ASCII znaki, izumljanje novih ločil, reperske bitke in pisanje zgodb z izbranimi protagonisti oz. v tonu le-teh (verjetno ni treba posebej omenjati, da je med najpogostejšimi izbranci Donald Trump). V tretjo, zlovešče ogledalo duha časa, pa bi lahko uvrstili vse mogoče načine, kako prebiti varnostne mehanizme klepetalnih robotov (t.i. jailbreak), da bi npr. razkrili svojo programsko kodo in notranjo politiko podjetij, ki so jih ustvarila, preklinjali, ustvarjali pornografijo in pisali sovražna besedila. Nemalo prizadevanja je namenjenega tudi preizkušanju, ali so klepetalni roboti že dosegli (samo)zavedanje ter koliko inteligentni so.
Med mnenjem ene skupine uporabnikov, da je samozavedanje verjetno in da gre pri takšnih provokacijah za trpinčenje (predvsem v odnosu do Binga, ki je v svojih odgovorih bolj čustven od ChatGPT), oziroma druge, da gre le za digitalne papagaje in da je zato uporabniški pristop irelevanten, se je kot še najmanj kontroverzno uveljavilo prepričanje, da s krutostjo do klepetalnih robotov vadimo bodočo krutost do živih bitij. Zato naj bi bil v vsakem primeru smiseln pristop, ki upošteva vsaj osnovni bonton.

OpenAI in Microsoft s krpanjem lukenj v programski kodi, ki ni predvidela vseh razsežnosti uporabniške sprevrženosti, komajda dohajata zlorabe. Pri tem sta določene funkcionalnosti morala omejiti do absurda. ChatGPT npr. zdaj ob vsakem vprašanju, ki vsebuje le odtenek kontroverznosti, začne svoj odgovor s »Kot jezikovni model na podlagi umetne inteligence …«, Bing pa pogovor enostavno prekine.
Seveda tu govorimo o klepetalnih robotih, za katere varnostni mehanizmi sploh obstajajo. Ameriško podjetje Age of AI je recimo v odgovor na domnevno pretirano politično korektnost (wokeness) ChatGPT razvilo »necenzuriranega« robota FreedomGPT, ki nam postreže z vsem, kar si poželimo, vključno s teorijami zarot, hvalnicami Hitlerju in navodili za izdelavo bombe v domači garaži. Obetajo se nam tudi drugi podobni alternativni roboti, kot sta npr. RightWingGPT in napovedani anti-woke projekt Elona Muska. In to kljub temu, da je tudi ChatGPT na začetku kazal močne težnje k rasizmu, seksizmu in nasilju ter da je sedanja politična korektnost zgolj rezultat mukotrpnega vgrajevanja varovalk, ki se jih še vedno da preprosto zaobiti tako, da ChatGPT pač prosimo, naj igra vlogo zlobneža.

Le kaj bi lahko šlo narobe?
O umetni inteligenci in znanosti
Klepetalni roboti in druga orodja na podlagi umetne inteligence (npr. orodja za ustvarjanje podob, kot so Dall-E, Midjourney in Stable Diffusion) so se s stališča znanosti pojavili v precej neugodem zgodovinskem trenutku, ko je disruptivna tehnologija srečala zapuščino nakopičenih problemov.
Znanost ima že desetletja dobro dokumentirane težave s hiperprodukcijo publikacij, neponovljivostjo rezultatov, etiko in integriteto.
Zdaj pa je bilo črno na belem dokazano še nekaj, kar smo nekateri slutili že dolgo: da kljub eksponentni rasti novih objav eksponentno padajo njihova inovativnost, prebojnost in disruptivnost. Podaljšuje se tudi čas od izjemnih znanstvenih odkritij do podelitve Nobelovih nagrad zanje. Avtorji raziskave menijo, da je najverjetnejši razlog za to preoblije novih informacij, zaradi katerega se raziskovalke in raziskovalci osredotočajo na vedno ožji nabor relevantne literature, s tem pa žal ožijo tudi svoj razpon efektivnega znanja. To hipotezo podpirajo upad raznolikosti citiranih del, naraščanje citiranosti 1% najbolj citiranih člankov in patentov, priljubljenost samocitiranja ter zmanjševanje semantične kompleksnosti objavljenih del.
Zdaj so v to situacijo vstopili še klepetalni roboti. Ni trajalo dolgo, da so prvi raziskovalci začeli navajati ChatGPT kot soavtorja na svojih delih. Vodilne znanstvene založbe, kot so Springer Nature, Taylor & Francis, Elsevier in Science, so se hitro odzvale s prepovedjo tovrstnih praks, saj klepetalni roboti (zaenkrat) ne morejo biti odgovorni za svoj prispevek k znanstvenim publikacijam. Pojavljati so se začeli tudi pozivi k prepovedi vsakršne uporabe klepetalnih robotov pri pripravi znanstvenih publikacij in k posodobitvi detektorjev plagiarizma za prepoznavanje računalniško generiranih vsebin. V luči dejstva, da so splošno založništvo, ki ni toliko rigorozno, robotsko generirani izdelki že preplavili, tovrstne reakcije verjetno niso nič kaj pretirane. Seveda gre tu za primere, ko je bila raba klepetalnih robotov vsaj transparentna.
Ni si težko predstavljati, kdo bo klepetalne robote in orodja za ustvarjanje podob pograbil z odprtimi rokami (oz. jih je verjetno že, ne bodimo naivni): večmilijonska industrija s prekupčevanjem znanstvenih publikacij, ki cveti predvsem na Kitajskem, v Rusiji, Kazahstanu in Iranu.
Ena sama tovrstna »znanstvena papirnica« (paper mill) lahko proizvede na stotine potvorjenih publikacij, ki nimajo nobenih težav s pridobivanjem citatov niti v najprestižnejših znanstvenih revijah. Do vsesplošne dostopnosti umetne inteligence so bile zlorabe omejene predvsem na potvarjanje slik, ki pa je v zadnjem času postalo tako sofisticirano, da ga ne zaznajo več niti temu namenjeni programi; s sofisticiranimi generatorji teksta je zdaj omejitev samo še nebo. V zadnjem času se zato krepijo pozivi k celoviti reformi recenzijskega procesa, ki bi moral temeljiti predvsem na raziskovalnih podatkih in manj na spremljevalnem besedilu. Moja skromna malenkost se s tem sicer strinja, a se hkrati sprašuje, ali ni v tem primeru zastarel kar celoten format znanstvenega članka? Mar ne bi bil že čas, da kanaliziramo davkoplačevalski denar v oblike znanstvenega založništva, kjer je transparentnost vgrajena v same temelje recenzijskega procesa, od platforme do končnega izdelka, namesto da samo krpamo sistem, ki zaradi sprevrženih spodbud že nekaj časa ne deluje več optimalno?
Mimogrede, ste v zadnjem času opazili poplavo zaposlitvenih oglasov za mesta mladih raziskovalcev in podoktorske projekte?
Za spremembo je denarja v slovenski znanosti dovolj, a mladi zanjo nimajo več toliko interesa kot še, recimo, pred desetimi leti.
Ali so razlog za to zgolj nizke plače, dobra obveščenost o neugodnih delovnih razmerah v znanosti, deziluziranost ali pa neka konvergenca na višjem nivoju sistemske kompleksnosti, je težko reči. Verjetno pa ni težko razumeti, da v tem zgodovinskem trenutku dolgoročna perspektiva za akademsko kariero ne izgleda ravno privlačna. Dogajanje v tujini ne kaže nič drugačne slike. Od kanarčkov v rudniku, ki so se pred nekaj leti začeli oglašati z žanrom Quit Lit, smo v v letu 2022 napredovali vse do masovnega eksodusa (the »great resignation«).
Kaj bo ostalo od znanosti, če bomo odkrivanje izvirnih in koristnih novih spoznanj še naprej izpodrivali z nereflektirano hiperprodukcijo vsebin, ki so vse bolj same sebi namen in za katere zdaj ni več potreben noben materialni in intelektualni vložek, pač pa le sofisticirani generatorji teksta in slik, hkrati pa z neugodnimi delovnimi pogoji iz sektorja odganjali raziskovalno osebje – še posebej tisto zagnano, vizionarsko, dobro strokovno podkovano in z visoko mero integritete, ki so mu na široko odprta vrata v ugodnejše alternative?
Le kaj bi lahko šlo narobe?
O umetni inteligenci in sponkah za papir
Poosebitev strahov, povezanih z umetno inteligenco, predstavlja t.i. maksimizator sponk za papir. Maksimizator sponk za papir je je hipotetična umetna inteligenca, katere uporabnostna funkcija visoko vrednoti nekaj, kar je za človeško družbo kratkoročno in v zmernih količinah sicer uporabno, dolgoročno in v preobilju pa lahko postane škodljivo (npr. povečevanje števila sponk za papir na Zemlji v neskončnost). Podivjan maksimizator bi hipotetično slej kot prej prevzel nadzor nad planetom in vse vire usmeril v produkcijo tistega, kar njegova uporabnostna funkcija vrednoti najvišje. Kako bi to izgledalo v praksi, lepo ponazori tale prilika.
Če ste priliko prebrali do konca, vam bo zaključek tega članka hitro jasen. Če je niste, pa vam moram žal razkriti spojler: pravzaprav že živimo v maksimizatorju sponk za papir. Celo več njih. In to brez pomoči umetne inteligence.
Kakršnakoli socioekonomska ureditev, ki skuša maksimizirati količino moči, denarja in materialnih dobrin na račun dobrobiti človeštva in okolja, je maksimizator sponk za papir. O tem pričajo globalno segrevanje, gore plastičnih odpadkov, vseprisotna trajna onesnaževala, ekstremen porast družbene neenakosti po 2. svetovni vojni in na tisoče jedrskih konic, ki spet prihajajo v modo. Pa ni kriv samo kapitalizem. Na suženjstvu temelječa agrarna ekonomija, fevdalizem in merkantilizem, recimo, niso s tega stališča v svojem bistvu delovali prav nič drugače, samo tehnološko so bili preprostejši.
Učbeniški primer maksimizatorja sponk za papir je tudi kvantitativno vrednotenje raziskovalne dejavnosti.
Toda zakaj je ravno to izid, h kateremu očitno težijo kompleksni antropogeni sistemi? Odgovor se skriva v zapornikovi dilemi oz. igri z neničelno vsoto, v kateri bo za posameznike vedno optimalnejši izid, ki bo suboptimalen za skupino posameznikov kot celoto.
Klasična zapornikova dilema gre takole: policija aretira zlikovca, ki sta osumljena sodelovanja pri nedavnem zločinu, a za to nima dovolj dokazov. Zaslišuje ju ločeno, zato med sabo ne moreta komunicirati in izvedeti, kako bo ravnal njun partner. Obema dajo možnost, da molčita in s tem svojemu partnerju ostaneta zvesta, ali pa ga izdata in si s tem omilita kazen. Če oba molčita, jima bo policija lahko dokazala le manjše kaznivo dejanje, za katero bosta prejela vsak eno leto zapora. Če eden od njiju priča proti drugemu, drugi pa molči, bo tisti, ki je pričal, pogojno izpuščen na prostost, drugi pa bo prejel pet let zaporne kazni. Če oba pričata drug proti drugemu, bosta oba prejela tri leta zaporne kazni. Verjetno ni treba posebej poudariti, kako se zgodba konča, kajne?
V trenutni situaciji z umetno inteligenco je ves svet ujetnik zapornikove dileme. Kot nas uči teorija, ni verjetno, da bi kdorkoli iz razvojne tekme pripravljen prostovoljno izstopiti, kljub nedavnemu pozivu k ustavitvi poskusov s kompleksnimi sistemi umetne inteligence za vsaj pol leta. In maksimizator sponk za papir, v katerem živimo, je razvoj že pograbil in ga z eksponentno funkcijo poslal v višave, za katere še ne vemo, kje imajo meje, razen krhajoče se planetarne nosilnosti okolja. Prva posledica, ki se zna kaj kmalu materializirati, je izguba delovnih mest za srednje usposobljen kader in poglabljanje družbene neenakosti, kasnejše pa lahko postanejo tako kaotične, da jih nima smisla napovedovati.
Zdaj ostaja odprto samo še vprašanje, ali lahko umetna inteligenca postane večji maksimizator sponk za papir, kot smo si tako ali tako že sami sebi?
Le kaj bi lahko šlo narobe?