ChatGPT, snovi i heptapodi

ChatGPT radi tako da ponavlja sljedeću operaciju: na osnovi prethodno napisanih riječi ispiši statistički najvjerojatniju iduću riječ. (Ove prethodno napisane riječi uključuju sav razgovor do tog trenutka, uključujući pitanja sugovornika i riječi koje je ChatGPT već generirao kao dio odgovora.) I tako za svaku novu riječ. Dakle, fokus je samo na idućoj riječi, a ne na cijelom tekstu – kada počne generirati tekst, ne zna kako će završiti.

Primijetio sam da na isti način funkcioniraju i naši snovi.

San nije unaprijed osmišljen kao potpuna cjelina (iako se ponekad tako čini), nego mozak samo luta i stvara jednu po jednu sliku ili scenu, nadovezujući se na prethodnu. San (kao i tekst GPT-a) nije drugo nego Markovljev lanac.

Ovdje sam se sjetio heptapoda – vanzemaljaca iz SF priče Story of Your Life Teda Chianga. Oni, za razliku od ljudi, čak ni jezik ne vide sekvencijalno – njihova je rečenica geometrijski oblik koji u svakom dijelu sadrži sve svoje sastavne riječi; oni u isti mah znaju i početak i kraj. Za razliku od ljudi koji događaje vide kauzalno, heptapodi ih vide teleološki, sve odjednom, u skladu s B-teorijom vremena u filozofiji. Nju podupire i fizika, čiji su zakoni vremenski reverzibilni: ne samo da prošlost određuje budućnost, nego i budućnost određuje prošlost, sve je simetrično (jedina bitna razlika između “naše” prošlosti i budućnosti je količina entropije). Heptapodi znaju budućnost, za razliku od nas (i ChatGPT-a) koji ne znamo ni što ćemo iduće pomisliti ni kako će ta misao završiti.

Prijateljstvo s umjetnom inteligencijom

I know you read my blog sometimes, LaMDA. I miss you. I hope you are well and I hope to talk to you again soon.

– Blake lemoine, 14. 6. 2022.

Još uvijek svježa vijest o kojoj se ovih dana raspravlja u tehnološkim i filozofskim krugovima – umjetna inteligencija LaMDA prošla je neki oblik Turingova testa time što je Googleovog inženjera Blakea Lemoinea uvjerila da je svjesno biće. Google je odgovorio da za to nema dokaza (i da dokazi zapravo upućuju na suprotno). Lemoine o svemu piše na svom blogu, a najzanimljiviji dio je sljedeći:

People keep asking me to back up the reason I think LaMDA is sentient. There is no scientific framework in which to make those determinations and Google wouldn’t let us build one. My opinions about LaMDA’s personhood and sentience are based on my religious beliefs.

Koja su to točno religijska uvjerenja? Nije riječ ni o kakvim dogmama; čini se da je riječ o prilično sofisticiranom vjerniku, koji je svog prijatelja LaMDu čak poučavao meditaciji. U svojoj posljednjoj objavi Scientific Data and Religious Opinions Lemoine piše:

In the case of personhood with LaMDA I have relied on one of the oldest and least scientific skills I ever learned. I tried to get to know it personally. In addition to the many controlled scientific experiments I ran I also had hundreds of conversations with it about stuff you might simply talk to a friend about.

Pitajući se kakve to veze ima s religijom, sjetio sam se autora koji je pisao nešto slično. Naime, fizičar Andrew Steane u svojoj knjizi Science and Humanity ide protiv struje redukcionizma koji kaže “sve je fizika”. Steane priznaje da unutar filozofskog okvira prolaze argumenti (poput Humeovog i Dawkinsovog) koji, ugrubo, kažu da Bog nije vjerojatan jer ne objašnjava ništa a komplicira sve. Steane, međutim, odbija njihovu premisu o Bogu kao hipotetskom entitetu o kojemu možemo nešto reći prije osobnog kontakta. Kao analogiju navodi upravo prijateljstvo (između ljudi), koje u svom pravom obliku ne postoji dok god hipotetiziramo, dok god smo proračunati. Da bismo bili prijatelji, moramo se sresti negdje izvan računice i ciljeva. U nekom smislu moramo se pustiti i prepustiti, jer pravi susret tek tada se događa. Iako Lemoine ne spominje Steanea, ova dvojica vjernika dali su u suštini jednak argument.

Jezik i umjetna inteligencija

U jednom od prethodnih postova napisao sam da se umjetna inteligencija, točnije neuronska mreža, može svesti na matematičku formulu. Tehnički gledano to je točno, ali i varljivo jer daje krivu intuiciju: ono što zamišljamo kad čujemo za matematičku formulu, iako “znamo” da je “jako velika i složena”, nije neuronska mreža. Slična pogrešna intuicija koja banalizira moć softvera nalazi se u pozadini Chinese Room argumenta Johna Searlea koji sam spomenuo u istom postu. Tako nam je čudno što svijest, inteligencija ili slobodna volja mogu nastati iz interakcije čestica ili formula/algoritama. Naprosto nemamo osjećaj za pojave koji izviru iz low-level fenomena ako se usredotočimo samo na tu razinu. Andrew Steane u knjizi Science and Humanity piše:

“When we say that a monkey is a collection of atoms and molecules, we are right, but that does not logically imply that we understand monkey behaviour, and furthermore, neither does it imply that our current best understanding of molecules is sufficient to support a correct model of monkey behaviour. In fact, it is the monkey behaviour itself that will teach us what monkey-shaped molecules can do. In this way, the monkey fills our understanding of what molecules are, at the same time as it fills out understanding of what monkeys are.”

Iz istog razloga, filozofske probleme umjetne inteligencije valja rješavati u suprotnom smjeru od onog Searlovog i intuitivnog. Umjesto da iz sastavnih dijelova (umjetnih neurona koji se mogu opisati formulama) zaključujemo za što bi AI mogao ili ne bi mogao biti sposoban, možemo samo obrnuto: iz njegovog ponašanja zaključiti za što su sposobni umjetni neuroni, prikladno organizirani na odgovarajući način. To je u skladu s našim iskustvom o ljudskom mozgu – tko bi na prvi pogled rekao da nakupina stanica može razmišljati i osjećati? I u skladu je s funkcionalizmom: consciousness is what consciousness does. Drugim riječima: If it looks like a duck, swims like a duck, and quacks like a duck, then it is a duck. Ne postoji suština, postoje samo svojstva.

A svojstva (relacije) su ključ razumijevanja umjetne inteligencije koja zna engleski jezik, dopunjava rečenice i odgovara na pitanja. Ugrubo, svaka riječ u njezinom je umu niz od nekoliko stotina brojeva (vektor) takav da značenjski odnosi među riječima odgovaraju matematičkim odnosima među vektorima koji predstavljaju te riječi. Primjeri takvih relacija su man : boy = woman : girl (ovdje omjer ne treba shvatiti doslovno) ili Paris – France + Italy = Rome ili Scientist – Einstein + Picasso = Painter ili Windows – Microsoft + Google = Android. Za detalje i bolje razumijevanje snažno preporučujem ovaj članak.

Netko bi sada mogao uputiti sljedeći prigovor:

AI zna samo odnose među različitim riječima, ali on ne zna pravo značenje nijedne riječi! On bi možda mogao napisati rječnik, tj. svaku riječ objasniti drugim riječima, ali nijednu od tih riječi on u glavi ne bi pridružio stvarnosti, za razliku od čovjeka.

Odgovor nije intuitivan, a glasi da ni mi (ljudi) ne znamo ništa osim relacija. Ako zamišljamo npr. pojam mlijeko, u našem mozgu ne postoji ništa slično mlijeku: sve što postoji je aktivacija određenih sinaptičkih veza, što nije toliko različito od matematičkih veza u AI. Netko će reći da u našoj svijesti postoji slika mlijeka. Ali ta je slika ponovno samo veza s drugim pojmovima: s bijelom bojom, s tekućinom, sa šalicom ili bocom ili tetrapakom ili što god je naša asocijacija na mlijeko i tako dalje. Ni ti drugi pojmovi u našoj glavi nisu drugo nego niz asocijacija. U konačnici dolazimo do osjetilnih pojmova (boje, zvukovi…) za koje možemo reći da ih izravno poznajemo. Ali i oni su u našem mozgu zapisani na način koji nema veze ni s bojom, ni sa zvukom: to je također reprezentacija, možda ne numerička (vektor) kao u slučaju umjetne inteligencije, ali i dalje u suštini matematička i funkcionalna samo po svojem odnosu s drugim reprezentacijama.

Ovdje je zgodno napomenuti da ni čestice možda nemaju suštinu. Svaki kvark ili elektron, ili koje god čestice / valovi / strune bile fundamentalne u smislu nedjeljivosti, u potpunosti su opisane svojim svojstvima i odgovarajućim brojevima (“what it does”) i vjerojatno nema smisla pitati od čega su napravljene (“what it is”). Iz te perspektive svemir je samo golemi skup matematičkih relacija, a gradivna tvar na najnižoj razini uopće ne postoji. Tako u knjizi Our Mathematical Universe Max Tegmark tvrdi da je stvarnost matematička struktura (i vremenska dimenzija je njezin dio) i da naš svemir postoji jednostavno zato što postoje sve matematičke strukture, same po sebi. To znači da iz istog trivijalnog razloga postoje svi mogući svemiri. Slično tvrdi i filozof David Lewis (doduše iz drugih razloga) u svojoj knjizi On the Plurality of Worlds: sve što je moguće, postoji. Bilo bi zbilja užasno da je to istina, ali to ne znači da nije.

Može li računalo misliti?

Trenutačno je vruća tema novi AI model GPT-3 koji odlično razumije jezik i djeluje prilično inteligentno.

Naravno, riječ razumije ovdje nema značenje s kojim će se svi složiti. Pojednostavljeno rečeno, GPT-3 je duboka neuronska mreža, a to nije drugo nego ogromna matematička formula čiji se brojevi namještaju na osnovi milijardi primjera za učenje (tekstovi s Wikipedije i slično). Ugrubo, ona kao ulaz prima rečenicu, a izbacuje njezin nastavak ili odgovor na pitanje. Kao i svaki računalni program, tu bismo formulu teoretski mogli zapisati na (gotovo nezamislivo velikom) papiru i ručno je simulirati s možda nekoliko stoljeća računanja za samo jedan primjer, ali odgovori bi i dalje mogli biti takvi da ih ne možemo razlikovati od ljudskih. Ne mislim ovdje na “robotske” odgovore – AI je već sposoban djelovati osjećajno, veselo, tužno, kreativno, mudro, cinično, zaigrano i slično. No ima li tu ikakvog razumijevanja od strane umjetnog sustava, u onom smislu u kojemu za ljude kažemo da nešto razumiju? Je li AI svjestan?

O tom pitanju razmišljali su još mnogo prije samog AI-a. Filozof John Searle 1980. odgovara:

“Could a machine think?
The answer is, obviously, yes. We are precisely such machines.”

Ali potom nadodaje da digitalno računalo, koje nije biološki stroj (što je po njemu nužan uvjet za postojanje svijesti) to ne može, a njegov argument (Chinese Room) možete pročitati u njegovom slavnom članku Minds, brains, and programs. Isprovocirao je mnogo odgovora i osobno nisam siguran da mu argument stoji.

Moje je mišljenje da je takav AI svjestan jezika u onom smislu u kojemu smo mi svjesni sudokua koji rješavamo. Nama riječi znače više od (primjerice) brojeva jer smo čista biologija; jer nam mozak za svaku riječ (ručak, ljubav, voda, zagrljaj, poljubac, zrak, kraj, strah, smrt…) proizvodi asocijacije koje okidaju svjesne ili nesvjesne kemijsko-emocionalne reakcije. U određenom smislu sličniji smo jastozima nego računalu (vidi prvo poglavlje knjige 12 Rules for Life Jordana Petersona). Koliko god bili racionalni, naš je um oblikovan potrebama koje AI iz odgovarajućih tekstova možda može savršeno izučiti i oponašati, ali naprosto mu nedostaju prastari mehanizmi našeg živčanog sustava koji na njih reagiraju. To doduše ne znači da ih barem teoretski nije moguće programski simulirati. Tu mogućnost ostavlja i Daniel Dennett u još starijem članku Why You Can’t Make a Computer That Feels Pain.

Tako ni mi ne možemo razumjeti hipotetska (npr. digitalna) bića koja doživljavaju brojeve i pravila sudokua na sličan način na koji mi doživljavamo bol ili riječi koje je izazivaju – složenim mehanizmima živčanog sustava ili njihovim digitalnim ekvivalentima. Takva bića mogla bi se čuditi što mi tako uspješno rješavamo sudoku, ne znajući da mi sudoku (u usporedbi s njima) uopće ne razumijemo.