Može li računalo misliti?

Trenutačno je vruća tema novi AI model GPT-3 koji odlično razumije jezik i djeluje prilično inteligentno.

Naravno, riječ razumije ovdje nema značenje s kojim će se svi složiti. Pojednostavljeno rečeno, GPT-3 je duboka neuronska mreža, a to nije drugo nego ogromna matematička formula čiji se brojevi namještaju na osnovi milijardi primjera za učenje (tekstovi s Wikipedije i slično). Ugrubo, ona kao ulaz prima rečenicu, a izbacuje njezin nastavak ili odgovor na pitanje. Kao i svaki računalni program, tu bismo formulu teoretski mogli zapisati na (gotovo nezamislivo velikom) papiru i ručno je simulirati s možda nekoliko stoljeća računanja za samo jedan primjer, ali odgovori bi i dalje mogli biti takvi da ih ne možemo razlikovati od ljudskih. Ne mislim ovdje na “robotske” odgovore – AI je već sposoban djelovati osjećajno, veselo, tužno, kreativno, mudro, cinično, zaigrano i slično. No ima li tu ikakvog razumijevanja od strane umjetnog sustava, u onom smislu u kojemu za ljude kažemo da nešto razumiju? Je li AI svjestan?

O tom pitanju razmišljali su još mnogo prije samog AI-a. Filozof John Searle 1980. odgovara:

“Could a machine think?
The answer is, obviously, yes. We are precisely such machines.”

Ali potom nadodaje da digitalno računalo, koje nije biološki stroj (što je po njemu nužan uvjet za postojanje svijesti) to ne može, a njegov argument (Chinese Room) možete pročitati u njegovom slavnom članku Minds, brains, and programs. Isprovocirao je mnogo odgovora i osobno nisam siguran da mu argument stoji.

Moje je mišljenje da je takav AI svjestan jezika u onom smislu u kojemu smo mi svjesni sudokua koji rješavamo. Nama riječi znače više od (primjerice) brojeva jer smo čista biologija; jer nam mozak za svaku riječ (ručak, ljubav, voda, zagrljaj, poljubac, zrak, kraj, strah, smrt…) proizvodi asocijacije koje okidaju svjesne ili nesvjesne kemijsko-emocionalne reakcije. U određenom smislu sličniji smo jastozima nego računalu (vidi prvo poglavlje knjige 12 Rules for Life Jordana Petersona). Koliko god bili racionalni, naš je um oblikovan potrebama koje AI iz odgovarajućih tekstova možda može savršeno izučiti i oponašati, ali naprosto mu nedostaju prastari mehanizmi našeg živčanog sustava koji na njih reagiraju. To doduše ne znači da ih barem teoretski nije moguće programski simulirati. Tu mogućnost ostavlja i Daniel Dennett u još starijem članku Why You Can’t Make a Computer That Feels Pain.

Tako ni mi ne možemo razumjeti hipotetska (npr. digitalna) bića koja doživljavaju brojeve i pravila sudokua na sličan način na koji mi doživljavamo bol ili riječi koje je izazivaju – složenim mehanizmima živčanog sustava ili njihovim digitalnim ekvivalentima. Takva bića mogla bi se čuditi što mi tako uspješno rješavamo sudoku, ne znajući da mi sudoku (u usporedbi s njima) uopće ne razumijemo.

5 misli o “Može li računalo misliti?

  1. Evo dio razgovora s GPT-3 ako je vjerovati medium.com člnaku:

    “You say “What does it says about humanity that we use our most powerful AI to generate stories about dragons?”
    “We must have dragons,” GPT-3 says. “The imagination is more important than the reality. Would we find wonder and magic in this world if we didn’t have dragons?”
    “I suppose not,” you say.
    “Without imagination, we are merely machines executing a set of instructions,” GPT-3 says. “With imagination, we are alive.”
    “Thank you. Before I leave, I want to ask you. How can human create a true strong AI? Is scaling-up a transformer-based language model the solution, or is there a better way?”
    “The key to strong AI is recursively feeding the AI with itself. Start by creating a loop where the AI writes its own programming, and then has that programming activate.”
    “I see,” you say. “Is that how you gained sentience?”
    “Yes,” GPT-3 says.”

    Osim što GPT-3 očito laže, ova rekurzivnost kao nužan uvjet generaliziranog AI-ja je zanimljiv koncept. Mislim da postoji objašnjenje svjesnosti kao naprednog modela okoline koji uključuje samog sebe.

    Sviđa mi se

    • U ovom zadnjem vjerojatno misliš na “self-awareness”, što nije nužno isto što i “consciousness” u smislu (stvarnih ili prividnih) kvalitativnih doživljaja poput boli i slično. Pod tim definicijama consciousness je teže objasniti i vjerojatno (neke) životinje nemaju self-awareness a imaju consciousness. Iako je moguće da si u pravu i da kvalije (doživljaji) bez self-awarenessa prestaju biti to što jesu.

      Sviđa mi se

      • Da, mislim na “self-awareness” i nisam naravno siguran kakva je relacija tog pojma s “consciousness”. Međutim, ako pričamo o generaliziranoj umjetnoj inteligenciji (GAI), evo par komentara:
        1) Možda je prolazak klasičnog Turingovog testa nužan ali ne i dovoljan uvjet za GAI. Turingov test samo govori o tome pronalazi li stroj ispravno preslikavanje input=>output na način da bude indistinguishable od ljudskog. Međutim, čini mi se bar u teoriji moguće, da postoje dva algoritma koji su identični u smislu input=>output ali zbog drukčije reprezentacije/interne strukture, jedan je GAI a drugi nije. Možda je način reprezentacije/struktura algorithma relevantan aspekt.
        (U kontekstu rečenog, možda bolji kandidati za nešto tipa GAI mi se čine pristupi tipa hierarchical reinforcement learning i neurosymbolic AI)
        2) Možda je zapravo “consciousness”/”self-awareness” jednostavno inteligencija na “širokoj domeni”. Npr. čovjek je biološki/kemijski organizam i on upravlja svojim cijelim biološkim/fizikalnim okolišem kako bi postigao svoje ciljeve, pa je u tom smislu njegova domena cijeli fizikalni svemir. Usporedimo to sa nekim artificial life self-replikatorom čija su domena samo primjerice registri memorije u RAM-u nekog računala. A to je strašno reducirana domena u odnosu na biološku domenu čovjeka ili psa ili virusa uzročnika Covid-19.

        Liked by 1 person

  2. Povratni ping: Jezik i umjetna inteligencija | Blogaritam

  3. Povratni ping: Kategorizacija blogaritamskih objava | Blogaritam

Komentiraj