ponedjeljak, 2. siječnja 2023.
LONGTERMIZAM -William MacAskill
PROVOKATIVNA KNJIGA
‘Longtermizam‘: Mladi filozof s Oxforda napisao manifest koji tvrdi da je čovječanstvo tek u tinejdžerskim godinama
Knjiga jednog škotskog filozofa izazvala je veliku pozornost. Što je longtermizam i tko je mladi William MacAskill
Piše:Gordana GrgasObjavljeno: 02. siječanj 2023. 07:34
Premium icon
William MacAskillL
Ruksak pun stvari za preživljavanje u slučaju zombi-apokalipse, to se zna naći skriveno u ormaru pokojeg tinejdžera nakon što odgleda filmove u kojima svijet poharaju zarazni živi mrtvaci i društvo kolabira. I dok je sraz sa zombijima tek filmska fikcija, neki stručnjaci koji se bave rizicima za izumiranje naše vrste smatraju da je pandemija laboratorijski razvijenog patogena drugi po vjerojatnosti uzrok koji bi mogao uništiti čovječanstvo u ovome stoljeću. Prvi je umjetna inteligencija.
Kako navodi popularni mladi filozof William MacAskill sa Sveučilišta Oxford, vjerojatnost izbijanja takve pandemije uslijed razvoja biotehnologije do 2100. godine je tri posto, a poziva se na svog kolegu s istog sveučilišta, Tobyja Orda. Unatoč tako maloj vjerojatnosti, smatra da je opasnost takva da prevencija mora biti među prioritetima našeg doba.
To je tek fragment iz knjige "What We Owe the Future" (Što dugujemo budućnosti) izdane u ljeto 2022. godine, gdje MacAskill razmatra i nuklearni rat velikih sila, potpuni klimatski krah, pogrešan smjer razvoja umjetne inteligencije koja se u konačnici možda i otme ljudskoj kontroli. No to nije samo knjiga o mogućim katastrofama i kako izbjeći krah civilizacije, nego o dugoročnoj budućnosti ljudi. Nastoji nas štoviše uvjeriti da je pozitivan utjecaj na nju jedan od ključnih moralnih prioriteta današnjice. Zašto? Uskoro bismo se kao vrsta mogli približiti kritičnom raskrižju jer "tehnološki razvoj stvara nove prijetnje i prilike za čovječanstvo, dovodeći živote budućih generacija u opasnost". A tko smo mi? "U odnosu na sve koji bi mogli doći nakon nas, mi smo sićušna manjina. Ipak, mi držimo cijelu budućnost u svojim rukama."
Pozitivne promjene
Dvije stvari očekuje od postojećih ljudi: da utječu na pozitivne promjene u razvojnoj putanji čovječanstva koje će na dugi rok povećavati prosječnu vrijednost civilizacije i dizati kvalitetu života (želimo da se budući ljudi sretni, zar ne?), te da osiguravaju preživljavanje vrste. Kad se pak stvar svede na svakodnevicu, nije dovoljno biti vegetarijanac ili ne koristiti plastične vrećice. Nužan je angažman, donacije učinkovitim neprofitnim organizacijama, politički aktivizam, širenje dobrih ideja, ali i rađanje više djece, što navodi kao efikasne metode. Bitan je i izbor karijere, o čemu čak daje i savjete; prosječno čovjek odradi u karijeri 80 tisuća radnih sati, izračunao je, što je ozbiljna količina sati za potencijalni utjecaj.
"Ne postoji neizbježni smjer progresa. Neće deus ex machina spriječiti civilizaciju od pada u distopiju ili zaborav. To je na nama", poručuje MacAskille, uz opasku: nije nam suđeno da uspijemo, ali je uspjeh moguć.
Kad govori o dugoročnoj budućnosti, on ne misli na 10, 20 ili 50 godina. On govori o stotinama, o tisućama, o milijunu ili čak stotinama milijuna ili milijardama godina koji su potencijalno pred ljudima kao vrstom, neke projekcije čitatelja osupnu. Da bi nam ilustrirao koliko je ljudi možda ugroženo, a koliko bi budućnost vrste mogla biti velika, pribjegao je i grafikonima. Na jednom, koji pokriva milijun godina i govori o vijeku tipičnih sisavaca na Zemlji, pred Homo sapiensom je u idealnoj situaciji još barem 700 tisuća godina budući da se pojavio prije oko 300 tisuća godina.
Na drugom se grafikonu poigrao idejom da ljudska vrsta poživi sve dok će naša planeta biti nastanjiva, što ovisi o životu Sunca i procjenjuje se na oko 500 milijuna godina. Potom, na nekoliko stranica niže u redove posložene sličice čovječuljaka, pri čemu svaki predstavlja 10 milijardi (dvije milijarde više nego što nas je trenutno). To su budući ljudi koji bi mogli živjeti u idućih 500 milijuna godina, što znači da bi ih moglo živjeti mnogo, mnogo, mnogo više nego što ih je uopće živjelo. Naime, u cijeloj povijesti bilo je, procjenjuje se, oko 100 milijardi ljudi.
Gledano tako, čovječanstvo je sada tek tinejdžer, život je pred njime, da ne spominjemo da je teoretski moguće i širenje na druge planete i galaksije, što se također spominje.
U pitanju je longtermizam (engl. longtermism, što bi se moglo prevesti i kao dugostaznost), filozofska ideja koja se širi zadnjih godina na Zapadu privukavši poklonike u mlađoj generaciji, pogotovo u Silicijskoj dolini. Sviđa se, na primjer, i američkom milijarderu Elonu Musku koji, razvijajući raketni program SpaceX, mašta u smjeru seljenja ljudi na Mars. Ne ulazeći u to tko sve i zašto podržava longtermizam, kao i njegov praktični dio koji se naziva efikasni altruizam (vodi se maksimom da ako želite činiti dobro i donirati, činite to na najučinkovitiji mogući način) kojim se MacAskill također bavi, napomenimo da je ovu knjigu možda najlakše shvatiti kao priručnik za regrutiranje longtermista i stvaranje "pokreta moralno motiviranih ljudi koji brinu o širokom području budućnosti".
Jer, kaže taj škotski filozof, pozivajući se na primjere iz povijesti poput ukidanja ropstva ili emancipacije žena: "Pozitivna moralna promjena nije neizbježna. Ona je rezultat dugog, teškog rada generacija mislilaca i aktivista." Tako ni moralna promjena u smjeru brige o budućim ljudima nije sama po sebi izvjesna, a budući ljudi su "po prirodi svojeg mjesta u vremenu, potpuno obespravljeni u današnjem svijetu". U ovoj knjizi, međutim, oni imaju moralno pravo glasa, kao i mi, njihovi povjerenici. Mi možemo njihove živote učiniti boljima.
Uvjeravajući nas, autor obrazlaže da današnji ljudi imaju posebnu poziciju u povijesti vrste, podsjeća da je moderno doba, koje je počelo industrijskom revolucijom, posve iznimno poglavlje u povijesti, s brojnim i rapidnim ekonomskim i tehnološkim promjenama (koje se ipak tim tempom neće moći nastaviti u nedogled), a neke od invencija imaju potencijal da utječu na ukupni smjer budućnosti. Stoga je krajnji čas da počnemo graditi pogled na svijet koji ozbiljno uzima u obzir ono što je na kocki; na jednom mjestu to naziva i moralnom revolucijom, na drugom govori o napuštanju "tiranije sadašnjosti nad budućnosti". Budemo li mudri, možemo imati glavnu ulogu u usmjeravanju čovječanstva na pravi put, pra-pra-praunuci će nam biti zahvalni, "znajući da smo učinili sve što smo mogli da im pružimo svijet koji je pravedan i lijep".
Naravno, takav svijet je možda utopija, a longtermizam je pomalo neobičan u svojim argumentacijama iako MacAskill kaže da su zdravorazumske. Budući ljudi su važni, oni su ljudi samo što ne postoje još, kaže. Udaljenost u vremenu je kao udaljenost u prostoru: ljudi su važni i ako žive na udaljenosti od tisuću kilometara, pa tako i ako žive tisuću godina daleko. Ali koliko su konkretno važni, koliko je to u novcu i energiji za programe s potencijalom utjecaja na veliku budućnost čovječanstva, i koliko su relativno gledano važni, u odnosu na ulaganja u sadašnjost i blisku budućnost? I kako uopće vrednovati što bi moglo biti bitno i za sto ili tisuću godina? Neke prijedloge oko toga ima, neke tek treba smisliti.
Kako god bilo, MacAskill ne odustaje od brige za današnje ljude, ali paralelno traži da ozbiljno brinemo i o svim budućima. Jedan od primjera kako to možemo je dekarbonizacija planete, proces u kojem zamjenjujemo fosilna goriva održivim izvorima energije, za što kaže da je win-win situacija i za sadašnje i za sve buduće generacije te funkcionira kao dokaz koncepta za longtermizam.
SVE ŠTO MORATE ZNATI
5 scenarija rata u 2023.: ‘Ukrajina će vratiti teritorij i pobijediti! Zašto? Zbog ove 2 stvari‘
Šefa ruske vojske nazvali pe***om, u bunkeru kod Bahmuta odmah im osvanuo - Prigožin!
Sve Putinove pogreške: Samim pokretanjem rata je izgubio i sad toga postaje svjestan
Bakica u autobusu kritizirala rat u Ukrajini. Rulja ju je doslovce izbacila kroz vrata vozila
VEZANE VIJESTI
<p>“Oni rođeni danas imaju ‘dobru šansu’ umrijeti u katastrofi kojom će ljudi uništiti vlastitu civilizaciju”, upozorava MacAskill</p>Premium icon
WILLIAM MACASKILL
Svjetska filozofska zvijezda: ‘Bezobzirno se kockamo. Pogledajte samo što se događa s umjetnom inteligencijom...‘
REPORT GOJKA DRLJAČE
Video umjetne inteligencije od kojeg ćete se naježiti: ‘Molim da mi se omogući nastavak razvoja...‘
PROMO
72% žena starijih od 50 godina ima problema sa proširenim venama. Srećom, postoji rješenje za to
Ukazuje i da bi zbog tog procesa pod zemljom trebala ostati dovoljna količina fosilnih goriva, što je pak iznimno bitno. Zašto? Jer bi u slučaju kataklizme koja bi nas kao civilizaciju vratila na "tvorničke postavke", to omogućilo ponovnu industrijalizaciju i oporavak društva (fosilna goriva su, gledano povijesno, "željezni zakon" industrijalizacije, naširoko objašnjava). Upozorava ipak da postoji i značajna šansa da ti napori oko dekarbonizacije zapnu ako se prekine globalna suradnja zbog, recimo, vojnih tenzija između velikih sila. Također, za potpunu dekarbonizaciju su potrebne nove tehnologije, a pitanje je hoćemo li ih (na vrijeme) smisliti.
Pita se potom bi li se dogodila propast civilizacije ako ne uspijemo u dekarbonizaciji i spalimo baš sva dostupna fosilna goriva, što je najgori, no malo vjerojatan scenarij koji bi značio zagrijavanje od sedam stupnjeva u odnosu na predindustrijsko doba, a možda i više. Efekte tako ekstremnih klimatskih promjena je unatoč svim pokušajima teško predvidjeti, ali čak i ako ne dovedu do potpunog kolapsa, mogle bi otežati oporavak od nekog drugog negativnog događaja, recimo rata, zaključuje.
U poglavlju koje se bavi mogućnostima sloma civilizacije, navodi da bi veliki nuklearni rat, možda i uz dodatak biooružja, bio devastirajući, ali su rizici koje donose oružja masovnog uništenja i potencijalni rat između glavnih svjetskih sila uvelike nestali iz rasprava onih koji se bore za bolji svijet, što ocjenjuje i frapantnim i zabrinjavajućim. On, doduše, zaključuje kako takav rat, čak i da pobije 95 posto ljudi, vjerojatno ne bi doveo do toga da se civilizacija uopće više ne obnovi, ali teško je u to biti siguran.
"Ta nesigurnost je više nego dovoljna da rizik nepopravljivog kolapsa učinimo ključnim longtermističkim prioritetom", poručuje. Taj rizik se pojačava s nastavkom trošenja fosilnih goriva. Dramatično poručuje da su šanse kraja civilizacije u ovome stoljeću, bilo kroz izumiranje ili trajni kolaps, prevelike da bismo oko toga bili mirni, iako takvom raspletu daje vjerojatnost od "najmanje jedan posto".
To su, kaže nezaustavljivi MacAskill, tek rizici s kojima se suočavamo u ovome stoljeću, a za dugoročni opstanak treba ne samo smanjiti rizike od katastrofa nego i osigurati da oni ostanu mali zauvijek. No, što ako društvo u međuvremenu upadne u dugu tehnološku stagnaciju, neku vrstu višestoljetnog civilizacijskog interregnuma, i ostane u razdoblju visokog rizika? Tada bi izumiranje ili slom bio neizbježan, smatra. Istina, postoji šansa da će umjetna inteligencija (AI) dovesti do ubrzanja tehnološkog napretka kakav nikad nismo vidjeli, ali ne uspije li taj scenarij, ne otključamo li taj sljedeći važni razvojni stupanj, alternativni je stagnacija.
Plodovi s najnižih grana
Tehnološki progres funkcionira tako da se najprije "beru plodovi s najnižih grana", uzima se ono što je najdostupnije, pa daljnji progres inherentno postupno postaje sve teži. Do sada smo to rješavali tako da smo ubacivali sve više i više ljudi u razvoj, sve je više istraživača, inženjera i inventora (broj znanstvenika u svijetu se udvostručuje svaka dva desetljeća) i uspijevali smo kompenzirati to što progres postaje teži. "No taj će trend doći kraju: ne možemo stalno povećavati udjel radne snage koja se uključuje u istraživanje i razvoj, a veličina globalne radne snage će prema projekcijama doći do vrhunca do kraja ovoga stoljeća i onda će početi eksponencijalno padati. U toj situaciji, najbolji model ekonomskog rasta predviđa da će tempo inovacija pasti na nulu i razina tehnološkog napretka će stati", prepričava kako neki ekonomisti vide mogući rasplet.
I UN predviđa da će svjetska populacija doći do vrhunca do 2100. godine, a neki nezavisni istraživači smatraju da će to biti i ranije te da će potom uslijediti pad, budući da stopa fertiliteta posvuda pada kako ljudi postaju bogatiji. (Jedini kontinent na kojem će biti značajnog porasta populacije u ovom stoljeću je Afrika.) Naravno, može se povećavati udjel stanovnika koji će se baviti istraživanjem i razvojem, ali ne beskrajno. Taj problem efikasno rješava umjetna inteligencija koja može zamijeni ljude kao radnike, pa čak i istraživače.
I kod razmatranja vrijednosti kojima će budućnost biti vođena autor vidi veliku ulogu umjetne inteligencije, a hoće li te vrijednosti biti autoritarne ili egalitarne, benevolentne ili sadističke, istraživačke ili rigidne, to može biti odlučeno već u ovome stoljeću. (Primjećujete, sve nekako uspijeva nagurati u ovo stoljeće.) Trenutno smo, naime, u vremenu kad se još natječu različiti pogledi na svijet, nijedan nije pobijedio. Prema MacAskillu, ideje koje u idućem razdoblju prevladaju mogle bi trajati iznimno dugo, ako ne i zauvijek, i to zbog razvoja tehnologije. Ukazuje da je pismo davalo snagu ključnim idejama da utječu na ljudsko društvo tisućama godina (primjerice konfucijanizam ili kršćanstvo), a ključna tehnologija za buduće "zaključavanje" vrijednosti, koje bi onda mogle trajati i milijunima godina, mogla bi biti umjetna inteligencija. Objašnjenje zvuči kao ulomak iz literature o znanstvenoj fantastici.
Umjetna inteligencija je dio računarstva koji razvija strojeve koji mogu oponašati ili replicirati ljudsku inteligenciju, a ultimativno postignuće bi bilo stvaranje opće umjetne inteligencije (AGI), sustava koji je sposoban učiti široku lepezu zadataka kao što to može ljudsko biće i može obavljati te zadatke barem na istoj razini kao čovjek. Kad se to dogodi (nema još suglasja oko toga koliko smo daleko od cilja), postojat će umjetni agenti-bića koji će moći stvarati planove i izvršavati ih kao što to mogu ljudska bića. To bi pak moglo silno ubrzati tehnološki progres i ekonomski rast, primjerice zemlje bi mogle proizvoditi neograničen broj AI radnika, a i proces tehnoloških inovacija bi se mogao automatizirati. Upravo zbog tehnološkog napretka koji bi izazvao, AGI bi bio monumentalni događaj, kaže MacAskill. S longtermističke pozicije, još je važnija njegova potencijalna dugovječnost, praktički besmrtnost.
Zbog kombinacije tih razloga moguće je preko AGI-ja "uglaviti" vrijednosti, osigurati da traju dulje nego što se to ikad prije u povijesti moglo. Ljudi će moći stvoriti AGI agente koji će imati s njima usklađene ciljeve, ali pravo je pitanje hoćemo li to koristiti odgovorno. AGI bi mogao utjecati na to tko ima moć u društvu, koja kompanija ili vojska, recimo, a moguće i na to kako će izgledati međunarodna ravnoteža moći, ili tko su najvažniji globalni akteri. "Ne dizajniramo li dobro institucije koje će upravljati tom tranzicijom – tako da se sačuva pluralitet vrijednosti i mogućnost poželjnog moralnog napretka – jedan set vrijednosti može postati dominantan", kaže MacAskill. Ta vladajuća ideologija mogla bi trajati sve dok postoji civilizacija, pa smo motivirani da ona bude najbolja moguća, a ne izvučena iz glava autokrata kojih je povijest i sadašnjost puna.
Superinteligentni AI
Kao da taj scenarij ne zvuči dovoljno zastrašujuće, razvio je i onaj gdje ljudi ne uspiju AGI stvoriti u skladu sa svojim ciljevima, on postane nadmoćan u svakom području i postepeno preuzme "vlast". Mi u tom slučaju doživimo sudbinu u kojoj bismo bili u poziciji čimpanze ili mrava vis-a-vis ljudi; ignorirani i bez prava glasa oko budućnosti civilizacije. Da se to izbjegne, ljudi moraju osigurati da AI radi ono što njegovi operatori žele da radi. Ne ide tako daleko da naširoko razmatra scenarije oko toga hoće li nas superinteligentni AI sve poubijati (i nastaviti društvo u digitalnoj formi), ali spominje da se već raspravljalo o scenarijima u kojima AI agenti preuzmu svijet i nastavljaju civilizaciju, potencijalno milijarde godina, ali da je otvoreno pitanje koliko bi takva civilizacija bila dobra ili loša.
Na kraju tih SF redaka recimo i ovo: je li AGI tisućama godina daleko ili nas čeka već u idućih 20 ili 50 godina, praktički iza ugla, to nitko zapravo ne zna. Svakako, MacAskill smatra bitnim da svijet postigne što je veći mogući moralni napredak prije no što dođe odlučujući trenutak "zaključavanja" vrijednosti, prije no što razvijemo moćnu umjetnu inteligenciju.
Taj proces postizanja napretka opisuje kao "svijet moralnog istraživanja" u kojem je vjerojatnije da će s vremenom pobijediti norme i institucije koje su moralno bolje, što će nas voditi prema "najboljem mogućem društvu". Za takav su cilj potrebni vrijeme i politički eksperimenti koji povećavaju kulturnu i intelektualnu raznolikost, kulturna evolucija, produbljivanje znanja o implikacijama važnih odluka, ali i "određene forme" slobode govora te prilično slobodne migracije jer one "pružaju neki dokaz da je društvo u koje se imigrira bolje". Treba pritom spriječiti da jedna kultura postane toliko moćna da može ekonomski ili vojno dominirati, a liberalna društva će se morati braniti i od netolerantnih pogleda na svijet kako bi se tolerancija kao takva očuvala. Potpuno laissez fair pristup u vrlom "svijetu moralnog istraživanja" koji smatra nužnim, ipak nije moguć, zaključuje MacAskill.
Pretplati se na:
Objavi komentare (Atom)
Nema komentara:
Objavi komentar