Photo by Buzz Andersen on Unsplash
 
Redzējumi
28.08.2018

Cilvēces pēdējā stunda

Komentē
0

Šeit ledlauzis, kuru piespēlēt cilvēkiem nākamajā ballītē: "Ja tu zinātu par notikumu, kurā tu un visi, kas tev rūp, noteiktā nākotnes laika periodā ar noteiktu varbūtību ies bojā, ko tu darītu?" Vai viņi būtu gatavi atmest visu malā un veltīt visus savus spēkus, lai nepieļautu tam notikt? Vai paraustītu plecus un neietekmēti dzīvotu tālāk? Izrādās, ka šis ir pamatots jautājums, jo pastāv reāli draudi, kas varētu mūs iznīcināt vai novest atpakaļ akmens laikmetā. Šos draudus dēvē par eksistenciālo risku [1] (existential risk) – varbūtību civilizācijas un tās pozitīvā nākotnes potenciāla bojāejai –, kuru paredzēšanai un mazināšanai centienus aktīvi velta pētnieki, akadēmiķi un filantropi.

Asteroīdu triecieni, pandēmijas, nekontrolētas klimata pārmaiņas un kodolkarš – šie ir tikai daži no scenārijiem, kā cilvēces vēsture varētu apstāties. Homo sapiens pēdējos 200 000 gadus ir pārvarējuši dabiskus eksistenciālos riskus, kā, piemēram, supervulkānu izvirdumus un zemestrīces. Tāpēc tiek uzskatīts, ka dabiskām katastrofām ir zemāka varbūtība iznīcināt cilvēci apriori. Kā arī mūsdienās to scenārijus ir iespējams datormodelēt un tiem arī attiecīgi gatavoties. [2]

Taču 1945. gadā ar pirmo kodolieroču izmēģinājumu cilvēce tika iepazīstināta ar pavisam jauna veida draudiem – antropogēniem eksistenciālajiem riskiem. Tie ir riski, kas rodas cilvēku darbības rezultātā, – katastrofiskas klimata pārmaiņas vai karš, terorisms vai negadījumi, izmantojot kodolieročus, advancētas biotehnoloģiju, nanotehnoloģiju un mašīnintelekta formas vai citi "nezināmi nezināmie". Tiesa, mums nav pieredzes šādu risku izdzīvošanā, bet tāpēc mēs nevaram secināt, ka eksistenciālā riska varbūtība ir 0% vai pat tuvu tam.

Cik iespējama ir eksistenciāla katastrofa?

Lai gan eksistenciālie riski bieži tiek aprakstīti kā "katastrofiski, taču ļoti mazticami notikumi", aplēses ir augstākas par dažādiem citiem draudiem, par kuriem cilvēki ikdienā uztraucas. Ietekmīgais "The Stern Review" ziņojums norāda, ka iespēja indivīdam šī gadsimta laikā iet bojā cilvēces izmiršanas notikumā ir 9,5% jeb 0,1% riska gadā. [3] Salīdzinājumam vidējā ASV iedzīvotāja risks dzīves laikā iet bojā autoavārijā ir ap 0,01% gadā. [4] Minētais skaitlis gan balstās modelēšanas pieņēmumā, zinot, ka šobrīd nepastāv labu, drošticamu empīrisku vai statistisku metožu, ar kurām precīzi varētu kvantificēt kopējo eksistenciālo risku. Galu galā neviens vēl nav pieredzējis cilvēces bojāeju.

Taču pētnieki eksistenciālo risku lauciņā, kas ir apsvēruši pieejamo evidenci un argumentus, piešķir ievērojami augstāku varbūtību – 19% iespēju cilvēces izmiršanai līdz 2100. gadam, vēsta "Future of Humanity Institute" 2008. gada aptaujas rezultāti. Institūta vadītājs un filozofs Niks Bostroms (Nick Bostrom) apgalvo, ka piešķirt mazāk nekā 25% varbūtību eksistenciālai katastrofai pirms gadsimta beigām būtu maldinoši. Viņš piebilst, ka pat 1% risks tik un tā būtu ļoti nopietnas uzmanības avots augsto likmju dēļ. Savukārt Sers Mārtins Rīzs (Sir Martin Rees), "Centre for the Study of Existential Risk" līdzdibinātājs, apgalvo, ka cilvēces izredzes izdzīvot šo gadsimtu ir 50:50 – ne vairāk par monētas metienu! [5]

Smagas klimata pārmaiņas

Mēs zinām, ka industriju un arī mūsu radītais CO2, metāns un citas gāzes paaugstina vidējās globālās temperatūras. Nesen žurnālā "Science" pētnieki ir paziņojuši, ka temperatūras līdz gadsimta beigām varētu celties par 4–7°C, kas ir daudz karstāk nekā iepriekš paredzēts. Pasaules Bankas ziņojums par to, kas notiktu 4°C scenārijā, skaidro, ka, ledājiem kūstot, applūdīs piekrastes pilsētas; upēm un ezeriem izžūstot, sausi reģioni kļūs sausāki; citviet upēm applūstot, slapji reģioni kļūs slapjāki. Daudz reģionus skars negaidīti karstuma viļņi un ūdens trūkums, kamēr citos reģionos intensīvi tropu cikloni kļūs par biežāku parādību.

Šīm pārmaiņām pastāv risks iznīcināt neskaitāmas dzīvesvietas un vitālas lauksaimniecības un ekosistēmas, piespiežot miljoniem cilvēku kļūt par klimata bēgļiem, kas savukārt draud saasināt politiskus un militārus konfliktus. Lai gan klimata pārmaiņu izraisīta pilnīga bojāeja ir mazticama, šādu apsvērumu dēļ klimata pārmaiņas tiek uzskatītas par draudu "pastiprinātāju", tajā skaitā arī citu katastrofisko risku. Kā ASV Aizsardzības departaments 2015. gada ziņojumā vēsta: "Globālas klimata pārmaiņas saasinās tādas problēmas kā nabadzību, sociālo spriedzi, vides degradāciju, neefektīvu vadību un novājinās politiskas institūcijas, kas apdraud vairāku valstu stabilitāti."

Sintētiskā bioloģija

2002. gadā ziņojumā ASV Nacionālā zinātņu akadēmija izsludināja brīdinājumu, minot, ka mazs skaits indivīdu ar specializētām prasmēm un komerciāli pieejamu laboratorijas aprīkojumu varētu lēti, viegli un nepamanāmi izstrādāt plašu klāstu ar letāliem bioloģiskiem ieročiem. Tajā pašā gadā viena pētnieku grupa paziņoja, ka tai ir izdevies sintezēt poliomielīta vīrusu no viegli pieejamām izejvielām un internetā pieejamu vīrusa genomu. Vēlāk citām zinātnieku grupām ir izdevies rekonstruēt spāņu gripas vīrusu, kas 1918. gada pandēmijā nogalināja ap 50 miljonus cilvēku, un radīt starp zīdītājiem pārnēsājamu H5N1 putnu gripas vīrusa celmu.

Biežākais pamatojums šādai pētniecībai ir bijusi rezultātu publiskošana, lai šīs zināšanas varētu palīdzēt izstrādāt vakcīnas un gatavoties potenciāliem slimību uzliesmojumiem. Tikmēr citi aicina šāda veida rezultātus nepubliskot terorisma draudu dēļ vai aicina ieviest striktāku drošības kontroli pētniecības objektos, lai mazinātu risku vīrusa nokļūšanai ārvidē. Varētu apgalvot, ka divas laboratoriju izraisītas infekcijas 1000 laboratoriju gadu laikā notiek pārāk bieži, ņemot vērā, cik augstas ir likmes. Biotehnoloģijām progresējot, inženierēti patogēni ar augstu pārnēsājamību, ilgu latento periodu un 100% letalitāti, tīši vai netīši izlaisti ārvidē, iespējams, varētu radīt nopietnus cilvēces izmiršanas draudus, min "Future of Humanity Institute" pētnieks Anderss Sandbergs ar kolēģiem.

Advancēts mākslīgais intelekts

Homo sapiens ir dominējošā suga uz Zemes nevis tāpēc, ka tā ir spēcīgākā vai ātrākā, bet gan tāpēc, ka tā ir inteliģentākā. Viens no mākslīgā intelekta pionieriem, Alans Tjūrings jau 1951. gadā paredzēja iespēju, ka varētu tikt radīts mākslīgais intelekts ar cilvēka līmeņa vispārīgo intelektu, kurš spētu palielināt savu intelektu tālu ārpus cilvēku spējām to kontrolēt. Un, tāpat kā pērtiķu liktenis mūsdienās ir vairāk atkarīgs no cilvēkiem, nevis pašiem pērtiķiem, tāpat arī mūsu sugas liktenis varētu kļūt atkarīgs no superintelekta mērķiem un vērtībām. Tāpēc Oksfordas profesors Niks Bostroms savā grāmatā "Superintelligence: Paths, Dangers and Strategies" uzsver, ka būtu ļoti svarīgi pārliecināties, lai pirmā šāda mākslīgā intelekta mērķi būtu saskaņā ar cilvēku un citu justspējīgo būtņu interesēm.

Populāra ilustrācija par mākslīgā intelekta riskiem ir "saspraudīšu maksimizētājs" (paperclip maximizer). Jeb tāds vispārīgais mākslīgais intelekts, kura vienīgais mērķis ir radīt pēc iespējas vairāk saspraudīšu, pilnībā automatizējot rūpnīcas īpašnieka darbu. [6] Programmas vadās pēc tā, kas ir uzdots, nevis bijis iecerēts. Tāpēc tiklīdz šāds aģents kļūtu pietiekami inteliģents, tas varētu atrast veidus, kā pārvērst planētu, tajā skaitā arī mūs, gigantiskos saspraudīšu karjeros, kas pakāpeniski izplešas pa novērojamo Visumu. Šāds mākslīgais intelekts varētu paredzēt scenārijus, kuros cilvēki mēģinātu to apturēt, un tāpēc tos preventīvi iznīcinātu. Jo citi rīcības scenāriji varētu novest pie pasaulēm ar mazāku saspraudīšu skaitu un tādējādi sliktāk sasniegtiem tā mērķiem. [7] Cilvēce katru gadu noved tūkstošiem sugu līdz iznīcībai savu instrumentālo mērķu ceļā, tāpēc nebūtu grūti iztēloties, ka spēcīgākas būtnes varētu ar mums izdarīt to pašu.

Cik slikta varētu būt cilvēces bojāeja?

Lai palīdzētu šo novērtēt, filozofs Dereks Parfits (Derek Parfit) savā darbā "Reasons and Persons" lūdz mūs iztēloties sekojošos scenārijus:

1. Vispasaules miers.
2. Kodolkarš, kurā tiek nogalināti 99% pasaules populācijas.
3. Kodolkarš, kurā tiek nogalināti 100%.

Protams, scenārijs (1) ir labāks nekā (2), kas savukārt ir labāks nekā (3). Bet starp kuriem no šiem scenārijiem pastāv lielākā atšķirība? Ja mums rūp tikai cilvēki, kuri šobrīd eksistē, lielākā starpība ir starp scenārijiem (1) un (2), kur tiktu nogalināti vairāk nekā 7 miljardi cilvēku. Kamēr starp scenārijiem (2) un (3) starpība ir tikai 70 miljoni. Taču scenārijā (3) mēs ne tikai pazaudējam papildus 70 miljonu dzīvju, bet reizē visu iespējamo cilvēces nākotni. [8] Pēdējo cilvēku nāve pieliktu punktu cilvēces potenciālam. Ja cilvēces stāsts beidzas, nepazūd tikai tagadnes cilvēki, bet reizē arī jebkuri nākotnes.

Mūsu Saule ir tikai tās dzīvildzes pusceļā, un Zeme turpinās būt apdzīvojama vismaz miljards gadu. Pie nemainīgas populācijas ar vidējo vecumu pie 100 gadiem, eksistenciālas katastrofas gadījumā vismaz desmit miljoni paaudžu jeb 70 000 triljoni cilvēku varētu zaudēt iespēju aizvadīt laimīgas dzīves – Ričarda Dokinsa vārdiem, kā smilšu graudi Sahāras tuksnesī un starp tiem rakstnieki diženāki par Kītsu un zinātnieki par Ņūtonu. [9] Konservatīvi pieņemot, ka risks cilvēces bojāejai tomēr ir tikai 1%, mazināt šo risku par nieka simttūkstošo daļu procentpunkta pēc sagaidītās vērtības izglābtu 7 miljardu cilvēku. Ja mēs uzskatām, ka nākotnes paaudzes ir tikpat morāli svarīgas pret to populācijas izmēru kā tagadnes, tad pārsteidzošais secinājums ir tāds, ka mūsu rīcību vērtību galvenokārt nosaka to ietekme uz tālo nākotni. Un no šāda morāles skatpunkta eksistenciālo risku samazināšana varētu šķist daudz vērtīgāka par jebko citu, ko mēs varētu darīt.

Bet kāpēc vispār uztraukties par būtnēm, kas eksistētu simtiem gadu vēlāk nākotnē?

It īpaši pēc tam, kad mūs vairs varētu nebūt? Šis laiks, kurā mēs fiziski atrodamies, no neitrāla skatpunkta nav objektīvi morāli svarīgāks par jebkuru citu laiku. [10] Ciešanas un kaitējums ir slikti tiem, kas tās pieredz, neskatoties uz to, kur un kad Visumā tās tiek pieredzētas – pirms 50 gadiem vai pēc 300 gadiem. Ja mums nevajadzētu diskriminēt cilvēkus pēc ģeoģrāfiskā attāluma telpā, mums nevajadzētu diskriminēt arī pēc attāluma laikā. Ja visām dzīvēm ir vienāda vērtība, kāpēc neuztraukties arī par nākotnes dzīvēm? Mūsu mazbērnu dzīvēm nav mazāka morālā vērtība tikai tāpēc, ka tās atrodas attālāk no mums nākotnē.

Kā Stīvens Pinkers (Steven Pinker) norāda grāmatā "The Blank Slate: The Modern Denial of Human Nature", uzskati, kuri neņem vērā citu intereses, tikai savas, sabrūk, kad ikviens paraugās uz sevi no neitrāla novērotāja skatpunkta un redz sevi kā tādu pašu būtni kā citas. Tas būtu līdzīgi, kā uzstāt, ka šis punkts, kuru kāds aizņem dotajā laikā un telpā atrodas morāli īpašā vietā Visumā (un visā tā iespējamā vēsturē). [11] Pieņemot ētiskus lēmumus, mums vajadzētu ņemt vērā visus, kuriem ar mūsu rīcību vai bezdarbību mēs varam kaitēt vai palīdzēt, ieskaitot būtnes, kas attiecīgajā mirklī neeksistē.

Bet vai tiešām mums ir morāls pienākums nodrošināt, ka šīs nākotnes paaudzes nāk pasaulē?

Galu galā, cik pamatoti būtu piešķirt morālu vērtību kaut kam, kas (vismaz šobrīd) neeksistē? Viņu nav šeit, un mēs nevaram nedz kaitēt, nedz palīdzēt neeksistējošām būtnēm. Varbūt mums vajadzētu ņemt vērā tikai "reālas" būtnes. Piemēram, tos cilvēkus, kuri šobrīd eksistē, un darīt tos laimīgus, nevis radīt jaunus, laimīgus cilvēkus. Šo pozīciju populāciju ētikā (population ethics), rupji tulkojot, dēvē par personu skarošo skatījumu (person-affecting view), kas aptver intuīciju, ka lēmumi var būt morāli labi vai slikti tikai tad, ja tie ir morāli labi vai slikti kādam, kas jau eksistē. [12]

Lai gan filozofu vidū pastāv būtiskas domstarpības gan šajā, gan citos populāciju ētikas jautājumos, ņemot vērā likmes, mazināt eksistenciālo risku varētu būt augsta prioritāte, neskatoties uz mūsu personīgo nostāju nākotnes vai tagadnes paaudžu jautājumā. Iespējams, pietiekami nopietnus apsvērumus jau rada tikai tas, ka mēs paši un mūsu egoistiskās intereses (mani draugi, mana ģimene, mani tuvinieki, mans uzņēmums, mani vaļasprieki, mana pilsēta, mana valsts) varētu tikt iznīcinātas kopā ar pārējo cilvēci.

Ja cilvēcei ir nopietnas izredzes iet bojā, kāpēc neviens nerīkojas situācijas labā?

Šo daļēji palīdz izskaidrot fakts, ka pastāv daudzas sistemātiskas domāšanas kļūdas, kas traucē mums adekvāti spriest par retu notikumu nozīmīgumu. Viena no šīm kļūdām ir tendence neizvērtēt notikumus ar reizinošu raksturu pret to mērogu (scope insensitivity bias). Viena cilvēka nāve ir traģēdija, taču miljona cilvēku nāve ir statistika. Ja likmes tiek palielinātas no 7 000 000 līdz 7 000 000 000 cilvēku dzīvju, tas neliek mums justies tūkstoš reizes motivētākiem šos cilvēkus censties izglābt. Viss, ko tas panāk: pievieno trīs papildu nulles, kurām mums ar acīm pārskriet pāri. [13] Taču šiem skaitļiem ir nozīme, jo aiz katra no tiem slēpjas reāli indivīdi ar reālu dzīvesstāstu.

Daudziem lasītājiem iztēloties īstu cilvēces izmiršanas scenāriju, lai arī cik katastrofisku, varētu šķist burtiski prātam neaptverami. Var saprast, ka novērst cilvēces nāvi ir neiedomājami svarīgi, taču nav viegli to sajust. Mūsu morālās emocijas vienkārši nav evolucionāri pielāgotas tam, lai mēs spētu izjust pietiekami dziļas bažas par pasaules lielākajām problēmām. [14] Un mūsu intuīcijas nav pielāgotas spriedumiem ar tik milzīgiem skaitļiem un laika skalām. [15] Tāpēc labākais, ko mēs varam darīt, ir uzticēties savam kritiskajam prātam vairāk nekā savām sajūtām, vadīties pēc sagaidītās vērtības un reizināt potenciālo katastrofu mērogu ar to varbūtību.

Papildus šīm domāšanas kļūdām mākslīgā intelekta pētnieks Elīzers Judkovskis (Eliezer Yudkowsky) dalās personīgajos novērojumos, ka daudzi cilvēki, izdzirdot par eksistenciālajiem riskiem un to izaicinājumiem, negaidīti pārslēdzas uz pavisam citu domāšanas veidu, kurā pēkšņi cilvēku nāve vairs nešķiet tik slikta. Cilvēki, kas nekad neiedomātos nodarīt pāri bērnam, uzzina par varbūtību cilvēces bojāejai un nodomā: "Nu, varbūt cilvēce nav nemaz pelnījusi dzīvot." Gandrīz lieki piebilst, ka vairums šo cilvēku nebūtu gatavi šādu loģiku piemērot, piemēram, uzzinot par kāda atsevišķa tuvinieka terminālu diagnozi.

Kā mēs varam samazināt eksistenciālo risku?

Diemžēl eksistenciālie riski ir salīdzinoši maz pētīti – pastāv daudz vairāk akadēmisku pētījumu par mēslu vabolēm vai snovbordu nekā par cilvēces izmiršanas scenārijiem un to novēršanu. [16] Tāpēc mūsu šī brīža zināšanas tādos jautājumos kā – kādi riski pastāv, cik lieli ir dažādi riski, kādi faktori var tos ietekmēt, kā dažādi riski var ietekmēt cits citu, ar kādām metodēm varētu tos pētīt un kā mēs tos varētu prioritizēt un efektīvi samazināt – ir ļoti ierobežotas. Šī iemesla dēļ viens no daudzsološākajiem veidiem ir pētīt eksistenciālos riskus un analizēt potenciālos veidus, kā no tiem izvairīties un aizsargāties. [17]

Neskatoties uz to, pastāv konkrēti piedāvājumi mērķtiecīgai noteiktu eksistenciālo risku mazināšanai. Piemēram, mazināt siltumnīcefekta emisijas (izstrādājot lētākus saules paneļus vai lobējot CO2 emisiju kvotas vai aplikšanu ar nodokli), labāk novērot slimību izplatīšanos (jo agrāk pandēmija tiek pamanīta, jo labākas izredzes ir to kontrolēt) vai ievērojami samazināt pasaules kodolarsenālu apjomu (ekspertu prāt, saglabājot to atturēšanas efektu, bet mazinot negadījumu risku). Labāki katastrofu patvērumi varētu samazināt pandēmiju, kodolziemu vai asteroīdu triecienu radīto postu, reizē palielinot cilvēces izredzes atgūties. [18]

Citi, plašāka veida piedāvājumi eksistenciālo risku mazināšanai ir bijuši, piemēram, stiprināt starptautisko sadarbību un izmainīt sabiedrības un tās institūciju normas, izplatot racionālāku, līdzjūtīgāku un ilgtermiņā orientētāku domāšanu un lēmumu pieņemšanu. [19] Mūsu tehnoloģiskajai varai augot, tāpat aug tās potenciālās sekas – tīšās un netīšās, pozitīvās un negatīvās. Tāpēc vēl viens piedāvājums ir diferencētā intelektuālā progresa princips (differential intellectual progress). Tas nosaka prioritizēt to filozofisko, zinātnisko un tehnoloģisko progresu, kas samazina risku, pāri risku veicinošam progresam. Piemēram, mākslīgā intelekta kontekstā šāds plāns nozīmē censties vispirms atrisināt mākslīgā intelekta drošības problēmu pirms problēmām saistībā ar mākslīgā intelekta spējām. [20]

Bet ko, pie velna, es varu darīt, lai novērstu cilvēces izmiršanu?

Jau šobrīd pasaulē ir cilvēki un organizācijas, kas mērķtiecīgi cenšas pētīt un samazināt eksistenciālo risku:

Oksfordas Universitātes Future of Humanity Institute (FHI) profesora Nika Bostroma vadībā analizē tehnoloģiju ietekmi uz cilvēci un tās ilgtermiņa nākotni, spriež par stratēģiskām prioritātēm eksistenciālo risku mazināšanā un šajos jautājumā ir arī konsultējusi Britu Parlamentu.

Machine Intelligence Research Institute (MIRI) Bērklijā strādā tieši pie tā, lai par cilvēku spēcīgākas inteliģences radīšanai būtu pozitīva ietekme. Kas praksē nozīmē cenšanās ar matemātiku atbildēt uz tādiem jautājumiem kā norādīt mākslīgā intelekta mērķus, lai tie precīzi un pierādāmi saskanētu ar mūsu vēlmēm un nolūkiem?

Kembridžas Universitātes Centre for the Study of Existential Risk (CSER) ir starpdisciplinārs institūts, kas nodarbojas ar eksistenciālo risku pētniecību, popularizēšanu un kustības attīstīšanu, piemēram, organizējot ikgadējo "Cambridge Conference on Catastrophic Risk" tematisko konferenci.

Future of Life Institute (FLI) Bostonā, kuru līdzdibinājis fiziķis Makss Tegmarks (Max Tegmark), veic pētījumus un organizē seminārus un konferences saistībā ar dažādiem eksistenciāliem riskiem. FLI ir izdevis arī atvērtu vēstuli, paužot nepieciešamību pēc vairāk pētījumiem mākslīgā intelekta drošībā, kuru līdz šim ir parakstījuši 9 600 zinātnieki, tostarp arī trīs no Latvijas.

"Tesla" un "SpaceX" dibinātājs Īlons Masks (Elon Musk), atsaucoties uz mākslīgā intelekta riskiem, ir ziedojis 10 miljonus ASV dolāru FLI un līdzdibinājis OpenAI mākslīgā intelekta drošības pētniecībai. Viņa plāns ar "SpaceX" ir kolonizēt Marsu un padarīt cilvēkus par multiplanetāru sugu – ar mērķi samazināt risku, ka kāda viena lokāla katastrofa spētu iznīcināt visu civilizāciju.

"Skype" dibinātājs Jans Tallins (Jaan Tallinn) gadiem ir bijis eksistenciālā riska kopienas atbalstītājs, kuru man arī bijis gods satikt 2015. gada Effective Altruism Global konferencē Oksfordā. Viņš ir piešķīris starta finansējumu CSER dibināšanai.

Pārsteidzošā kārtā pastāv daudzi veidi, kā jebkurš var iesaistīties. Pētniecība var ne tikai pilnveidot paša zināšanas, bet arī izmainīt daudzu citu prioritātes. Neskaitot pētniecību, ikvienam ir iespēja ziedot eksistenciālo risku pētniecības un popularizēšanas atbalstam. Pretstatā tam, ko daudzi domā, ar ziedošanu var panākt tikpat daudz kā darīšanu. Jo ziedojot tev ir iespēja radīt pasaulē vairāk ekspertu līmeņa darba stundu, nodarbojoties ar to, kas tev pašam vislabāk padodas. Un nav arī jābūt Silīcija ielejas miljardierim, lai ziedotu. Daudzi mazāki ziedotāji kopā veido ievērojamu atbalstu, kā arī iedrošina lielākus ziedotājus veltīt savu uzmanību un līdzekļus. Vairāki pat izvēlas pelnīt, lai ziedotu un finansētu sev svarīgus cēloņus tikpat mērķtiecīgi kā citi karjeru pētniecībā. Trešā iespēja ir popularizēt interesi par šo tēmu. Kas ir tas, ko es šobrīd daru.

Taču nav jēgas no problēmu apzināšanās, ja tā neietekmē cilvēku rīcību. Eksistenciālas katastrofas risks ir daudz augstāks, nekā vairums ļaužu nojauš. Tās sekas būtu galējas un neatgriezeniskas, skarot ikvienu tajā laikā dzīvojošo, kā arī visus nākotnes cilvēkus, kas citādi varētu eksistēt. Tajā pašā laikā tā ir būtiski novārtā atstāta prioritāte. Ja tevi uzrunā argumenti, labs sākuma solis būtu veltīt laiku, lai uzzinātu vairāk un rūpīgāk apsvērtu ievadā minēto ledlauzi. Un, ja tu spēsi kaut nedaudz mazināt cilvēces bojāejas risku, iespējams, tu varēsi panākt kaut ko ļoti nozīmīgu – pēc sagaidītās vērtības izglābt simtiem tagadnes un miljardiem nākotnes cilvēku.

Mēs līdz šim dzīvojam cilvēkiem drošākajā un vismazāk vardarbīgajā periodā cilvēces vēsturē, ko ekonomists Robins Hansons dēvē par "sapņu laiku". Nebijušā laikā, kurā nākotni lielā mērā nosakām mēs paši, nevis akli evolucionāri procesi. Bet reizē arī laikā, kurš var tikt neatgriezeniski apturēts tuvākā gadsimta vai pat desmitgažu gaitā. Cilvēce ir unikāla suga Zemes evolūcijas vēsturē, taču tā nav imūna pret bojāeju. Ja cilvēces stāsts beidzas, nepazūd tikai tagadnes cilvēki, bet reizē arī jebkuri nākotnes. Tāpēc atšķirība starp 99% un 100% bojāeju varētu būt kā starpība starp šo mirkli un visu atlikušo vēsturi.

Ja cilvēcei izdosies izdzīvot šo kritisko laika periodu, mēs varētu izveidot tehnoloģijas, kas ļautu mums dzīvot miljardiem gadu un radīt prātam neaptveramus intelektuālus un mākslinieciskus sasniegumus. Mūsu pēcteči varētu kolonizēt miljardiem zvaigžņu sistēmu un izskaust nejēdzīgas ciešanas, lai kurp mēs dotos. Lai gan mēs nevaram būt pārliecināti, ka tieši šādi cilvēces stāsts izvērtīsies, tā turpinājumu uzzināsim tikai izdzīvošanas gadījumā. Nākotne sniedzas ne tikai neiedomājami tālu, bet arī nākotnes paaudžu un nākotnes notikumu skaits ir tikpat neiedomājami liels. Un vienā ziņā mēs esam unikāli – mēs eksistējam tā visa sākumā. [21]

[1] Bostrom, Nick (2013). Existential Risk Prevention as Global Priority. Global Policy. 2013;4(1):15-31.

[2] Ord, Toby. Will We Cause Our Own Extinction? Natural versus Anthropogenic Extinction Risks. Seminar hosted by Center for the Study of Existential Risks (University of Cambridge). YouTube. April 30, 2015. Skat. internetā (28.08.2018).

[3] Stern, Nicholas H. The Economics of Climate Change: The Stern Review. Cambridge: Cambridge University Press, 2007, p. 47.

[4] Cotton-Barratt, Owen, Farquhar, Sebastian, Halstead, John, Schubert, Stefan, Synder-Beattie, Andrew. Global Catastropic Risks 2016: Full report. Future of Humanity Institute & Global Priorities Project for Global Challenges Foundation: p. 24.

[5] Rees, Martin. Our Final Hour: A Scientist’s Warning. New York: Basic Books, 2004, p. 15. ISBN-13: 978-0465068630. Print.

[6] Bostrom, Nick. Ethical Issues in Advanced Artificial Intelligence. Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence. 2003;2(1):12-17.

[7] Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014, pp. 122-125. ISBN-13: 978-0198739838. Print.

[8] Parfit, Derek. Reasons and Persons. Oxford: Oxford University Press, 1984, p. 453. ISBN-13: 978-0198249085. Print.

[9] Dawkins, Richard. Unweaving the Rainbow: Science, Delusion and the Appetite for Wonder. New York: Mariner Books, 2000, p. 1. ISBN-13: 978-0618056736. Print.

[10] Baumann, Tobias (2016). The Moral Significance of Future Technologies. Seminar by Sentience Politics at Sentience Conference 2016. YouTube. May 22, 2016. Skat. internetā (28.08.2018).

[11] Pinker, Steven. The Blank Slate: The Modern Denial of Human Nature. London: Penguin Books, 2002, p. 186. ISBN-13: 978-0142003343. Print.

[12] Beckstead, Nicholas (2013). On the overwhelming importance of shaping the far future. PhD thesis. Rutgers University Community Repository. 2013.

[13] Yudkowsky, Eliezer. (2008). Cognitive Biases Potentially Affecting Judgment of Global Risks. In Global Catastrophic Risks, edited by Nick Bostrom and Milan M. Ćirković, 91-119. New York: Oxford University Press.

[14] Soares, Nate (2014). On caring. Minding our way (blog). October 4, 2014.

[15] Häggström, Olle. Here Be Dragons: Science, Technology and the Future of Humanity. Oxford: Oxford University Press, 2016, p. 13. ISBN-13: 978-0198723547. Print.

[16] Bostrom, Nick (2002). Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards. Journal of Evolution and Technology. 2002;9(1), p. 21.

[17] Bostrom, Nick. Existential Risk: Frequently Asked Questions. Skat. internetā (28.08.2018).

[18] Todd, Benjamin (2017). Why despite global progress, humanity is probably facing its most dangerous time ever. 80,000 Hours. Skat. internetā (02.07.2018.).

[19] Tomasik, Brian (2013). Possible Ways to Promote Compromise. Foundational Research Institute. November 2013.

[20] Muehlhauser, Luke, Salamon, Anna (2012). Intelligence Explosion: Evidence and Import. In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer, 2012, p. 16.

[21] Sanderberg, Anders (2016). Desperately Seeking Eternity. BBC Radio. March 22, 2016.

Matīss Apinis

Matīss Apinis studē datorzinātni Latvijas Universitātē. Vēlas saprast visu un izglābt pasauli, tāpēc ar domubiedriem aizsācis "Effective Altruism Latvia". Tieši tas tehnokrāts-kosmopolīts, par kuru ma...

autora profils...

Patika šī publikācija? Atbalsti interneta žurnālu “Satori” un ziedo tā darbībai!

SAISTĪTI RAKSTI

Satori

PIESAKIES SATORI JAUNUMIEM!



Satori

Pievienojies Satori - interesantākajam interneta žurnālam pasaulē.

Satori
Satori
Ielogojies
Komentē
0

Sveiks, Satori lasītāj!

Neuzbāzīgu reklāmu izvietošana palīdz Satori iegūt papildu līdzekļus satura radīšanai un dažādo mūsu finanšu avotus, sniedzot lielāku neatkarību, tādēļ priecāsimies, ja šeit atspējosi savu reklāmas bloķēšanas programmu.

Paldies!