Pjesa e dytë
Në marsin e kaluar, nën kujdesin e Institutit Future of Humanity, një qendër kërkimore në Oksford, emri i së cilës tashmë thotë shumë për temperaturën emocionale të temës që trajtojmë, u publikua një studim befasues. Ku 160 ekspertë në sektorë të ndryshëm dhe superparashikues, pra njerëz që pavarësisht se nuk kanë specializim, kanë rezultuar jashtëzakonisht të aftë në garat e parashikimit, hartuan një renditje të risqeve.
Duke bërë dallimin midis ngjarjeve katastrofike, të tilla si zhdukja e deri në 10 për qind e popullsisë (Lufta e Dytë Botërore, si të thuash, zhduku 3 për qind) dhe ngjarjeve që mund të shkaktojnë zhdukje, duke kursyer vetëm një bërthamë prej “maksimumi 5000 fatlumësh, ose shpirtra të pafat”, siç shkruante Economist. Në vend të parë në përgjithësi është Inteligjenca Artificiale (IA), së cilës superparashikuesit i caktojnë një rrezik katastrofe (deri në vitin 2100) prej 2.1 përqind krahasuar me 12 përqind nga ekspertët dhe një rrezik zhdukjeje prej 0.38 dhe 3 përqind respektivisht. Në një video-konferencë nga Oregon, Josh Rosenberg, koordinatori i studimit, sqaron se qëllimi ishte të fotografohej gjendja e debatit për të parë se si do të ndryshojë ai, me kalimin e kohës. Ndonëse nuk dëshiron të komentojë meritat, ai thjesht thekson se nuk do ta cilësonte një mundësi zhdukjeje prej 0.3 për qind si krejtësisht të papërfillshme.
Megjithatë, në afat të shkurtër ai është më i shqetësuar për energjinë bërthamore dhe pandemitë sesa për IA. Ashtu siç ew ridimensionon temën Douglas Rushkoff, autor i investigimit magjepsës Only the Rich (Luiss University Press), duke filluar përsëri nga bunkerët dhe ishujt privatë që ata rrëmbejnë: «IA do të bëjë atë që është programuar të bëjë. Dhe nëse nxjerr vlerë nga jeta e njerëzve, fajin e ka kapitalizmi, i cili e kërkon prej saj, jo algoritmi që ekzekuton”. Për të na dhënë më pas një fjali të fundit mbi alarmin që ngrenë themeluesit: «Vëllazëria teknologjike është shumë e frikësuar prej saj, sepse ata ishin të sigurt që mund të dominonin masat, pasi ishin më inteligjentë. Ndërsa nëse IA ua kalon, rrezikon t’u bëjë atyre atë që na bënë neve”.
Një institucion i ngjashëm me atë të drejtuar në Oksford nga transhumanisti Nick Bostrom, është Qendra për Rreziqet Ekzistenciale në Kembrixh. Ajo u themelua njëmbëdhjetë vjet më parë nga astronomi Martin Rees, autori i librit “If Science is to Save Us”. Me një qëllim të qartë: për t’u fokusuar në “mjellmat e zeza”, ngjarje shumë të pamundura, por me pasoja kataklizmike.
“E kundërta e aksidenteve automobilistike, shumë të mundshëm dhe shumë të studiuar. Kjo është arsyeja pse ne kemi lindur, të vetëdijshëm se edhe nëse do të arrinim t’i reduktonim këto rreziqe me një të mijtën, do ta kishim justifikuar në masë të madhe ekzistencën tonë”.
Ndër objektivat e mëdhenj të studimeve të tyre të fundit janë “sulmet kibernetike që mund të gjunjëzojnë një vend brenda disa ditësh dhe lufta biologjike, me armë që nuk kanë qenë kurrë kaq të përballueshme”. Plus, padyshim, IA për të cilën ai thotë se një masë e arsyeshme do të ishte sigurimi i “një periudhe të ndërmjetme, midis zhvillimit dhe daljes në treg, siç bëhet me ilaçet”.
Tre vjet më parë ai kishte vënë bast me Steven Pinker, neuroshkencëtarin e Harvardit, i famshëm për perma-optimizmin, se një ngjarje biologjike e papritur mund të vriste mbi një milion njerëz. Më pas mbërriti Covid, me gati 10 milionë vdekje, por askush nuk e pagoi bastin sepse nuk mund të pajtoheshin për përkufizimin e një ngjarjeje biologjike.
PANDEMITË
Mbërritëm te koronavirusi. Për diçka të tillë duhej të ktheheshe një shekull prapa (1918-1920), te gripi spanjoll dhe 50-100 milionë viktimat e tij. Ndër të paktët që e kishin parë të vinte këtë herë ishte David Quammen, i cili, tetë vjet më parë, në librin profetik “Spillover” paralajmëroi ndaj rreziqeve të llojeve të viruseve.
Nga studio e tij në Montana, ku mban një piton sikur të ishte një mace, ai e nis duke bërë një dallim: “Nëse mendojmë për fundin e Planetit, duke përjashtuar një shpërthim të pamundur të Diellit, ai do të jetë në gjendje të ecë lehtësisht edhe pa ne. Nëse pastaj flasim për njerëzimin, me 8 miliardë banorët e tij dhe shumëllojshmërinë e madhe gjenetike, do të jetë e vështirë të na eliminojë të gjithëve”. E vështirë, por jo e pamundur dhe pothuajse mund ta dëgjosh duke bërë llogaritjet mendore të Armagedonit: «Një luftë bërthamore mund të jetë afër nesh. Edhe një virus ARN, siç është gripi i shpendëve që infektoi njerëzit, ndoshta do të vriste gjysmën e tyre. Por vetëm speciet në rrezik do të zhdukeshin, ato në të cilat kanë mbetur pak ekzemplarë”.
Malësorët e vërtetë do të ishin buburrecat e përmendur në fillim, disa minj dhe, nga ana bimore, luleradhiqet. Thënë kjo, megjithatë, ne kemi mësuar aq pak nga mësimet e pandemisë saqë “ndoshta jemi më keq se në vitin 2019, pasi Instituti Kombëtar i Shëndetit, organi më i rëndësishëm federal për shëndetin, ndryshoi rregullat duke e bërë jashtëzakonisht më të vështirë për shkencëtarë të kombësive të ndryshme, që bashkëpunojnë me njëri-tjetrin. Vaksinat u zhvilluan në kohë rekord edhe falë gjenomit të sekuencuar nga kinezët. E njëjta gjë me rezultatet e para të Moderna. Ose për zhvillimin e antiviralëve. Sot nuk do të ishte më e mundur”.
Virusi i sovranizmit nuk e kursen shkencën. Në vazhdën e hipotezës së rrjedhjes prej laboratorit, Kongresi Amerikan anuloi gjithashtu fonde disa milionëshe për kërkime më me risk, të ashtuquajturin “fitimin e funksionit”: “Injoranca është një bishë e shëmtuar”.
I bëjmë pyetje të ngjashme Richard Hatchett, drejtor i Koalicionit për Inovacionet e Përgatitjes Epidemike, një fondacion publik-privat, arsyeja sociale e të cilit është të jetë gati për pandeminë e radhës: “A jemi më mirë? Varet. Edhe sikur të duket absurde, ne ishim shumë me fat që në 2020 pati një Coronavirus, një familje që e njihnim dhe mbi të cilën kishim filluar tashmë studimin e vaksinave. Nëse virusi do ishte nga një familje tjetër, reagimi mund të ishte më i ngadaltë. Por ne kemi mësuar gjithashtu shumë gjëra, nga platformat e reagimit të shpejtë deri tek testimi dhe gjurmimi më i mirë, apo tek mënyra se si të reagojmë duke shmangur bllokimet”.
Ndër kërcënimet që i heqin gjumin, bien në sy paramyxoviruset, si Nipah dhe Hendra, jo aq shumë të transmetueshëm sa Covid, por me shkallë vdekshmërie që ka arritur në 70-80 për qind. Kundërmasat?
“Të shkurtohet në mënyrë drastike kohën e prodhimit të vaksinave. Mësimi vjen nga Formula 1 ku pushimet e shkurtra në pit stop shkuan nga 60-90 në 2-3 sekonda. Nëse tre vjet më parë dukej si një mrekulli të duheshin 11 muaj për vaksinën, herën tjetër 100 ditë do të mjaftonin. Mund të bëhet duke investuar burimet e nevojshme”. (bota.al)
Fundi i pjesës së dytë
Në pjesën e tretë: Luftërat dhe shkatërruesi i botëve