Visar inlägg med etikett Seth Baum. Visa alla inlägg
Visar inlägg med etikett Seth Baum. Visa alla inlägg

fredag 11 januari 2019

Recognized by the BBC for our work on the long-term future of humanity

Yesterday (January 10), BBC and their features editor Richard Fisher published a long but highly comprehensible and easy-to-read article on The perils of short-termism: Civilisation's greatest threat. It focuses on the central human predicament of needing to weigh short-term versus long-term concerns, and highlights work we did at the GoCAS guest researcher program on existential risk to humanity during September-October 2017 which Anders Sandberg and I organized at Chalmers and the University of Gothenburg. That particular piece of work was turned into the paper Long-term trajectories of human civilization,1 which I've reported on before on this blog.2 Here's an extract from the BBC piece:
    In early September 2017, the world’s attention was focused on various pieces of salient news: Hurricane Irma was brewing in the Caribbean, Donald Trump’s administration had announced plans to dismantle an Obama-era immigration policy, and photographers captured Prince George’s first day at school.

    Around the same time, a small, little-known group of researchers were meeting at a workshop in Gothenburg, Sweden with a goal to look much, much further ahead – far beyond this latest news cycle. Motivated by a moral concern for our descendants, their goal was to discuss the existential risks facing humanity.

    The meeting would lead to an intriguing and readable co-authored paper called Long-term Trajectories of Human Civilisation, which attempts to “formalise a scientific and ethical field of study” for thousands of years hence. As they write: “To restrict attention to near-term decades may be akin to the drunk searching for his keys under the streetlight: it may be where empirical study is more robust, but the important part lies elsewhere.”

    The Trajectories group began with the assumption that, while the future is uncertain, it is not unknown. We can predict many things with reasonable confidence, via observed patterns, repeating events, and established behaviours throughout human history. For example: biology suggests that each mammalian species exists, on average, for roughly 1 million years before it becomes extinct; history shows that humanity has continually colonised new lands and strived to transform our abilities with technology; and the fossil record demonstrates that global extinction events can and do happen.

    Extrapolating these patterns and behaviours into the future allowed them to map out four possible long-term trajectories for our species:

    • Status quo trajectories, in which human civilisation persists in a broadly similar state into the distant future.

    • Catastrophe trajectories, in which one or more events cause significant harm to human civilisation.

    • Technological transformation trajectories, in which radical technological breakthroughs put human civilisation on a fundamentally different course.

    • Astronomical trajectories, in which human civilisation expands beyond its home planet and into the accessible portions of the cosmos.
    Following their discussions in Sweden and afterwards, the Trajectories group concluded that the ‘status quo’ path would be a pretty unlikely scenario once you get to longer-term timescales. “Instead, civilisation is likely to either end catastrophically or expand dramatically,” they write.

    So on the optimistic path, merging with some as-yet-unimagined technology or colonising the stars are two scenarios that are entirely possible with the passage of enough time, they suggest. Both paths could lead to our descendants thriving for millions if not billions of years, spreading out into the Universe or evolving into a more advanced species.

    But we also are almost certain to face serious existential risks along the way. Natural disasters have pruned life on Earth continually – this much we know. What worries the Trajectories researchers more is that in the 20th and early 21st Century we've added a whole host of additional human-made risks into the mix too – from nuclear armageddon to AI apocalypse to anthropogenic climate change.

    In their paper, they lay out a variety of chilling scenarios where civilisation is rewound back to pre-industrial times, or wiped out altogether. [...]

    The researchers can't predict which order any of this will play out. They can predict, though, that it’s our trajectory to shape – for better or worse, the decisions we make this century could shape the next one and far beyond. “The stakes are extremely large, and there may be a lot that people today can do to have a positive impact,” they write.

    The question is: will we?

"The Trajectories group" - well, why not, it has a nice ring to it. Read the entire BBC article here!

Footnotes

1) Seth D. Baum, Stuart Armstrong, Timoteus Ekenstedt, Olle Häggström, Robin Hanson, Karin Kuhlemann, Matthijs M. Maas, James D. Miller, Markus Salmela, Anders Sandberg, Kaj Sotala, Phil Torres, Alexey Turchin and Roman V. Yampolskiy (2019) Long-term trajectories of human civilization, Foresight, to appear.

2) The same paper recently also caught the attention of Swedish public radio.

måndag 7 januari 2019

Om existentiell risk och mänsklighetens framtid i P1:s Vetandets värld idag

Jag vill varmt rekommendera dagens avsnitt av P1:s Vetandets värld, trots att dess rubrik Så räknar man ut mänsklighetens framtid lovar något mer än avsnittet och dess medverkande kan leverera. Jag kommer utförligt till tals, jämte en rad andra forskare: Anders Sandberg, Simon Beard, Luke Kemp och Lauren Holt, samt David Sumpter1 vars korta inhopp på slutet tjänar att illustrera hur kontroversiell det slags radikal och långsiktig framtidsforskning är som avsnittet behandlar.

Det gästforskarprogram om existentiell risk som Anders och jag organiserade på Chalmers och Göteborgs universitet hösten 2017 omnämns, med särskilt fokus på den artikel rubricerad Long-term trajectories of human civilization som en rad av de medverkande gästforskarna, med Seth Baum i spetsen, bidrog till. Även den ökända gemapokalypsen behandlas kort, liksom min artikel Challenges to the Omohundro—Bostrom framework for AI motivations.

Fotnot

1) Jag uppskattar varmt matematikerkollegan David Sumpters och mina återkommande diskussioner om vetenskap och futurologi, trots (eller tack vare!) vår djupa meningsskiljaktighet i synen på vetenskap, som läsaren kan få en partiell inblick i genom Davids gästinlägg här på bloggen i oktober 2013 och mitt svar.

torsdag 3 januari 2019

Debattörer som irriterat mig i julhelgen, del 2: Ruin

Det här handlar inte om Hans Ruin personligen. Det är visserligen sant att jag tidigare haft starkt kritiska synpunkter på denne professor i filosofi vid Södertörns högskola, vad gäller såväl hans syn på sitt ämne1 som hans privatmoral2, men det jag skriver här har lite eller inget alls med de diskussionerna att göra, utan är snarare att betrakta som en brandkårsutryckning för att rätta till en del av dumheterna i hans understreckare i SvD häromdagen, rubricerad Den envisa myten om intelligenta maskiner.

Större delen av texten utgörs av en visserligen summarisk och starkt förenklad, men givet det någorlunda godtagbar, redogörelse för delar av den artificiella intelligensens (AI:ns) idéhistoria.3 Det är när Ruin mot slutet av texten lämnar idéhistorien bakom sig och ger sig i kast med att förutsäga hur AI kommer att vidareutvecklas i framtiden som problemen hopar sig. Han låtsas ha läst Nick Bostroms Superintelligence från 2014 och Max Tegmarks Life 3.0 från 2017, men avslöjar omdelebart sin bluff genom att påstå att båda utgår "från premissen att dagens självlärande maskiner inom en nära framtid kan alstra en 'intelligensexplosion'". Nej, detta är inte en premiss i någon av böckerna. Såväl Bostrom som Tegmark diskuterar intelligensexplosionsscenarier, men i båda fallen handlar det blott om ett bland flera möjliga scenarier, och i synnerhet Bostrom diskuterar noggrant och med en väl tilltagen dos epistemisk ödmjukhet vad som talar för respektive emot en intelligensexplosion.

Redan i påföljande mening kommer nästa ruinska felaktighet, då han påstår att "genom att hänvisa till hjärnans oerhört komplexa uppbyggnad av neuroner och synapser menar [såväl Bostrom som Tegmark] att superintelligens endast är en fråga om när maskinerna närmar sig en jämförbar komplexitet i beräkningskapacitet". Helt fel igen. Vad Ruin här gör är att (till synes blint och oreflekterat) återge en av de vanligast förekommande och samtidigt fånigaste vanföreställningarna kring AI-futurologi. Sanningen är att varken Bostrom eller Tegmark eller någon annan seriös AI-futurolog hävdar att beräkningskapacitetsutveckling ensam skulle få sådana konsekvenser. Tvärtom: utan rätt slags mjukvara ingen superintelligens. Det närmaste ett korn av sanning som finns i den av Ruin återgivna missuppfattningen är att en utbredd (och rimlig) ståndpunkt bland experter på området är att ju mer beräkningskapacitet som hårdvaruutvecklingen leder fram till, desto bättre är utsikterna att skapa den mjukvara som krävs för så kallad AGI (artificiell generell intelligens) eller superintelligens.

Med stöd i sitt fria fabulerande kring vad som står i Bostroms och Tegmarks respektive böcker kommer Ruin fram till att skapandet av superintelligens är "varken tekniskt eller filosofiskt sannolikt". Inför denna fras blir jag en smula perplex, ty trots mina mer än 25 år som forskare i sannolikhetsteori har jag aldrig hört talas om den påstådda distinktionen mellan "teknisk" och "filosofisk" sannolikhet. Så vad menar Ruin här? Troligtvis inget annat än att han tyckte att det skulle låta fräsigare och mer kunnigt med "varken tekniskt eller filosofiskt sannolikt" än att kort och gott skriva "osannolikt".

Så hur står det i själva verket till med den sannolikhet som här diskuteras? Det vet vi inte. Frågan om huruvida och i så fall på vilken tidsskala som vi kan vänta oss att AI-utvecklingen når fram till AGI och superintelligens är vidöppen, något som framgår med all önskvärd tydlighet såväl av Bostroms bok som av Tegmarks, och som omvittnas ytterligare av de enkätundersökningar som gjorts bland AI-forskare (se t.ex. Dafoe och Russell, och Grace et al). Det förståndiga att göra i detta läge är att acceptera den stora osäkerheten, inklusive konstaterandet att möjligheten att superintelligens kan komma att utvecklas under innevarande århundrade förtjänar att tas på allvar, givet hur många experter som gör just det.

Ändå träder den ene efter den andre publike debattören, med en expertis (i Ruins fall en omfattande belästhet på den gamle kontinentalfilosofen Martin Heidegger) som är av i bästa fall oklar relevans för AI-futurologi, fram och meddelar att det där med superintelligens och AI-risk, det är minsann inget att bry sig om. För Ruin är långt ifrån ensam om att dra fram en sådan bedömning mer eller mindre ur röven, och med stöd i sin professorstitel eller annan vida accepterad kredibilitetsgrund basunera ut den för folket. För bara någon månad sedan gjorde den populäre nyliberale ideologen Johan Norberg samma sak. För att inte tala om kungen av AI-riskförnekeri, Steven Pinker. Och det finns många fler: se gärna den amerikanske futurologen Seth Baums studium av fenomenet.

Figurer som Ruin, Norberg och Pinker verkar dock komma mycket lindrigare undan med sitt AI-bullshitteri jämfört med motsvarande uttalanden från klimatförnekare om den globala uppvärmningen och dess orsaker. En trolig förklaring till detta är att kunskapsläget inom AI-futurologin är så väldigt mycket osäkrare än det inom klimatvetenskapen. Men att använda sin auktoritet i det offentliga rummet till att tvärsäkert torgföra grundlösa påståenden i vetenskapliga frågor, det är lika fel oavsett vilken grad av vetenskaplig osäkerhet som råder på det aktuella området.

Fotnoter

1) Min kritik på denna punkt handlar mest om hur Ruin positionerade sig i debatter med Torbjörn Tännsjö under 2016. Det är knappast någon större överdrift att hävda att han uttryckte en önskan att reducera filosofiämnet till läsandet av gamla klassiker, och dömde ut alla försök att tänka nya tankar. Det var också från denna förgrämda gammelmansposition han samma år yttrade sig om Macchiarini-skandalen.

2) Jag syftar här på Ruins åtgärder (som rapporterats om här och var) i syfte att tysta ned offer för sin gode vän Jean-Claude Arnaults sexuella övergrepp. Saken försatte mig i vissa smärre bryderier sedan jag anmält mig att delta i ett akademiskt symposium i Göteborg den 8 oktober förra året, och därefter fått klart för mig att Ruin fanns med bland talarna. Jag kände omedelbart att jag inte ville sitta tyst och utan minsta markering mot Ruin på mötet, då det skulle kunna förstås som en form av bekräftelse av att jag överser med hans illgärningar och välkomnar honom på mötet. Att utebli från mötet ville jag heller inte då mycket av intresse stod på programmet. Vidare skulle det ha varit alltför avigt och antisocialt att under frågestunden efter hans föredrag resa mig och säga något i stil med "Det här är måhända en smula off topic, men hur ser du på etiken kring nedtystandet av offer för sexuella övergrepp?". Den kompromiss jag till slut fastnade för, efter att först ha hört av mig till mötesarrangörerna med mina reservationer kring Ruins medverkan i symposiet (något som i alla fall förde det goda med sig att arrangörerna meddelade honom förekomsten av sådana synpunkter bland anmälda deltagare), var att under mötet bära den egenhändigt designade t-shirt som avbildas här intill. (Hashtagen på t-shirten kom till inom den amerikanska grenen av metoo, som stöd för Christine Blasey Ford (och protest mot den backlash som drabbade henne) när hon i september förra året vittnade mot den supreme court-nominerade domaren Brett Kavanaugh.)

3) Jag kan dock inte låta bli att påpeka att Ruin ger på tok för stor kredibilitet åt John Searles starkt suggestiva men i grunden feltänkta tankeexperiment Det kinesiska rummet. Se exempelvis Avsnitt 3 i min uppsats Aspects of mind uploading för en motivering till mitt stränga ordval "feltänkt".

torsdag 9 augusti 2018

In the long run

It is important to consider the future of humanity not just in terms of what the world will be like in 2030 or 2050, but also in the (much) longer run. The paper Long-term trajectories of human civilization, which grew out of discussions during the GoCAS guest researcher program Existential risk to humanity in Gothenburg last fall and which is out now, does precisely this. I am proud to be coauthor of it.1 First author is Seth Baum, who initiated the discussion that eventually lead to this paper. Seth is an American risk researcher and futurologist, and director of the Global Catastrophic Risk Institute. To readers of this blog he may be familiar from his public appearances in Sweden in 2014 and 2017. The Global Catastrophic Risk Institute has a press release in connection with the paper:
    Society today needs greater attention to the long-term fate of human civilization. Important present-day decisions can affect what happens millions, billions, or trillions of years into the future. The long-term effects may be the most important factor for present-day decisions and must be taken into account. An international group of 14 scholars calls for the dedicated study of “long-term trajectories of human civilization” in order to understand long-term outcomes and inform decision-making. This new approach is presented in the academic journal Foresight, where the scholars have made an initial evaluation of potential long-term trajectories and their present-day societal importance.

    “Human civilization could end up going in radically different directions, for better or for worse. What we do today could affect the outcome. It is vital that we understand possible long-term trajectories and set policy accordingly. The stakes are quite literally astronomical,” says lead author Dr. Seth Baum, Executive Director of the Global Catastrophic Risk Institute, a non-profit think tank in the US.

    [...]

    The scholars find that status quo trajectories are unlikely to persist over the long-term. Whether humanity succumbs to catastrophe or achieves a more positive trajectory depends on what people do today.

    “In order to succeed it is important to have a plan. Long-term success of humanity depends on our ability to foresee problems and to plan accordingly,” says co-author Roman Yampolskiy, Associate Professor of Computer Engineering and Computer Science at University of Louisville. “Unfortunately, very little research looks at the long-term prospects for human civilization. In this work, we identify some likely challenges to long-term human flourishing and analyze their potential impact. This is an important step toward successfully navigating such challenges and ensuring a thriving future for humanity.”

    The scholars emphasize the enormous scales of the long-term future. Depending on one’s ethical perspective, the long-term trajectories of human civilization can be a crucial factor in present-day decision-making.

    “The future is potentially exceedingly vast and long,” says co-author Anders Sandberg, Senior Research Fellow at the Future of Humanity Institute at University of Oxford. “We are in a sense at the dawn of history, which is a surprisingly powerful position. Our choices – or lack of decisions – will strongly shape which trajectory humanity will follow. Understanding what possible trajectories there are and what value they hold is the first step towards formulating strategies for our species.”

Read the full press release here, and the paper here.

Footnote

1) Here is the full (and, I daresay, fairly impressive) author list: Seth D. Baum, Stuart Armstrong, Timoteus Ekenstedt, Olle Häggström, Robin Hanson, Karin Kuhlemann, Matthijs M. Maas, James D. Miller, Markus Salmela, Anders Sandberg, Kaj Sotala, Phil Torres, Alexey Turchin and Roman V. Yampolskiy.

torsdag 5 oktober 2017

Videos from the existential risk workshop

The public workshop we held on September 7-8 as part of the ongoing GoCAS guest researcher program on existential risk exhibited many interesting talks. The talks were filmed, and we have now posted most of those videos on our own YouTube channel. They can of course be watched in any order, although to maximize the illusion of being present at the event, one might follow the list below, in which they appear in the same order as in the workshop. Enjoy!

onsdag 17 maj 2017

Workshop on existential risk to humanity

Come to Gothenburg, Sweden, for the Workshop on existential risk to humanity that I am organizing on September 7-8 this year! The topic is a matter of life and death for the human civilization, but I still expect the workshop to be stimulating and enjoyable. The list of world-class researchers who are confirmed as speakers at the workshop include several who are already known to readers of this blog: Stuart Armstrong, Seth Baum, Robin Hanson, James Miller, Anders Sandberg and Roman Yampolskiy. Plus the following new aquaintances: Milan Cirkovic, David Denkenberger, Karin Kuhlemann, Catherine Rhodes, Susan Schneider and Phil Torres. All of these will in fact stay in town for various durations before and/or after the workshop, at the guest research program on existential risk that runs throughout September and October.

The workshop is open to all interested, and participation is free of charge. Pre-registration, however, is required.

tisdag 27 januari 2015

Special virtual issue of Physica Scripta: Emerging technologies and the future of humanity

Readers interested in the vitally important topic of emerging technologies and their potential consequences for the future of humanity are encouraged to check out the new virtual issue of Physica Scripta on precisely this topic. It grew out of a meeting at the KVA (Royal Swedish Academy of Sciences) in March last year. Besides a short editorial by yours truly, it contains at present three excellent papers (a fourth may be forthcoming), namely:

torsdag 3 april 2014

Sveriges Radio rapporterar från KVA-mötet om emergenta teknologier och mänsklighetens framtid

Igår onsdag sände P1-programmet Vetandets värld ett längre inslag från det KVA-möte den 17 mars vars organisation jag bidragit till och som jag skrivit om i två tidigare bloggposter. Radioreportern Per Gustafsson samtalar om framtida teknologier och eventuella katastrofrisker med mötets samtliga fyra huvudtalare: Seth Baum, Roman Yampolskiy, Anders Sandberg och Karim Jebari. Lyssna här!

Från mötets avslutande paneldiskussion. Från vänster Ulf Danielsson (moderator), Katarina Westerlund (diskutant), Baum, Jebari, Yampolskiy, Sandberg och Gustaf Arrhenius (diskutant). (Foto: Melissa Thomas)

torsdag 27 februari 2014

David Keith har skrivit en läsvärd liten bok om geoengineering

Geoengineering är samlingsnamnet på en brokig uppsättning idéer om radikala högteknologiska lösningar på klimatkrisen; begreppet kan definieras som avsiktliga åtgärder för att i global skala manipulera miljö och klimat. När jag skrev en översikt om geoengineering på Uppsalainitiativet 2010 (en bloggpost som jag repriserade på Häggström hävdar tre år senare) använde jag en rad källor, men det var en forskare som jag mer än någon annan lutade mig emot i texten, nämligen kanadensaren David Keith, som möjligen kan räknas som världens främste expert på geoengineering, och som för mig framstår som både skarpsinnig och klok. Detta huvudintryck står sig efter att jag läst hans aktuella bok A Case for Climate Engineering (2013), trots att där finns (vilket jag strax skall återkomma till) vissa förskjutningar i hans position jämfört med det intryck jag fick 2010. Det är en mycket intressant och läsvärd bok i ett aptitligt format, och jag rekommenderar den varmt.1

De olika geoengineeringmetoderna kan grovt delas upp i koldioxidborttagningsmetoder och solskyddsmetoder. Keith är expert på båda, men fokuserar i boken helt på solskyddsmetoderna, som går ut på att på ena eller andra viset minska den mängd solstrålning som når eller absorberas av jordytan. Dessa metoder tenderar att vara mer kontroversiella än koldioxidborttagningsmetoderna eftersom de blott angriper den globala uppvärmningens symptom och inte dess orsaker. Mer specifikt handlar boken till större delen om den solskyddsmetod som innebär att en väl avvägd dos av något ämne (t.ex. svaveldioxid eller svavelsyra) tillförs stratosfären,2 varpå mikrosokopiska partiklar (aerosoler) bildas, vilka ligger kvar länge och avskärmar en lagom liten andel av solstrålningen.3 Denna solskyddsmetod är extremt billig4 (i förhållande till de globala värden som står på spel i klimatfrågan), men har också stora nackdelar, inklusive följande fyra:
    (1) I och med att metoden inte angriper den ökande koldioxidhalten så kvarstår det andra stora koldioxidproblemet (jämte global uppvärmning), nämligen försurningen av världshaven och de katastrofala ekologiska konsekvenser det kan föra med sig.

    (2) Kemin i partikelbildningen är komplicerad och långt ifrån välutredd, och beroende på vad för ämne vi väljer att tillföra stratosfären finns risken att starta reaktioner som skadar det livsnödvändiga ozonskiktet.

    (3) Metoden kan visserligen hejda den globala uppvärmningen, men den kan inte att stoppa klimatförändringarna. Då medeltemperaturen höjs med en mekanism (växthusgaser) och sedan sänks i motsvarande mån med en annan (aerosoler) kan vi inte räkna med bevarat status quo i andra avseenden än just global medeltemperatur. På vissa håll blir det varmare och på andra håll kallare; dessutom är stora regionala förändringar i nederbördsmönster att vänta.

    (4) Om vi använder detta slags geoengineering som ursäkt för att inte dra ned på våra koldioxidutsläpp, så bygger vi in oss i en alltmer prekär situation där vi inte kan avbryta geoengineeringprojektet utan att orsaka en plötslig katastrofal uppvärmning inom loppet av bara ett par år. Utsläppen måste därför pågå i generation efter generation - men vad vet vi om huruvida den samhälleliga infrastrukturen flera hundra år fram i tiden kommer att klara att upprätthålla ett sådant högteknologiprojekt, och har vi verkligen rätt att pådyvla våra barnbarnsbarn och deras barnbarn en sådan arbetsuppgift?

Bland annat dessa saker låg till grund för att David Keith, i ett föredrag på Chalmers i december 2009, var väldigt kritisk till tanken att detta slags geoengineering skulle kunna utgöra en lösning på klimatkrisen. I min bloggpost om saken 2010 skrev jag att han betonade...
    ...att om storskaligt genomförande av svavel-i-stratosfären-metoden och andra solskyddsmetoder överhuvudtaget kan komma ifråga, så är det i så fall enbart som temporärt bidrag till lösning på en akut klimatkris. Samtidigt framhöll han solskyddsmetodernas allmänna fördel jämfört med koldioxidborttagning, nämligen deras snabbhet: när vi fått ett solskyddsmedel på plats inverkar det genast med full kraft på jordens energibalans vilket kan kyla ned klimatet avsevärt på bara något år. Effekten av koldioxidborttagning däremot, behöver decennier på sig för att märkas i klimatet. Därför håller Keith öppet för att exempelvis svavel i stratosfären kan komma till användning under något decennium eller två, för att kapa en tillfällig temperaturtopp som i annat fall bedöms riskera att kasta klimatsystemet över en eller annan tipping point. Även med ambitiösa utsläppsmiskningar kan en sådan situation tänkas uppstå framemot mitten eller slutet av innevarande sekel, som en följd dels av fortsatt stor osäkerhet om koldioxidens klimatkänslighet (den temperaturökning som en fördubbling av koldioxidhalten leder till), dels av den stora tröghet i klimatsystemet som gör att temperaturen kan fortsätta stiga många decennier efter att vi lyckats vända koldioxidhalten nedåt.

Jämfört med ovanstående uppfattar jag Keith i den nya boken som något mer positiv till denna form av geoengineering - dock inte fullt så positiv som man kan förledas tro av titeln A Case for Climate Engineering. Vad han förespråkar är inte att vi omedelbart sätter igång att pumpa upp en massa svavel i stratosfären. Däremot menar han att vi bör noggrant överväga möjligheten, och att detta kräver en rejäl satsning på forskning kring geoengineering och dess klimat- och miljömässiga samt sociala, ekonomiska och politiska konsekvenser. Att vara positiv till forskning kan tyckas okontroversiellt, men hör då vad Keith säger i ett reportage i tidskriften The Atlantic 2009:
    If geo-engineering is publicly considered a “solution” to climate change, governments may reduce their efforts to restrict the carbon emissions that caused global warming in the first place. If you promise that in a future emergency you can chill the Earth in a matter of months, cutting emissions today will seem far less urgent. “Geo-engineering needs some government funding, but the most disastrous thing that could happen would be for Barack Obama to stand up tomorrow and announce the creation of a geo-engineering task force with hundreds of millions in funds,” says David Keith.
Det fenomen Keith här talar om (att uppmärksamhet på geoengineering kan användas som en ursäkt för att skjuta exempelvis omställningen till grön och fossilfri energi på framtiden) benämns ofta moral hazard - en term han själv var först med att införa i geoengineeringdebatten. Han har i den nya boken inte glömt argumentet, men det är naturligtvis bara en bland många aspekter som behöver vägas samman med varandra. Det som gör att han nu ger moral hazard-argumentet lite mindre relativ tyngd verkar framför allt vara att han nu är något mer optimistisk i fråga om problemet (3) ovan med regionala klimatförändringar och ändrade nederbördsmönster som solskyddsmetoderna inte rår på. Det nya här är att medan tidigare studier fokuserade på en dosering av svavlet-i-stratosfären som var tillräcklig för att kancellera hela den antropogena globala uppvärmingen, så har Keith och hans medarbetare börjat titta på modellsimuleringar av scenarier där man nöjer sig med solskydd som skall kancellera en del av uppvärmningen; se t.ex. Moreno-Cruz, Ricke och Keith (2012). Specifikt pekar deras modellsimuleringar på att om man doserar så att hälften av den globala uppvärmningen kancelleras (vilket visar sig vara ungefär detsamma som att återställa global nederbördsmängden) så får, till skillnad mot vid den fulla dosen, nästan alla regioner ett klimat som ligger närmare det förindustriella än om man avstått från geoengineering. Givetvis finns en betydande modellosäkerhet att ta hänsyn till, och mer forskning behövs för att avgöra giltigheten i dessa resultat.

Fenomenet moral hazard är känt från till exempel försäkringsbranschen, där det innebär att den som, t.ex. genom att ha tecknat försäkring, inte själv bär hela kostnaden för om något han gör går illa, tenderar att bli mer våghalsig och riskbenägen. I sin bok ångrar David Keith nu den terminologin. Visst är moral hazard ett framträdande fenomen i klimatfrågan - t.ex. genom att en slappare svensk klimatpolitik skulle slå mer mot omvärlden och mot kommande generationer än mot oss själva - men det som tillkommer i geoengineeringsammanhanget är snarare ett exempel på riskkompensation, vilket innebär att när risker minskas så tenderar man att agera mer riskfyllt. Ett exempel Keith nämner är hur införandet av säkerhetsbälten i bilar inte ledde fullt ut till den grad av minskad dödlighet man väntat sig, vilket kunde förklaras med att bilförare med säkerhetsbälte kände sig säkrare och därför tillät sig att köra något fortare och våghalsigare. På samma sätt kan utsikten om framgångsrik geoengineering få vårt beteende i fråga om växthusgasutsläpp att bli mer våghalsigt. Vad man i ärlighetens namn bör ha klart för sig, hur stark anhängare man än är (liksom Keith) av växthusgasutsläppsbegränsningar, är att risksituationer handlar om avvägningar, och att riskkompensation ibland är rationellt.

Keith lägger i sin bok mindre krut än jag hade hoppats på problemet (4) ovan med de moraliska aspekterna på att i praktiken påtvinga kommande generationer ett geoengineeringprojekt. Särskilt synd tycker jag det är att han (möjligen på grund av långa pressläggningstider) inte säger något om den intressanta uppsatsen Double catastrophe: Intermittent stratospheric geoengineering induced by societal collapse av Seth Baum, Timothy Maher, och Jacob Haqq-Misra (2013), om risken för att ett framtida samhälle som drabbas av något slags social kollaps ovanpå det råkar ut för katastrofal klimatförändring då den sociala kollapsen gör att de inte längre förmår hålla igång sitt geoengineeringprogram. Men chansen finns att höra Baum tala om detta då han kommer till Stockholm måndagen den 17 mars som öppningstalare på det KVA-möte rubricerat Emerging technologies and the future of humanity som jag är med och arrangerar.

Bortsett från denna brist tycker jag dock att David Keith i sin bok ger geoengineering medelst svavel-i-stratosfären en imponerande allsidig belysning, och man behöver inte hålla med honom på alla punkter för att upskatta hans analytiska och resonerande stil. Jag ser boken som ett välkommet bidrag till klimatdebatten.

Fotnoter

1) Jag publicerar denna recension simultant bå de båda bloggarna Häggström hävdar och Uppsalainitiativet.

2) Poängen med att transportera ämnet ända upp till stratosfären, som börjar cirka en mil upp i luften, är att denna har långt mindre omsättningshastighet än den underliggande troposfären. Partiklar som genom t.ex. regn på bara några veckor sköljs bort ur troposfären kan ligga kvar flera år i stratosfären.

3) Hur för man ämnet till stratosfären? I den bok som kanske mer än någon annan populariserat geoengineering, Steven Levitts och Stephen Dubners storsäljande men tyvärr riktigt dåliga Superfreakonomics från 2009 (som jag recenserat här), föreslås en lång slang rakt upp i luften, upphängd av heliumballonger. Keith talar i sin bok mer om att använda jetplan, vilket är en metod som knappt kräver någon teknisk utveckling - vi är i stånd att implementera den redan nu om vi så skulle önska.

4) Vi är vana vid att tänka på låga kostnader som något positivt, men i det här fallet är det också en allvarlig komplikation. I och med att kostnaden är så låg är det möjligt för ett enskilt land (eller till och med för Bill Gates) att unilateralt dra igång fullskalig geoengineering, något som lätt kan leda till politiska och militära konflikter.

måndag 27 januari 2014

KVA-möte den 17 mars: Emergenta teknologier och mänsklighetens framtid

Måndagen den 17 mars i år äger ett möte rum på Kungliga Vetenskapsakademien (KVA) i Stockholm, som jag är med och arrangerar och som kan vara av stort intresse för de läsare som delar mitt intresse för mänsklighetens framtid och hur denna kan komma att påverkas av radikal teknikutveckling på olika områden. Det rör sig om ett heldagsmöte med rubriken Emerging technologies and the future of humanity. Mötet är öppet för allmänheten och kostnadsfritt, men föranmälan är obligatorisk. Så här har vi valt att formulera dess övergripande tema:
    A number of emergening and future technologies have the potential to transform - for better or for worse - society and the conditions for humanity. These include, e.g., geoengineering, artificial intelligence, nanotechnology, and ways to enhance human capabilities by genetic, pharmaceutical or electronic means. In order to avoid a situation where in effect we run blindfolded at full speed into unknown and dangerous territories, we need to understand what the possible and probable future scenarios are, with respect to these technological developments and their potential positive and negative impacts on humanity. The purpose of the meeting is to shed light on these issues and discuss how a more systematic treatment might be possible.
Fyra föredrag av lika många skarpsinniga, visionära och kontroversiella framtidsforskare (Seth Baum, Anders Sandberg, Karim Jebari och Roman Yampolskiy) kommer att presenteras, och mötet avrundas med en paneldiskussion där föredragshållarna kompletteras med tre inbjudna diskutanter (Ulf Danielsson, Gustaf Arrhenius och Katarina Westerlund) som kan väntas komma med kritiska synpunkter. Detaljerat tidsprogram finns tillgängligt på KVA:s hemsida, liksom följande sammanfattningar av föredragen.
  • Seth Baum, Global Catastrophic Risk Institute, NY, USA: The great downside dilemma for risky emerging technologies

    Many emerging technologies show potential to solve major global challenges, but some of these technologies come with possible catastrophic downsides. In this talk I will discuss the great dilemma that these technologies pose: should society accept the risks associated with using these technologies, or should it instead accept the burdens that come with abstaining from them? I will use stratospheric aerosol geoengineering as an illustrative example, which could protect humanity from many burdens of global warming but could also fail catastrophically. Other technologies that pose this great downside dilemma include certain forms of biotechnology, nanotechnology, and artificial intelligence, whereas nuclear fusion power shows less downside.

  • Anders Sandberg, Oxford University, UK: The future of humanity

    The key to the current ecological success of Homo sapiens is that our species has been able to deliberately reshape its environment to suit its needs. This in turn hinges on our ability to maintain a culture that grows cumulatively. We are now starting to develop technologies that enable us to reshape ourselves and our abilities - genetic engineering, cognitive enhancement, man-machine symbiosis. This talk will examine some of the implications of a self-enhancing humanity and possible paths it could take.

  • Karim Jebari, Kungliga Tekniska högskolan, Stockholm: Global catastrophic risk and engineering safety

    Engineers have maneged risk in complex systems for hundreds of years. Their approach differs radically from what economists refer to as “risk mangement”. The heuristics developed by engineers are very useful to understand and develop strategies to reduce global catastrophic risks. I discuss a potentially disruptive technology: control of ageing and argue that the risks of such a program have been underestimated.

  • Roman Yampolskiy, University of Louisville, KY, USA: Artificial general intelligence and the future of humanity

    Many scientists, futurologists and philosophers have predicted that humanity will achieve a technological breakthrough and create artificial general intelligence (AGI) within the next one hundred years. It has been suggested that AGI may be a positive or negative factor in the global catastrophic risk. After summarizing the arguments for why AGI may pose significant risk, I will survey the field’s proposed responses to AGI risk, with particular focus on solutions advocated in my own work.

Varmt välkomna den 17 mars!