måndag 17 december 2018

Kort om vetenskap och vetenskapssyn i Humanisten

För ett decennium sedan bidrog jag regelbundet till Förbundet Humanisternas tidskrifter, som t.ex. med texterna McGrath vs Dawkins (Humanisten 6/2007) och Försvaret av vetenskapen - ett tvåfrontskrig (Humanisten 1/2010). Efter ett längre uppehåll fick jag nyligen en påstötning från vännen Patrik Lindenfors: nog är det hög tid för comeback i de spalterna? Jag rullade upp skjortärmarna och knåpade ihop en text som fick rubriken Låt oss stå upp för vetenskapen - men också kräva framsynthet, där jag bjuder på en mix av klimatdebatt, forskningsetik och gammalt skvaller. Den finns nu i tryck i nyutkomna Humanisten 4/2018 - läs den här! Jag vill samtidigt passa på att tipsa om Patriks utmärkta text i samma nummer, om den kultförklarade kanadensiske psykologen Jordan Petersons budskap.

torsdag 13 december 2018

Nu reder vi ut det här med Nordhaus och diskonteringsräntan

Debatten har gått hög i Sverige om beslutet att tilldela den amerikanske klimatekonomen William Nordhaus Sveriges Riksbanks pris i ekonomisk vetenskap till Alfred Nobels minne "för att ha integrerat klimatförändringar i långsiktig makroekonomisk analys". Inte all kritik har varit alldeles välbetänkt, och jag uppskattar Jesper Roines försök på DN Debatt häromdagen att bringa ordning i debatten, bl.a. med en uppmaning om att inte blanda samman Nordhaus forskning med hans policyrekommnedationer.

Parallellt med Roine debatterar Christian Azar och John Hassler i en annan del av DN1 Nordhaus bruk av den för klimatpolicyrekommendationer ofta så avgörande så kallade diskonteringsräntan. Azar förklarar:2
    Nordhaus, liksom många andra ekonomer, väljer att räkna ned värdet av kostnader som drabbar framtiden med en relativt hög nedräkningstakt (så kallad diskonteringstakt). Eftersom vi förväntas bli rikare i framtiden blir också kostnaderna för skadan relativt sett lägre. Men – och det här är mer kontroversiellt – Nordhaus (och många andra ekonomer) räknar också ned värdet av framtida skador enbart för att de uppstår i framtiden (den rena tidspreferensen).

    Det här får oerhört stor betydelse. Med en diskonteringstakt på 5 procent per år blir en skada om 100 år hela 150 gånger mindre värd än om den inträffat i dag. Om 200 år betyder skadan i princip ingenting (22 000 gånger mindre). Eftersom klimatförändringarna är ett långsiktigt problem kan det därmed närmast trollas bort genom en teknikalitet.

Men är diskonteringsränta ett uttryck för våra värderingar eller för hur världen är beskaffad? Med andra ord, är den normativ eller positiv (deskriptiv)? I denna fråga talar Azar och Hassler förbi varandra på ett sätt som gör att man som läsare får intryck av missämja och förvirring. Azar betonar vikten av en tankereda som håller isär positivt och normativt, och Hassler genmäler att "problemet i Azars resonemang är att han inte gör skillnad mellan positiv och normativ analys". Azar understryker att valet av diskonteringsränta är en fråga om värdering, något som Hassler ställer sig avvisande till:
    En modell med detta syfte måste i acceptabel grad överensstämma med vad vi faktiskt observerar. Detta tror jag är självklart för alla vad gäller de naturvetenskapliga delarna. Vi kan inte välja de parametrar som styr klimatkänsligheten utifrån vad vi vill att de skulle vara. De måste väljas så att modellens prediktioner är i linje med vad vi observerar. Det borde vara lika självklart att den ekonomiska modellen ska konstrueras så att den är i linje med vad vi observerar.
Så vem av dem har rätt? Faktiskt båda, på sätt och vis.

Så här ligger det till. I Nordhaus analyser kommer diskonteringsräntan in på två helt olika sätt, och inget hindrar att den därigenom får två olika värden. Låt oss därför beteckna dem r1 och r2.

I Nordhaus så kallade DICE-modell för integrerad simulering av ekonomi och klimat, så beror ekonomins utveckling på hur snabbt dess aktörer diskonterar ned framtiden, något som modelleras med en diskonteringsränta r1. För att få så realistiska simuleringar som möjligt behöver vi välja r1 så att den stämmer överens med vad vi observerat om hur folk faktiskt beter sig.

När vi så kört DICE-modellen för ett antal olika val av policyparametrar (såsom nivån på koldioxidskatt) och skall jämföra dem för att avgöra vilken policy som är att föredra, då behövs ett sätt att väga kostnader idag mot kostnader i framtiden. Till detta används en diskonteringsränta r2.

Valet av r1 är deskriptivt, och valet av r2 är normativt. Så om den dsikonteringsränta Azar åsyftar är r2, och den Hassler åsyftar är r1, då har båda rätt. Men när Hassler bannar Azar för att inte behärska distinktionen mellan positivt och normativt, då verkar han utgå ifrån att det är r1 Azar åsyftar, och inte r2. Hasslers tolkning är helt säkert felaktig (jag har talat tillräckligt mycket med Azar om dessa frågor genom åren för att veta det), och den kan också förefalla illvillig (då den ju får Azars resonemang att se felaktigt ut).

Men jag tror inte på någon illvilja från Hasslers sida i detta fall. Snarare är det nog så att han i hastigheten råkade glömma att r2 kan väljas fritt, oavsett den av empiriska observationer dikterade r1. Det är nämligen så att man i nationalekonomiska klimatanalyser ofta skummar förbi valet av r2, och slentrianmässigt sätter r2=r1.3 Detta tycks mig vara en dålig vana, just därför att man då riskerar dölja (både för sig själv och andra) att valet av optimal policy beror på ett val av r2 som inte är en fråga om fakta utan om värderingar.

Kan det då finnas något gott skäl till att automatiskt välja r2=r1? Jag har svårt att se det. Hela vitsen med ekonomiska styrmedel, och på sätt och vis också själva ämnet nationalekonomi, är ju att enskilda ekonomiska aktörers värderingar och incitament inte alltid stämmer överens med vad som är bra för samhället i stort. Som i allmänningens tragedi och tusen andra situationer. För egen del finner jag det direkt stötande att låta den kortsiktiga marknaden vara normerande för hur vi bör värdera den långsiktiga framtiden - men det är ju bara min värdering.

Fotnoter

1) Det är lite lustigt att se hur DN:s olika redaktioner ibland tar sig an samma problemområde men verkar helt oberoende eller rentav ovetande om varandra.

2) För en mer ingående förklaring av vad diskonteringsränta innebär och hur den kan motiveras, se Avsnitt 10.2 i min bok Here Be Dragons, eller min uppsats Ramseys ekvation och planetens framtid.

3) Jag tackar John Hassler för att ha förklarat detta för mig (privat korrespondens).

tisdag 4 december 2018

On the editorial board of the Journal of Controversial Ideas

There has been a bit of media attention in recent weeks around the soon-to-be-launched scientific journal named The Journal of Controversial Ideas, whose most novel (and controversial!) feature is that it explicitly allows its authors to write under pseudonym. The three founding editors, philosophers Jeff McMahan, Francesca Minerva and Peter Singer, have gathered a highly interdisciplinary (albeit with particular emphasis on ethics and philosophy) collection of 41 further researchers to serve on the editorial board, and the time has come for me to come forth as one of these editorial board members.

Of course any scientific journal ought (unless it specifically aims to be pedestrian, but what sort of boring journal would that be?) to welcome controversial ideas, but the point of the new journal is to be a place to go for publishing scientific and philosophical work that is not just controversial but inflammable and runs the risk of eliciting Twitter storms and death threats (all too common phenomena that some of the editors have direct personal experience with). On the other hand, an obvious objection to the enterprise is that hiding behind anonymity may seem to go against the spirit of the scientific enterprise. Indeed, the initiative has generated a good deal of criticism, ranging from vulgar tweets misrepresenting the purpose of the journal as serving to "anonymously ponder racist, sexist, transphobic, pro-colonialist, pro-exploitation ideas without fear of backlash", to the rather more sane and measured concerns by Bradley Campbell and Clay Routledge that "cordoning off controversial ideas into a special journal allows the reactions of activists to define the journal’s subject matter. Instead of sharing a common methodology or field of study, the contributing authors would have in common only their identity as actual or potential victims of censorship", to which they add that we should be careful about "organizing institutions around competing narratives of victimhood".

In a Vox interview, Francesca Minerva emphasizes the journal's role in protecting academic freedom, which "is fundamental to get closer to the truth. If you can see things from a different vantage point, you understand better your own arguments and how the world works. That can never happen if people are silenced". Talking to the BBC, Jeff McMahan adds that "all of us will be very happy if, and when, the need for such a journal disappears, and the sooner the better. But right now in current conditions something like this is needed".

Personally, I see good arguments on both sides of the debate. But I value diversity among scientific journals, and view The Journal of Controversial Ideas as an interesting experiment and a potentially valuable addition to the current range of journals. We'll see how it plays out.

torsdag 29 november 2018

Frukost med Formas

Idag var jag uppe med tuppen, och har redan hunnit med ett frukostframträdande på Nobelmuseet i forskningsstiftelsen Formas regi om ett ämne som ligger mig varmt om hjärtat: Forskning - på gott och ont? Under ledning av Formas generaldirektör Ingrid Petersson fick en panel i vilken jag fick sällskap av filosofen Jessica Nihlén Fahlquist, Stockholms universitets rektor Astrid Söderbergh Widding och forskningsminister Helene Hellmark Knutsson hyggligt mycket sagt inom ramen för den timme vi hade på oss:

söndag 25 november 2018

Johan Norberg is dead wrong about AI risk

I kind of like Johan Norberg. He is a smart guy, and while I do not always agree with his techno-optimism and his (related) faith in the ability of the free market to sort everything out for the best, I think he adds a valuable perspective to public debate.

However, like the rest of us, he is not an expert on everything. Knowing when one's knowledge on a topic is insufficient to provide enlightenment and when it is better to leave the talking to others can be difficult (trust me on this), and Norberg sometimes fails in this respect. As in the recent one minute and 43 seconds episode of his YouTube series Dead Wrong® in which he comments on the futurology of artificial intelligence (AI). Here he is just... dead wrong:

No more than 10 seconds into the video, Norberg incorrectly cites, in a ridiculing voice, Elon Musk as saying that "superintelligent robots [...] will think of us as rivals, and then they will kill us, to take over the planet". But Musk does not make such a claim: all he says is that unless we proceed with suitable caution, there's a risk that something like this may happen.

Norberg's attempt at immediate refutation - "perhaps super machines will just leave the planet the moment they get conscious [and] might as well leave the human race intact as a large-scale experiment in biological evolution" - is therefore just an invalid piece of strawmanning. Even if Norberg's alternative scenario were shown to be possible, that is not sufficient to establish that there's no risk of a robot apocalypse.

It gets worse. Norberg says that
    even if we invented super machines, why would they want to take over the world? It just so happens that intelligence in one species, homo sapiens, is the result of natural selection, which is a competitive process involving rivalry and domination. But a system that is designed to be intelligent wouldn't have any kind of motivation like that.
Dead wrong, Mr Norberg! Of course we do not know for sure what motivations a superintelligent machine will have, but the best available theory we currently have for this matter - the Omohundro-Bostrom theory for instrumental vs final AI goals - says that just this sort of behavior can be predicted to arise from instrumental goals, pretty much no matter what the machine's final goal is. See, e.g., Bostrom's paper The superintelligent will, his book Superintelligence, my book Here Be Dragons or my recent paper Challenges to the Omohundro-Bostrom Framework for AI Motivations. Regardless of whether the final goal is to produce paperclips or to maximize the amount of hedonic well-being in the universe, or something else entirely, there are a number instrumental goals that the machine can be expected to adopt for purpose of promoting that goal: self-preservation (do not let them pull the plug on you!), self-improvement, and acquisition of hardware and other resources. There are other such convergent instrumental goals, but these in particular point in the direction of the kind of rivalrous and dominant behavior that Norberg claims a designed machine wouldn't exhibit.

Norberg cites Steven Pinker here, but Pinker is just as ignorant as Norberg of serious AI futurology. It just so happens that when I encountered Pinker in a panel discussion last year, he made the very same dead wrong argument as Norberg now does in his video - just minutes after I had explained to him the crucial parts of Omohundro-Bostrom theory needed to see just how wrong the argument is. I am sure Norberg can rise above that level of ineducability, and that now that I am pointing out the existence of serious work on AI motivations he will read at least some of references given above. Since he seems to be under the influence of Pinker's latest book Enlightenment Now, I strongly recommend that he also reads Phil Torres' detailed critique of that book's chapter on existential threats - a critique that demonstrates how jam-packed the chapter is with bad scholarship, silly misunderstandings and outright falsehoods.

fredag 23 november 2018

Videofilmad i lärdomsstaden

Gårdagens Debatt i Lund (som jag annonserade i mina två föregående bloggposter) med Andreas Ekström (moderator), Anna Felländer, Thore Husfeldt, Alfred Ruth och mig på temat "Hur smart är konstgjord intelligens?" videofilmades och kan ses nedan. Det timslånga samtalet kretsade kring den artificiella intelligensens framtid, och blev bitvis intressant, men jag känner (liksom gissningsvis två av de andra panelisterna) att jag gott kunde ha tagit för mig lite mer. Kanske nästa gång - i Stockholm på torsdag.

måndag 19 november 2018

Förhandssnack inför AI-debatten i Lund på torsdag

Det har varit lite förhandssnack här och var inför den AI-debatt i Lund på torsdag kl 20.00 som jag annonserade i min förra bloggpost.

Fotnoter

1) Jag tar tillfället i akt att visa den kärleksfulla nidbild av mig som Thore, med anspelning på min bok Here Be Dragons, ritade i samband med min bemärkelsedag förra året.

2) Det är inte ofta som schacksverige uppmärksammar mina framträdanden, så att båda dessa sajter kom att göra det denna gång får mig att höja på ögonbrynet. En tillfällighet? Eller räcker den schackrelaterade bild som arrangörerna i Lund använt sig av i annonseringen som förklaring? Jag tror inte att redaktörerna på Inte bara schack och schack.se samarbetar, men det skulle kunna finnas en tredje part - någon AI-intresserad schackspelare någonstans i landet - som tipsat båda, och som därmed utgör den gemensamma nämnaren. Kan det rentav vara så att någon läsare av denna blogg sitter på information som kan stilla min nyfikenhet?

3) Vad gäller den sistnämnda vill jag en gnutta skamset framhålla att den inte är den bästa intervju jag givit. Jag svarade på frågorna via epost och hade ont om tid, och antog lite förhastat att det skulle komma följdfrågor. Jag borde åtminstone ha utvecklat att par av de mer korthuggna svaren. "Den potential AI har att berika samhällsekonomin och våra liv är enorm, men det gäller även riskerna" hade helt klart varit ett bättre och mer balanserat svar än "Riskerna är enorma" på frågan om huruvida vi bör vara rädda för AI.4 Och vad gäller jämförelsen mellan ett schackprogram och en robotiserad kassörska kunde jag exempelvis ha farmhållit att medan schackprogrammet har en välavgränsad spelplan, väldefinierade regler och en klockrent specificerad målfunktion så är allt detta ofantligt mycket mer komplicerat och oklart för en snabbköpskassörska, som behöver vara kapabel att hantera inte bara standardsituationer som att kvittorullen tar slut eller att kundens kreditkort visar sig ogiltigt, utan även en miljard andra situationer, som 6-åringen som gråter över att ha tappat bort sin förälder någonstans i den stora affären, pensionären som insisterar på att det stått i tidningen att grönkålen kostar 19:90, och fyllot som vomerar på varubandet eller som ställd inför upplysningen att endast personaltoalett finns svarar med att hota att urinera i lösgodiset.

4) Strängt taget tillför väl inte det längre svaret någon information som läsaren inte kan väntas redan känna till, men det handlar här mer om social signalering än om informationsöverföring i snäv mening. Det är viktigt för mig att framstå som en klok och balanserad tänkare snarare än som en extremist och en domedagspredikant.

onsdag 14 november 2018

Paneldiskussioner i Lund och Stockholm

De kommande två veckorna skall jag delta i paneldiskussioner i Lund respektive Stockholm, och få tillfälle att dryfta frågor om framtida teknikutveckling och dess sociala konsekvenser, med bland andra Helene Hellmark Knutsson, minister för högre utbildning och forskning i vår övergångsregering, och min favoritmotståndare i AI-frågor på senare år, datalogen Thore Husfeldt. Torsdagar klockan åtta verkar vara tiden som gäller numera:

tisdag 6 november 2018

Om effektiv altruism i P4

Idag har jag för tredje gången inom loppet av en månad besökt P4 Göteborgs förmiddagsprogram (jag var ju där såväl fredagen den 5 som onsdagen den 17 oktober). Stefan Livh, som brukar ta emot, var denna gång på semester, så jag fick istället snacka med den vikarierande programledaren Erika Löthberg. Vårt samtal börjar cirka 1:23:30 in i sändningen, och håller med diverse avbrott på tills min önskelåt för dagen (Over the Rainbow med Judy Garland från 1939) drar igång vid cirka 1:48:35.

Denna gång slog jag ett slag för effektiv altruism, som är den gemensamma beteckningen på ett gryende forskningsområde och en snabbt växande social rörelse, vilka båda handlar om hur man som individ med ambitionen att bidra till att göra världen bättre kan åstadkomma det så effektivt som möjligt. Den som vill veta mer om det vi pratade om kan exempelvis ta del av EA Sveriges introduktion till effektiv altruism, GiveWells topplista över effektiva välgörenhetsprojekt, och karriärrådgivningsorganisationen 80,000 hours.

onsdag 31 oktober 2018

'Oumuamua-mysteriet

Är vi ensamma, eller finns det andra civilisationer där ute bland stjärnorna? Den frågan hör till de största vi kan ställa oss, och som om den inte vore spännande nog i sig har den en praktisk sida, då svaret kan ha stora konsekvenser för mänsklighetens framtidsutsikter. Detta sista tydliggörs med den så kallade The Great Filter-formalismen, som i korthet utgår från observationen att från kanske 1022 (ge eller ta en tiopotens eller två) potentiellt livgivande planeter i det synliga universum så verkar det som om inte en enda har utvecklat en teknologisk supercivilisation av sådana dimensioner att den är synlig för astronomer var som helst i sagda universum, och konstaterar att någonstans på vägen från potentiellt livgivande planet till supercivilisation finns en flaskhals (eller flera) som är extremt svår att passera. Har vi (mänskligheten) passerat denna flaskhals, eller ligger den ännu framför oss? Om detta har jag skrivit här på bloggen, i Kapitel 9 i min senaste bok Here Be Dragons, och i en artikel i International Journal of Astrobiology tillsammans med Chalmerskollegan Vilhelm Verendel häromåret.

Ett problem för den som vill göra framsteg på det här området är bristen på direkta data, utöver den ensamma datapunkt som den stora tystnaden därute utgör, och det ständigt ökande antalet upptäckta exoplaneter som backar upp uppskattningar som den ovan om antalet potentiellt livgivande planeter därute. (Indirekta data om hur allmänt gästvänligt vårt universum är för härbärgerande av liv finns det mer gott om, och skall inte fnysas åt. Ämnet astrobiologi sysslar med sådant.)

Men när det plötsligt dyker upp något som är en helt ny och möjligen relevant datatpunkt, så förtjänar det vårt intresse. Som stenbumlingen (eller vad det nu är) 'Oumuamua.

'Oumuamua upptäcktes den 19 oktober 2017, och det kunde snabbt rekonstrueras att den 40 dagar tidigare passerat sitt preihelium i närheten av Merkurius omloppsbana (och några äldre fotografier där 'Oumuamua dittills obemärkt figurerat kunde rotas fram till stöd för det). Det väntade hade varit att notera den som ännu en asteroid eller komet. Sådana rör sig (med vanligtvis god precision) i elliptiska banor runt solen. Hur avlång ellipsen är beskrivs matematiskt av dess excentricitet e mellan 0 och 1, där e=0 svarar mot en perfekt cirkel, och banan blir alltmer avlång ju mer e närmar sig 1. Problemet med 'Oumuamua är att dess e-värde uppmättes till cirka 1.2, vilket innebär att banan inte är elliptisk utan hyperbolisk, vilket i sin tur tyder på att 'Oumuamua blott är en gäst (den första och hittills enda vi observerat) i vårt solsystem, alltså ett objekt som kommit inramlandes från den interstellära rymden.

Allt detta är spännande nog, men det finns mer att säga om 'Oumuamua med potential att kittla vår fantasi:
  • Den är ovanligt avlång. Dess dimensioner är behäftade med osäkerhet, men den bästa uppskattningen pekar på en längd på 230 meter och bredd resepektive tjocklek på 35 meter vardera. Även om den ovanliga formen kan få den fantasifulle att associera till Clarkeska monoliter, så är det inte i sig tillräckligt för att vi på allvar skall börja fundera på om 'Oumuamua är ett artificiellt föremål från en utomjordisk civilisation, men det kommer mer:
  • Robin Hanson (mannen bakom The Great Filter) påpekade samma höst att av interstellära objekt av 'Oumuamuas storlek som når tillräckligt långt in i vårt solsystem för att vi skall väntas observera dem, så träffar 'Oumuamua närmare Solen än 99% kan väntas göra, förutsatt att det inte suttit någon därute och avsiktligt siktat nära Solen. Källhänvisningen för denna sifferuppgift är inte klockren, men om vi ändå antar att den är riktig så har vi alltså ett p-värde på 0.01. Jag har i andra sammanhang framhållit att p-värden i den storleksordningen inte är fullt så imponerande som många tycks tro, och det gäller givetvis i än högre grad då nollhypotesen som i detta fall formulerats efter att man sett data. När alternativhypotesen är av så spektakulär natur som i detta fall - att någon avsiktligt skickat 'Oumuamua till vårt solsystem - är anledningen till skepsis ännu större, men jag kan inte se att det skulle vara något allvarligt fel att låta siffran inspirera oss att fundera vidare över den hypotesen. Och det kommer ännu mer:
  • I en artikel i Nature tidigare i år påvisades att 'Oumuamua bana uppvisat avvikelser (med överväldigande statistisk signifikans) från vad gravitationsteorin förutsäger. En naturlig förklaring till en sådan avvikelse vore om 'Oumuamua likt en komet uppvisade avdunstning från ytan till följd av den infallande solstrålningen. Ett rykande (no pun intended) aktuellt preprint av astrofysikerna Shmuel Bialy och Abraham Loeb, och en kommentar till denna av Paul Gilster, hävdar dock att kometteorin inte håller. Istället föreslås solvind som en förklaring, vilket dock kräver att 'Oumuamua har så liten massa att den blott kan vara ett lövtunt skal (högst cirka 0.3 mm). Vad som kan skapa ett sådant objekt vet vi inte, men Bialy och Loeb föreslår att "one possibility is a lightsail floating in interstellar space as debris from an advanced technological equipment".
Och Gilster bjuder på andra överslagsräkningar som ytterligare förstärker intrycket att det är något skumt med 'Oumuamua.

Givet sin blygsamma storlek är 'Oumuamua nu bortom räckhåll för våra teleskop, men jag anser att gåtan om dess beskaffenhet och ursprung är tillräckligt angelägen för att vi inte skall låta en sådan detalj knäcka oss. Gilster hävdar visserligen att "it’s too late to get a mission off to chase it with chemical rockets", men det torde i så fall finnas andra tekniska lösningar. Till vilken kostnad det går att göra vet jag inte, men om det skulle gå att rymma inom en budget på säg 100 miljarder kronor (som två Large Hadron Colliders, typ) så tycker jag utan tvekan att vi skall försöka. Jag håller fortfarande för troligast att 'Oumuamua har naturligt ursprung, men tillräckligt mycket fog finns idag för spekulationer om motsatsen för att en närmare undersökning skall ha väldigt hög prioritet.

Edit: Knappt har jag tryckt på knappen för att publicera denna bloggpost förrän jag nås av tips om ett preprint av Andreas Hein et al med detaljer om hur den rymdexpedition jag efterfrågar i sista stycket skulle kunna genomföras.

fredag 26 oktober 2018

Paul Christiano has just climbed to the top of my to-read list

The 80,000 Hours Podcast (run by the nonprofit organization 80,000 Hours, which offers career advice to young people guided by the principles of effective altruism) seems generally to be an incredibly good resource for learning about some of the most important yet underappreciated issues confronting humanity today. Its host Robert Wiblin (Director of Research at 80,000 hours) does the interviews extremely competently, having typically done some serious homework on the topics that come up.

Still, the amazing recent 3 hours and 52 minutes long episode with computer scientist Paul Christiano stands out. Despite its length, I found every minute of the episode highly worthwile and informative, and it convinces me that Christiano does some of today's most important, creative and cutting-edge work on AI alignment and AI safety. Highly recommended! One of my top near-term priorities right now is to become more closely acquainted with, e.g., his work on prosaic AI alignment, on iterated distillation and amplification, on "AI safety via debate", and on the possibility of unaligned yet morally valuable AI. And as a bonus, and mostly just for pleasure, I am about to read his Eight unusual science fiction plots.

onsdag 17 oktober 2018

I P4 igen, om statistik och våra felkalibrerade hjärnor

Idag den 17 oktober har jag varit tillbaka hos Stefan Livh i P4 Göteborg igen. Diskussionen denna gång handlade om våra felkalibrerade hjärnor, om behovet av rigorösa statistiska metoder inom vetenskapen, om avståndet mellan Mölnlycke och Åmål, och lite grand på slutet om den kritik jag riktat här på bloggen mot Göran Lambertz angående dennes hemmagjorda sannolikhetskalkyl. Cirka 1:08:53 in i sändningen börjar vårt samtal, och det håller på (inklusive diverse avbrott för musik och nyheter) fram till cirka 1:42:15.

fredag 5 oktober 2018

Litet snack i P4 om sociala medier, chatbots och AI

Igår medverkade jag åter1 i radioprogrammet Förmiddag i P4 Göteborg för ett längre samtal med programledaren Stefan Livh. Denna gång behandlade vi ett knippe brännande frågor kring smartphones, sociala medier, chatbots och artificiell intelligens, samt vad dessa teknologier kan föra med sig för våra liv idag och i framtiden. Vårt samtal börjar cirka 1:03:54 in i sändningen och avrundas kring 1:37:55, i samband med att de drar igång den önskelåt jag beviljats med hänvisning till att det råkade vara min födelsedag.2 Lyssna här!

Fotnoter

1) Det här var femte gången. De fyra tidigare samtalen ägde rum 22 februari 2016, 2 mars 2016, 21 september 2017 och 13 november 2017.

2) Härutöver omtalades jag också i lite småprat mellan Stefan Livh och programmets producet Per Dahlberg efter önskelåten.

måndag 1 oktober 2018

My paper on the Omohundro—Bostrom framework for AI goals and motivations

My latest paper on artificial intelligence, Challenges to the Omohundro—Bostrom framework for AI motivations, has been accepted for publication in the journal Foresight. From the introduction:
    The present paper is concerned with scenarios where AI development has succeeded in creating a machine that is superintelligent, in the sense of vastly outperforming humans across the full range of cognitive skills that we associate with intelligence, including prediction, planning and the elusive quality we speak of as creativity. [...]

    While important, [...] matters of timing and suddenness of AI development will mostly be abstracted away in the present paper, in order to focus on issues about what happens next, once a superintelligent machine has been created. A widely accepted thesis in contemporary AI futurology is that we humans can then no longer expect to be in control of our own destiny, which will instead be up to the machine. [...]

    This leads to the crucial issue of what the superintelligent machine will want – what will it be motivated to do? The question is extraordinarily difficult and any answer at present is bound to come with a high degree of uncertainty – to a large extent due to our limited understanding of how a superintelligent machine might function, but also because the answer may depend on what we choose to do during the development stage, up to the point when we lose control. [...]

    So our inexperience with superintelligence puts us in a situation where any reasoning about such a machine’s goals and motivations need to be speculative to a large degree. Yet, we are not totally in the dark, and the discussion need not be totally speculative and ungrounded. The main (and pretty much only) theoretical framework available today for grounding our reasoning on this topic is what in an earlier publication I decided to call the Omohundro—Bostrom theory on instrumental vs final AI goals [...]. The two cornerstones of the theory are what Bostrom (2012) dubbed the Orthogonality Thesis (OT) and the Instrumental Convergence Thesis (ICT), which together give nontrivial and (at least seemingly) useful predictions – not about what will happen, but about what might plausibly happen under various circumstances. The OT and the ICT are, however, not precise and definite on the level that mathematical theorems can be: they are not written in stone, and they have elements of vagueness and tentativeness. The purpose of the present paper is to discuss some reasons to doubt the two theses – not with the intent of demonstrating that they are wrong or useless, but mostly to underline that further work is needed to evaluate their validity and range of applicability.

Read the entire paper here.

torsdag 27 september 2018

Blunda inte!

Blunda inte! Eller som jag uttrycker saken i min essä Blunda inte för riskerna med artificiell intelligens, publicerad idag den 27 september i Dagens Arena:
    AI-utvecklingen har potential inte bara att göra världen bättre, utan också att göra den sämre, och i värsta fall orsaka katastrof. Jag ser därför framför mig ett abstrakt landskap av möjliga framtida AI-framsteg, där det bland guld och gröna skogar även finns blindskär och livsfarliga minor (för att nu ohämmat blanda metaforer). Den anda av att vi snabbast möjligt bör göra så stora teknikframsteg som möjligt, vilken präglade såväl det Chalmersmöte jag här berättat om som den mesta annan AI-diskussion vi ser i dag, är liktydig med att blint rusa rakt fram i detta minfält, eller att köra bil med gasen i botten och ögonen enbart på hastighetsmätaren utan en tanke på vilka hinder och andra farligheter som kan finnas där ute.

    Detta duger inte. Vi behöver ta några djupa andetag och fundera över vilken slags framtid vi vill att AI-utvecklingen ska bidra till, vilka riskerna är, och hur vi bör agera för att skörda de största frukterna där ute samtidigt som vi undviker de farligaste minorna.

Läs hela essän här! Och för den händelse någon hellre lyssnar än läser, så kan jag tipsa om att jag i mitt föredrag Artificiell intelligens - hot eller möjlighet på Högskolan Dalarna den 12 september täckte in ungefär samma material som i essän:

tisdag 18 september 2018

An essential collection on AI safety and security

The xxix+443-page book Artificial Intelligence Safety and Security, edited by Roman Yampolskiy, has been out for a month or two. Among its 28 independent chapters (plus Yamploskiy's introduction), which have a total of 47 different authors, the first 11 (under the joint heading Concerns of Luminaries) have previously been published, with publication years ranging from 2000 to 2017, while the remaining 17 (dubbed Responses of Scholars) are new. As will be clear below, I have a vested interest in the book, so the reader may want to take my words with a grain of salt when I predict that it will quickly become widely accepted as essential reading in the rapidly expanding and increasingly important fields of AI futurology, AI risk and AI safety; nevertheless, that is what I think. I haven't yet read every single chapter in detail, but have seen enough to confidently assert that while the quality of the chapters is admittedly uneven, the book still offers an amazing amount of key insights and high-quality expositions. For a more systematic account by someone who has read all the chapters, see Michaël Trazzi's book review at Less Wrong.

Most of the texts in the Concerns of Luminaries part of the book are modern classics, and six of them were in fact closely familiar to me even before I had opened the book: Bill Joy's early alarm call Why the future doesn't need us, Ray Kurzweil's The deeply intertwined promise and peril of GNR (from his 2005 book The Singularity is Near), Steve Omohundro's The basic AI drives, Nick Bostrom's and Eliezer Yudkowsky's The ethics of artificial intelligence, Max Tegmark's Friendly artificial intelligence: the physics challenge, and Nick Bostrom's Strategic implications of openness in AI development. (Moreover, the papers by Omohundro and Tegmark provided two of the cornerstones for the arguments in Section 4.5 (The goals of a superintelligent machine) of my 2016 book Here Be Dragons.) Among those that I hadn't previously read, I was struck most of all by the urgent need to handle the near-term nexus of risks connecting AI, chatbots and fake news, outlined in Matt Chessen's The MADCOM future: how artificial intelligence will enhance computational propaganda, reprogram human cultrure, and threaten democracy... and what can be done about it.

The contributions in Responses of Scholars offer an even broader range of perspectives. Somewhat self-centeredly, let me just mention that three of the most interesting chapters were discussed in detail by the authors at the GoCAS guest researcher program on existential risk to humanity organized by Anders Sandberg and myself at Chalmers and the University of Gothenburg in September-October last year: James Miller's A rationally addicted artificial superintelligence, Kaj Sotala's Disjunctive scenarios of catastrophic AI risk, and Phil Torres' provocative and challenging Superintelligence and the future of governance: on prioritizing the control problem at the end of history. Also, there's my own chapter on Strategies for an unfriendly oracle AI with reset button. And much more.

söndag 2 september 2018

Snyder on Putin and the threats to freedom and democracy

Earlier this year, I enthusiastically reviewed (in Swedish) Daniel Ellsberg's important book The Doomsday Machine: Confessions of a Nuclear War Planner. Based on unique inside information, Ellsberg makes such an overwhelming case that the nuclear balance of terror between the United States and the USSR/Russia has been (and still is) even more dangerous than most of us have realized, and that disarmament is the only sensible way forward, that one begins to wonder how anyone could possibly oppose disarmament. Well, for the sake of balance (no pun intended!), let me offer the best counterpoint I've seen, given to the world through the actions of Vladimir Putin, and reluctantly put into words by Timothy Snyder in his most recent book The Road to Unfreedom: Russia, Europe, America as follows:
    [The Russian invasion of Crimea in 2014] violates basic consensual principles of international law, the United Nations Charter, every treaty signed between independent Ukraine and independent Russia, as well as a number of assurances that Russia has offered Ukraine about the protection of its frontiers. One of these was the Budapest Memorandum of 1994, in which the Russian Federation (along with the United Kingdom and the United States) had guaranteed Ukranian borders when Ukraine agreed to give up all nuclear weapons. In what was perhaps the greatest act of nuclear disarmament in history, Ukraine handed over some 1,300 intercontinental ballistic missiles. By invading a country that had engaged in complete nuclear disarmament, Russia offered the world the lesson that nuclear arms should be pursued. [p 142]
The Road to Unfreedom is Snyder's follow-up to his marvelous little book On Tyranny from 2017. His new book is very different but just as important. It offers a detailed history of Vladimir Putin's misdeeds in the 2010's, his multifaceted fight against democracy at home, in Europe and in the United States, his war on Ukraine, and his successful effort to install in the White House a person who for all practical purposes can be regarded as his puppet.1 Solid sources are provided throughout, and the events are skillfully integrated into a highly readable narrative, including the necessary background on Stalin's, Brezhnev's and Gorbachev's Soviet Union and on Yeltsin's Russia, as well as on the fascist thinkers (mainly Ivan Ilyin) whom Putin has chosen as his and his country's pet philosophers to support his aggressive geopolitical views. The Road to Unfreedom is essential reading for anyone who wants to understand current events in Russia and in the West.

Let me add something to my Swedish compatriots who will go to the election polls on Sunday (September 9). One of the main lessons from Snyder's book is that Putin aspires to destabilize Europe and ultimately to dissolve the European Union, so as to make it easier for him to attain dominance over Eurasia. There is no end to the cynical things he will do to this end, including bombing Syria to fuel the refugee crisis. His other main tool to the same end is to support right-wing and EU-skeptical populist parties across Europe, for instance using his troll factories. If you vote for Sverigedemokraterna on Sunday, you play right into Putin's hands.

Footnote

1) This is convincingly argued in the book despite it being published several months prior to Putin's and Trump's July 2018 press conference in Helsinki, where Trump's puppet status was made overwhelmingly clear to anyone who cared to look.

lördag 1 september 2018

Demokrati är fundamentalt - är alla med på det?

Nästa söndag, den 9 september, går vi till valurnorna i Sverige. Då gäller det att hålla ordning på fundamentala värden. Specifikt vill jag rekommendera röstandet på ett parti som inte slirar när det gäller att bevarandet av vår demokrati är så grundläggande att det går före alla andra frågor.

Hur avgör man om ett parti har den rätta demokratiska ryggraden? Jag tror att en bra proxy för det är huruvida partiledaren har detsamma, och för att avgöra vilka av partiledarna för våra åtta riksdagspartier som besitter sådan ryggrad vill jag mena att följande enkla tankeexperiment ger god ledning:
  • Skulle Moderaternas partiledare Ulf Kristersson ställa sig bakom uttalandet "Sänkt skatt är förvisso viktigt. Ett ännu mer grundläggande ideal för oss är emellertid bevarandet av demokratin, och med det skulle vi aldrig kompromissa"? Det behöver vi inte undra över, svaret är tveklöst ja.
  • Skulle Kristdemokraternas partiledare Ebba Busch Thor ställa sig bakom uttalandet "Hårdare straff för vålds- och sexbrott är förvisso viktigt. Ett ännu mer grundläggande ideal för oss är emellertid bevarandet av demokratin, och med det skulle vi aldrig kompromissa"? Tvivelsutan skulle hon det.
  • Skulle Liberalernas partiledare Jan Björklund ställa sig bakom uttalandet "Höjda lärarlöner är förvisso viktigt. Ett ännu mer grundläggande ideal för oss är emellertid bevarandet av demokratin, och med det skulle vi aldrig kompromissa"? Självklart.
  • Skulle Centerns partiledare Annie Lööf ställa sig bakom uttalandet "Levande landsbygd är förvisso viktigt. Ett ännu mer grundläggande ideal för oss är emellertid bevarandet av demokratin, och med det skulle vi aldrig kompromissa"? Det skulle hon såklart.
  • Skulle Socialdemokraternas partiledare Stefan Löfven ställa sig bakom uttalandet "Schyssta villkor och löner i arbetslivet är förvisso viktigt. Ett ännu mer grundläggande ideal för oss är emellertid bevarandet av demokratin, och med det skulle vi aldrig kompromissa"? Det kan vi känna oss förvissade om.
  • Skulle Miljöpartiets båda språkrör Gustav Fridolin och Isabella Lövin ställa sig bakom uttalandet "Omställning till förnyelsebara energikällor är förvisso viktigt. Ett ännu mer grundläggande ideal för oss är emellertid bevarandet av demokratin, och med det skulle vi aldrig kompromissa"? Självklart skulle båda två göra det.
  • Skulle Vänsterpartiets partiledare Jonas Sjöstedt ställa sig bakom uttalandet "Sex timmars arbetsdag är förvisso viktigt. Ett ännu mer grundläggande ideal för oss är emellertid bevarandet av demokratin, och med det skulle vi aldrig kompromissa"? Givetvis.
Så här långt är utfallet något enahanda, men låt oss gå vidare till det åttonde partiet i Sveriges riksdag.
  • Skulle Sverigedemokraternas partiledare Jimmie Åkesson ställa sig bakom uttalandet "Stoppad invandring är förvisso viktigt. Ett ännu mer grundläggande ideal för oss är emellertid bevarandet av demokratin, och med det skulle vi aldrig kompromissa"? Nja, inför en sådan jämförelse mellan partiets hjärtefråga och bevarandet av demokratin skulle han antagligen börja slira. Svärmorsdrömmen Åkesson är vanligtvis skicklig på att låta mer städad och rumsren än mer brutala sd-företrädare som Kenth Ekeroth, Linus Bylund och Björn Söder, men häromdagen avslöjade han sin bristande demokratiska ryggrad genom att vägra välja mellan Emmanuel Macron och Vladimir Putin. Han och hans parti är helt enkelt inte att lita på när det gäller att stå upp för demokratin.

söndag 26 augusti 2018

Tom Lehrer om Wernher von Braun

I fortsättningen, när någon forskarkollega säger något i stil med "Forskningens samhälleliga konsekvenser lämnar jag med varm hand åt andra att funderat över, för det är ju inte mitt bord att tänka på hur resultaten används, jag är ju bara forskare", så kommer jag att svara "All right, jag respekterar din ståndpunkt,1 men lyssna nu till den här sången från 1965 av Tom Lehrer om den berömde tyske och senare amerikanske raketforskaren Wernher von Braun".

Fotnot

1) Strängt taget kommer detta väluppforstrade men lite mjäkiga och räddhågsna påstående att vara osant, ty sanningen är den att jag inte alls respekterar uppfattningen ifråga, utan ser ned på och avskyr den av hela mitt hjärta. Se min uppsats Vetenskap på gott och ont (eller dess engelskspråkiga översättning Science for good and science for bad) där jag motiverar och försvarar denna hårda attityd.

fredag 24 augusti 2018

On the ethics of emerging technologies and future scientific advances

My essay Vetenskap på gott och ont, which I announced in a blog post in April this year, is now available in English translation: Science for good and science for bad. From the introduction:
    My aim in this text is to explain and defend my viewpoint concerning the role of science in society and research ethics which permeates the ethical arguments in my recent book Here Be Dragons: Science, Technology and the Future of Humanity (Häggström, 2016). To clarify my view, I will contrast it with two more widespread points of view which I will call the academic-romantic and the economic-vulgar. These will be sketched in Section 2. In Section 3 I explain what is missing in these approaches, namely, the insight that scientific progress may not only make the world better but may also make it worse, whence we need to act with considerably more foresight than is customary today. As a concrete illustration, I will in Section 4 discuss what this might mean for a specific area of research, namely artificial intelligence. In the concluding Section 5 I return to some general considerations about what I think ought to be done.
Read the entire text here.

torsdag 16 augusti 2018

Man får inte skicka folk i döden

Flyktingfrågan är komplicerad, och vad som är rätt ställningstagande kan ofta vara en svår sak, i synnerhet när vi betraktar den på aggregerad nivå: siffror och politik. När vi istället går ner på individnivå och betraktar ett enskilt fall kan den plötsligt bli vändigt enkel. Jag är personligen bekant med ett sådant fall. Aftonbladet uppmärksammade igår ett annat, i en ledartext av Pernilla Ericson rubricerad Tvångsgifta Sara ska utvisas till sin ”man”. Låt mig saxa några meningar ur texten om 18-åriga Sara som kommer från Afghanistan dit man beslutat att hon skall skickas tillbaka:
    Sara kommer från ett land som är ett av de absolut farligaste i världen för kvinnor. Våldsbrott mot flickor och kvinnor för att uppehålla familjens heder ses i Afghanistan som en privatsak. Den som söker hjälp hos myndigheterna efter en våldtäkt riskerar att dödas. Att giftas bort mot sin vilja är vanligt.

    Sara berättar att hon giftes bort som 15-åring till en 11 år äldre släkting. Morföräldrarna utsåg maken. Enligt Sara fick hon inte fortsätta studierna när giftermålet var bestämt, och maken skrämde henne när de träffades enskilt.

    – Han talade illa om min familj, slog mig, rev sönder mina kläder. Det är jobbigt att berätta det här, säger hon och hennes ögon tåras.

    [...]

    Hon beskriver en strapatsrik resa. Det hon berättar sedan ekar i så många hedersutsatta flickors och pojkars erfarenheter. Trycket från släkten som hårdnar, som blir till ett krav, ett hot. Vittnesmål som vi måste lyssna på. Sara beskriver hur hennes pappa började pressa henne att återvända till maken.

    – Tänk på min heder, sa min pappa, och jag mådde väldigt dåligt, säger Sara.

    Enligt Sara utsattes hon även för hot från sin make och hans släktingar.

    – “Om vi hittar dig så dödar vi dig. Om du inte säger var du är så tar vi din syster i stället”, sa de över telefon. Min syster var bara nio år då. Min mamma och syster lever fortfarande gömda i Iran.

    [...]

    Migrationsverket föreslår i sitt beslut att hennes make kunde möta upp henne vid flygplatsen. “Du har uppgett att du är gift och har en make som är bosatt i din hemby. Du har inte gjort sannolikt att han utgör en hotbild mot dig. Han utgör således ett manligt nätverk för dig.”

Det här känns väldigt väldigt fel. Tillräckligt fel för att även om det skulle gå att hävda att vi har demokratiskt fattade beslut om att göra så här så är det lik förbannat moraliskt fel av de tjänstemän på Migrationsverket som "bara gör sitt jobb". Man får inte skicka folk i döden, den principen väger tyngre än eventuella riksdagsbeslut om motsatsen. Man får inte det, så enkelt är det, och den som motsäger mig på denna punkt har en moraluppfattning jag inte kan förlika mig med.

onsdag 15 augusti 2018

Singularities

Just today, I came across the 2017 paper Singularities and Cognitive Computing. It deals with AI futurology, a topic I am very much interested in. Author of the paper is Devdatt Dubhashi. Here are four things that struck me, from a mostly rather personal perspective, about the paper:
    (1) The name Häggström appears four times in the short paper, and in all four cases it is me that the name refers to. I am flattered by being considered worthy of such attention.
So far so good, but my feelings about the remaining points (2)-(4) are not quite as unambiguously positive. I'll refrain from passing moral judgement on them - better to let them speak for themselves and let the reader be the judge.
    (2) The paper was published in the summer of 2017, a large fraction of it is devoted to countering arguments by me, and the author is a Chalmers University of Technology colleague of mine with whom I've previously had fruitful collaborations (resulting in several joint papers). These observations in combination make it slightly noteworthy that the paper comes to my attention only now (and mostly by accident), a full year after publication.

    (3) The reference list contains 10 items, but strikingly omits the one text that almost the entire Section 2 of the paper attempts to engage with, namely my February 2017 blog post Vulgopopperianism. That was probably not by mistake, because at the first point in Section 2 in which it is mentioned, its URL address is provided. So why the omission? I cannot think of a reason other than that, perhaps due to some grudge against me, the author wishes to avoid giving me the bibliometric credit that mentioning it in the reference list would yield. (But then why mention my book Here Be Dragons in the reference list? Puzzling.)

    (4) In my Vulgopopperianism blog post I discuss two complementary hypotheses (H1) and (H2) regarding whether superintelligence is achievable by the year 2100. Early in Section 2 of his paper, Dubhashi quotes me correctly as saying in my blog post that "it is not a priori obvious which of hypotheses (H1) and (H2) is more plausible than the other, and as far as burden of proof is concerned, I think the reasonable thing is to treat them symmetrically", but in the very next sentence he goes overboard by claiming that "Häggström suggests [...] that one can assign a prior belief of 50% to both [(H1) and (H2)]". I suggest no such thing in my blog post, and certainly do not advocate such a position (unless one reads the word "can" in Dubhashi's claim absurdly literally, meaning "it is possible for a Bayesian to set up a model in which each of the hypotheses has probability 50%"). If the sentence that he quoted from my blog post had contained the passage "as far as a priori probabilities are concerned" rather then "as far as burden of proof is concerned", then his claim would have been warranted. But the fact is that I talked about "burden of proof", not "a priori probabilities", and it is clear from this and from the surrounding context that what I was discussing was Popperian theory of science rather than Bayesianism.1 It is still possible that the mistake was done in good faith. Perhaps, despite being a highly qualified university professor, Dubhashi does not understand the distinction (and tension) between Popperian and Bayesian theory of science.2

Footnotes

1) It is very much possible to treat two or more hypotheses symmetrically without attaching them the same prior probability (or any probability at all). As a standard example, consider a frequentist statistician faced with a sample from a Gaussian distribution with unknown mean μ and unknown variance σ2, making a 95% symmetric confidence interval for μ. Her procedure treats the hypotheses μ<0 and μ>0 symmetrically, while not assigning them any prior probabilities at all.

2) If this last speculation is correct, then one can make a case that I am partly to blame. In Chapter 6 of Here Be Dragons - which Dubhashi had read and liked - I treated Popperianism vs Bayesianism at some length, but perhaps I didn't explain things sufficiently clearly.

torsdag 9 augusti 2018

In the long run

It is important to consider the future of humanity not just in terms of what the world will be like in 2030 or 2050, but also in the (much) longer run. The paper Long-term trajectories of human civilization, which grew out of discussions during the GoCAS guest researcher program Existential risk to humanity in Gothenburg last fall and which is out now, does precisely this. I am proud to be coauthor of it.1 First author is Seth Baum, who initiated the discussion that eventually lead to this paper. Seth is an American risk researcher and futurologist, and director of the Global Catastrophic Risk Institute. To readers of this blog he may be familiar from his public appearances in Sweden in 2014 and 2017. The Global Catastrophic Risk Institute has a press release in connection with the paper:
    Society today needs greater attention to the long-term fate of human civilization. Important present-day decisions can affect what happens millions, billions, or trillions of years into the future. The long-term effects may be the most important factor for present-day decisions and must be taken into account. An international group of 14 scholars calls for the dedicated study of “long-term trajectories of human civilization” in order to understand long-term outcomes and inform decision-making. This new approach is presented in the academic journal Foresight, where the scholars have made an initial evaluation of potential long-term trajectories and their present-day societal importance.

    “Human civilization could end up going in radically different directions, for better or for worse. What we do today could affect the outcome. It is vital that we understand possible long-term trajectories and set policy accordingly. The stakes are quite literally astronomical,” says lead author Dr. Seth Baum, Executive Director of the Global Catastrophic Risk Institute, a non-profit think tank in the US.

    [...]

    The scholars find that status quo trajectories are unlikely to persist over the long-term. Whether humanity succumbs to catastrophe or achieves a more positive trajectory depends on what people do today.

    “In order to succeed it is important to have a plan. Long-term success of humanity depends on our ability to foresee problems and to plan accordingly,” says co-author Roman Yampolskiy, Associate Professor of Computer Engineering and Computer Science at University of Louisville. “Unfortunately, very little research looks at the long-term prospects for human civilization. In this work, we identify some likely challenges to long-term human flourishing and analyze their potential impact. This is an important step toward successfully navigating such challenges and ensuring a thriving future for humanity.”

    The scholars emphasize the enormous scales of the long-term future. Depending on one’s ethical perspective, the long-term trajectories of human civilization can be a crucial factor in present-day decision-making.

    “The future is potentially exceedingly vast and long,” says co-author Anders Sandberg, Senior Research Fellow at the Future of Humanity Institute at University of Oxford. “We are in a sense at the dawn of history, which is a surprisingly powerful position. Our choices – or lack of decisions – will strongly shape which trajectory humanity will follow. Understanding what possible trajectories there are and what value they hold is the first step towards formulating strategies for our species.”

Read the full press release here, and the paper here.

Footnote

1) Here is the full (and, I daresay, fairly impressive) author list: Seth D. Baum, Stuart Armstrong, Timoteus Ekenstedt, Olle Häggström, Robin Hanson, Karin Kuhlemann, Matthijs M. Maas, James D. Miller, Markus Salmela, Anders Sandberg, Kaj Sotala, Phil Torres, Alexey Turchin and Roman V. Yampolskiy.

tisdag 31 juli 2018

On dual-use technologies

Dual-use technologies are technologies that can be applied both for causing death and destruction and for more benign purposes. An xkcd strip last month illustrates the concept beautifully by recycling Isaac Newton's cannonball thought experiment:

In my 2016 book Here Be Dragons: Science, Technology and the Future of Humanity, I point out at some length the troublesome fact that many emerging technologies have this dual-use feature, and that the dangers are in some cases of such a magnitude that they can mean the end of civilization and humanity. How should we react to this fact? I often encounter the attitude that since there are no inherently good or evil technologies but only good or even uses of them, engineers need not worry about ethical concerns when deciding what to develop. In my recent manuscript Vetenskap på gott och ont (in Swedish) I wholeheartedly condemn that attitude, and view it as an attempt to fall back on a simple one-liner in order to grant oneself the luxury of not having to think inconvenient thoughts ("ett simpelt slagord avsett för att slippa tänka obekväma tankar") or take responsibility for the consequences of one's work.

What to do instead? In Here Be Dragons I admit not having any easy answers to that, but suggest that an improved understanding of the landscape of possible future technologies and their consequences for humanity would improve the odds of a happy outcome, and that it might be a good idea to launch some IPCC-like international body with the task of summerizing our (sparse, but improving) knowledge in this field and making that knowledge available to decision makers on all levels (IPCC is short for Intergovernmental Panel on Climate Change). I was pleased to learn, quite recently, that Daniel Bressler at Columbia University and Jeff Alstott at MIT have developed, in some detail, a similar idea for the highly overlapping field of global catastrophic risk. Do have a look at their report The Intergovernmental Panel on Global Catastrophic Risks (IPGCR): A Proposal for a New International Organization.

onsdag 27 juni 2018

Thinking in advance, in Uppsala

Tomorrow, June 28, at the Analysis of Algorithms conference in Uppsala, I will give my talk Thinking in advance about the last algorithm we ever need to invent, based on my proceedings contribution with the same title. It begins at 13:30 in the Gunnar Johansson lecture hall, Blåsenhus, von Kraemers Allé 1A, and in case readers in the Uppsala region are interested it seems that it will be easy for conference non-participants to sneak in to hear my talk.

fredag 15 juni 2018

Livet med AI

Stiftelsen för strategisk forskning har i dagarna färdigställt rapporten Livet med AI, som bjuder på en rad olika perspektiv på artificiell intelligens och vad tekniken kan innebära i framtiden. Bakom de olika kapitlen står ett tiotal olika författare, varav jag själv skrivit kapitlet AI-utvecklingens yttersta risker, vilket återfinns på sidorna 10-15 i rapporten,1 och vars text är ny fastän trogna läsare kan känna igen en del av mina käpphästar exempelvis från uppsatserna Remarks on artificial intelligence and rational optimism och Vetenskap på gott och ont.

Fotnot

1) Ett smärre missöde, till följd av att jag förbisåg det snabba korrekturläsningsmomentet i produktionen av rapporten, är att det inte markerats med normal tydlighet att andra stycket på sidan 12 helt och hållet är ett citat, men för den som läser noga framgår det nog ändå.

torsdag 7 juni 2018

Kärnvapenfrågan är på dödligt allvar

I Dagens Arena publicerades idag en essä jag författat med rubriken "Överlever vi 70 år till med kärnvapen?". Till större delen tar den sig formen av en recension av Daniel Ellsbergs aktuella och extremt viktiga bok The Doomsday Machine: Confessions of a Nuclear War Planner. Här några korta stycken ur essän:
    Risken för globalt kärnvapenkrig [är] något vi haft hängande över oss ända sedan tidigt 1950-tal. I samband med Berlinmurens fall och Sovjetunionens upplösning åren kring 1990 försvann kärnvapenfrågan i hög grad från det allmänna medvetandet, vilket var en kollektiv missbedömning av stora mått. Även om det globala antalet kärnvapenstridsspetsar minskat till mindre än en tredjedel av vad det var som mest, försvann aldrig hotet om en kärnvapenapokalyps. Medvetenheten om problemet har i någon mån återvänt i samband med att en man med en tioårings impulskontroll, stingslighet och allmänna mognad i januari 2017 utsågs till högste befälhavare för världens mäktigaste militärmakt, men är ändå inte tillbaka på den nivå som gällde under delar av det kalla kriget.

    Den amerikanske före detta krigsanalytikern Daniel Ellsberg vill med sin aktuella bok The Doomsday Machine: Confessions of a Nuclear War Planner (Bloomsbury Press, 2017) väcka oss ur denna slummer och få oss att inse farans omfattning. Kärnvapenhotet är inget mindre än ett existentiellt hot, det vill säga ett hot som om det vill sig illa kan bli slutet för mänskligheten. Visserligen finns inte tillräckligt många kärnvapen för att döda hela jordens befolkning i själva kriget, men följdverkningarna, inklusive den atomvinter som väntas förmörka himlen och slå ut allt jordbruk under flera år, riskerar att bli så stora att det är ytterst osäkert om de återstående civilisationsspillrorna skulle klara sig särskilt länge.

    Ellsberg är en intressant och på många vis beundransvärd person. Han föddes 1931, han doktorerade vid Harvard på en briljant avhandling om beslutsteori, och han arbetade under 1960-talet som militärstrategisk konsult vid det amerikanska försvarsdepartementet. Denna karriär fick emellertid ett abrupt slut då han 1971 läckte de så kallade Pentagon Papers, en samling topphemliga dokument som delvis kom att publiceras i New York Times och Washington Post, och som klargjorde Johnsonadministrationens systematiska lögner (gentemot inte bara allmänheten utan också den amerikanska kongressen) om Vietnamkriget. Ellsberg erkände öppet att det var han som var läckan, något som normalt skulle ha renderat honom ett mångårigt fängelsestraff för spioneri, men en sinkadusartad omständighet med förgreningar i Watergateskandalen gjorde att domaren i maj 1973 såg sig nödsakad att lägga ned åtalet mot honom. Sedan dess har Ellsberg verkat som opinionsbildare och politisk aktivist, och The Doomsday Machine kan ses som kulmen på detta arbete.

    Boken präglas av skarpsinne och en brinnande moralisk låga, och har sitt allra största värde i författarens unika erfarenheter från åren som militärstrategisk insider. Det man som läsare framför allt får med sig är vilken grad av tur vi har haft som så här långt överlevt hotet om globalt kärnvapenkrig.

Läs hela min text här!

tisdag 29 maj 2018

Om friskolor och betyg

Nationalekonomen Jonas Vlachos offentliggjorde häromdagen sin viktiga rapport Trust-Based Evaluation in a Market-Oriented School System, där han påvisar skillnader i betygsättningspraxis mellan friskolor och kommunala skolor. Jag uppmärksammandes på Vlachos rapport av vännen och matematikutbildningsforskaren Ola Helenius, vars kloka reflektion på Facebook jag fått tillstånd att citera i sin helhet:
    I Sverige tycker vi att en elevs lärare är den som bäst bedömer elevens kunskaper och därför låter vi lärare sätta betyg på sina elever. Det är ett betygssystem som bygger på tillit.

    Vi har dock också ett utpräglat marknadssystem för skolan. Höga betyg är en konkurrensfördel, så det skapar incitament för skolor alla att sätta högre betyg än vad elevernas kunskapsnivåer förtjänar. I klarspråk kan man säga att skolor drivs att fuska med betygen för att skaffa sig bättre positioner på marknaden.

    Om alla skolor gjorde detta lika mycket skulle det ändå vara dåligt, för det leder till betygsinflation. Men det skulle vara ett slags rättvist fusk. Så är det dock inte. Friskolor fuskar mer. Och de stora vinstdrivande koncernernas skolor fuskar mycket mer. Jättemycket faktiskt, och värst är Kunskapsskolan och Internationella Engelska skolan.

    Det här visar Jonas Vlachos i en ny rapport. Han använder inte termen fusk, men jag tycker att det är en rimlig term.

    Man ser ibland argument för att friskolorna är bra, för att de har bättre kunskapsresultat. Men Jonas visar att HELA betygsövertaget som t ex Kunskapsskolan har över kommunala skolan kan förklaras av Kunskapsskolans tendens att sätta högre betyg (relativt de resultat som elever visat på prov) än den kommunala skolan.

    Det här är ju inte bara orättvist. Det underminerar på flera sätt förtroendet för både skolsystemet och betygssystemet. Det kommer också tvinga oss att överge ett system där vi litar på att lärare som bedömare av elevers kunskap. Dessutom har hela det här fusket i sig skapat möjlighet att propagera för förträffligheten hos de vinstdrivande skolorna på falska grunder.

    Internationella Engelska skolan och Kunskapsskolan, som är de värsta här, borde skämmas. Men det borde även de politiker som var naiva nog att införa det här systemet.

torsdag 17 maj 2018

An open letter to Google

Dear Google,

I recently became aware of Project Maven, in which you assist the Pentagon in applying cutting-edge AI technology to give military drones the ability to identify humans. And I thought this is as good a time as any to remind you of these little words of wisdom: Don't be evil.

Let me repeat:

Be.

With kind regards,

Olle Häggström
Concerned world citizen

måndag 14 maj 2018

Two well-known arguments why an AI breakthrough is not imminent

Much of my recent writing has concerned future scenarios where an artificial intelligence (AI) breakthrough leads to a situation where we humans are no longer the smartest agents on the planet in terms of general intelligence, in which case we cannot (I argue) count on automatically remaining in control; see, e.g., Chapter 4 in my book Here Be Dragons: Science, Technology and the Future of Humanity, or my paper Remarks on artificial intelligence and rational optimism. I am aware of many popular arguments for why such a breakthrough is not around the corner but can only be expected in the far future or not at all, and while I remain open to the conclusion possibly being right, I typically find the arguments themselves at most moderately convincing.1 In this blog post I will briefly consider two such arguments, and give pointers to related and important recent developments. The first such argument is one that I've considered silly for as long as I've given any thought at all to these matters; this goes back at least to my early twenties. The second argument is perhaps more interesting, and in fact one that I've mostly been taking very seriously.

1. A computer program can never do anything creative, as all it does is to blindly execute what it has been programmed to do.

This argument is hard to take seriously, because if we do, we must also accept that a human being such as myself cannot be creative, as all I can do is to blindly execute what my genes and my environment have programmed me to do (this touches on the tedious old free will debate). Or we might actually bite that bullet and accept that humans cannot be creative, but with such a restrictive view of creativity the argument no longer works, as creativity will not be needed to outsmart us in terms of general intelligence. Anyway, the recent and intellectually crowd-sourced paper The Surprising Creativity of Digital Evolution: A Collection of Anecdotes from the Evolutionary Computation and Artificial Life Research Communities offers a fascinating collection of counterexamples to the claim that computer programs cannot be creative.

2. We should distinguish between narrow AI and artificial general intelligence (AGI). Therefore, as far as a future AGI breakthrough is concerned, we should not be taken in by the current AI hype, because it is all just a bunch of narrow AI applications, irrelevant to AGI.

The dichotomy between narrow AI and AGI is worth emphasizing, as UC Berkeley computer scientist Michael Jordan does in his interesting recent essay Artificial Intelligence  - The Revolution Hasn’t Happened Yet. That discourse offers a healthy dose of skepticism concerning the imminence of AGI. And while the claim that progress in narrow AI is not automatically a stepping stone towards AGI seems right, the oft-repeated stronger claim that no progress in narrow AI can serve as such a stepping stone seems unwarranted. Can we be sure that the poor guy in the cartoon on the right (borrowed from Ray Kurzweil's 2005 book; click here for a larger image) can carry on much longer in his desperate production of examples of what only humans can do? Do we really know that AGI will not eventually emerge from a sufficiently broad range of specialized AI capabilities? Can we really trust Thore Husfeldt's image suggesting that Machine Learning Hill is just an isolated hill rather than a slope leading up towards Mount Improbable where real AGI can be found? I must admit that my certainty about such a topography in the landscape of computer programs is somewhat eroded by recent dramatic advances in AI applications. I've previously mentioned as an example AlphaZero's extraordinary and self-taught way of playing chess, made public in December last year. Even more striking is last week's demonstration of the Google Duplex personal assistant's ability to make intelligent phone conversations. Have a look:3

Footnotes

1) See Eliezer Yudkowsky's recent There’s No Fire Alarm for Artificial General Intelligence for a very interesting comment on the lack of convincing arguments for the non-imminence of an AI breakthrough.

2) The image appears some 22:30 into the video, but I really recommend watching Thore's entire talk, which is both instructive and entertaining, and which I had the privilege of hosting in Gothenburg last year.

3) See also the accompanying video exhibiting a wider range of Google AI products. I am a bit dismayed by its evangelical tone: we are told what wonderful enhancements of our lives these products offer, and there is no mention at all of possible social downsides or risks. Of course I realize that this is the way of the commercial sector, but I also think a company of Google's unique and stupendous power has a duty to rise above that narrow-minded logic. Don't be evil, goddamnit!

torsdag 3 maj 2018

Rekommenderad läsning: Aaronson om Caplan om utbildning

Den amerikanske nationalekonomen Bryan Caplans The Case Against Education: Why the Education System is a Waste of Time and Money är en av de mest störande böcker jag läst på länge, och den är det i kraft av att presentera mångfacetterad empirisk evidens och starka argument för slutsatser jag finner motbjudande. Caplans slutsatser kan sammanfattas i två huvudpunkter. För det första att utbildning överlag handlar mindre om att skaffa sig kunskaper än om att signalera sin allmänna arbetsduglighet (vilken Caplan kokar ned till de tre huvudkomponenterna intelligens, arbetsvillighet, och foglighet). Och för det andra att medan utbildning (ofta) är lönsam för individen, så är den (på det hela taget) olönsam för samhället som helhet. De båda slutsatserna är relaterade på följande vis: om det stämmer att utbildning mest handlar om signalering för att skaffa sig konkurrenskraft på arbetsmarknaden, så är det naturligt att tänka sig att det positiva utbyte jag får av att utbilda mig i hög grad kancelleras av det negativa utbyte (fortfarande av min utbildning) som mina potentiella konkurrenter på arbetsmarknaden får genom att hamna i en svagare konkurrensställning gentemot mig. Om deras totala negativa utbyte är tillräckligt stort kan utbildningen gå från att vara lönsam för mig till att vara olönsam på aggregerad (dvs samhälls-)nivå.

Vad är det då jag finner motbjudande med dessa slutsatser? Mycket kort uttryckt handlar det om att jag är en varm vän av utbildning och att jag alltid har trott på det som en väg till allmänt välstånd, men om det verkligen stämmer som Caplan säger att utbildning är olönsam på samhällsnivå så blir jag tvungen att revidera åtminstone delen om utbildning som väg till allmänt välstånd.

Aningen mindre kort handlar det om externalitetsinternalisering, en nationalekonomisk princip som (i ofullständig sammanfattning) säger att när en individs handlande har negativa återverkningar på tredje part så blir det bäst för helheten om samhällssystemet korrigeras på sådant vis att individen själv bär kostnaderna för dessa återverkningar. Koldioxiden är ett bra exempel: när jag kör bil och därigenom släpper ut koldioxid i atmosfären ger det en negativ klimatpåverkan som till största delen drabbar andra än mig själv, och externalitetsinternaliseringsprincipen säger då att mina utsläpp borde beskattas. En mycket god idé, och jag är allmänt en vän av externalitetsinternalisering (som tumregel i samhällsplanering, om än inte som helig princip att följas dogmatiskt). Problemet här är att om vi håller fast vid det och om Caplans slutsatser är riktiga så borde utbildning beskattas, snarare än subventioneras såsom fallet är idag. Sannerligen en motbjudande tanke!

Problemet för mig personligen är att jag ömt vårdar en bild av mig själv såsom rationell, och om jag accepterar argument som starka utan att finna minst lika starka motargument så kräver rationaliteten att jag accepterar argumentens slutsatser. Detta har skapat en spänning i mitt huvud som legat kvar oförlöst allt sedan jag för ett par månader sedan läste Caplans bok, och jag har därför hett önskat finna motargument kraftfulla nog att skjuta de utbildningsskeptiska slutsatserna i sank. Jag har inte funnit dem ännu, men Scott Aaronsons ambitiösa recension av boken är ett steg i den önskade riktningen och det bästa sådant steg jag hittills tagit del av. Recensionen är verkligen läsvärd, inte minst för den som vill förstå huvuddragen i Caplans bok och den empiri som åberopas utan att behöva läsa en hel bok, för Aaronson ger en utförlig och rättvis sammanfattning av dessa innan han ger sig i kast med sina motargument. För den som med intellektuellt allvar intresserar sig för utbildningsfrågor är jag nästan böjd att utnämna det till obligatoriskt att ta del av Caplans tankegångar, antingen via Aaronson eller genom att gå direkt till boken.

måndag 16 april 2018

Till storms mot de akademisk-romantiska och ekonomistisk-vulgära synsätten

I oktober förra året bidrog jag till ett symposium rubricerat Vetenskaplig redlighet och oredlighet arrangerat av Kungliga Vetenskaps- och Vitterhets-Samhället i Göteborg, och ombads efteråt stöpa om mitt föredrag till skriftligt format för publicering i en samlingsvolym ägnad symposiet. Jag är nu färdig med min uppsats, vilken (liksom mitt föredrag) fick rubriken... Uppsatsen kan beskrivas som ett 10-sidigt destillat av den forskaretiska ståndpunkt som präglar min bok Here Be Dragons: Science, Technology and the Future of Humanity från 2016 - en ståndpunkt som jag definierar i kontrast mot de vanligt förekommande synsätt jag valt att kalla de akademisk-romantiska och ekonomistisk-vulgära (varav jag själv bär på en dragning mot det förstnämnda, fast jag här tar avstånd från det). Om någon tycker att uppsatsen känns som en enda lång moralkaka så... javisst, lite så är det nog. Men läs den ändå!