tisdag 4 december 2018

On the editorial board of the Journal of Controversial Ideas

There has been a bit of media attention in recent weeks around the soon-to-be-launched scientific journal named The Journal of Controversial Ideas, whose most novel (and controversial!) feature is that it explicitly allows its authors to write under pseudonym. The three founding editors, philosophers Jeff McMahan, Francesca Minerva and Peter Singer, have gathered a highly interdisciplinary (albeit with particular emphasis on ethics and philosophy) collection of 41 further researchers to serve on the editorial board, and the time has come for me to come forth as one of these editorial board members.

Of course any scientific journal ought (unless it specifically aims to be pedestrian, but what sort of boring journal would that be?) to welcome controversial ideas, but the point of the new journal is to be a place to go for publishing scientific and philosophical work that is not just controversial but inflammable and runs the risk of eliciting Twitter storms and death threats (all too common phenomena that some of the editors have direct personal experience with). On the other hand, an obvious objection to the enterprise is that hiding behind anonymity may seem to go against the spirit of the scientific enterprise. Indeed, the initiative has generated a good deal of criticism, ranging from vulgar tweets misrepresenting the purpose of the journal as serving to "anonymously ponder racist, sexist, transphobic, pro-colonialist, pro-exploitation ideas without fear of backlash", to the rather more sane and measured concerns by Bradley Campbell and Clay Routledge that "cordoning off controversial ideas into a special journal allows the reactions of activists to define the journal’s subject matter. Instead of sharing a common methodology or field of study, the contributing authors would have in common only their identity as actual or potential victims of censorship", to which they add that we should be careful about "organizing institutions around competing narratives of victimhood".

In a Vox interview, Francesca Minerva emphasizes the journal's role in protecting academic freedom, which "is fundamental to get closer to the truth. If you can see things from a different vantage point, you understand better your own arguments and how the world works. That can never happen if people are silenced". Talking to the BBC, Jeff McMahan adds that "all of us will be very happy if, and when, the need for such a journal disappears, and the sooner the better. But right now in current conditions something like this is needed".

Personally, I see good arguments on both sides of the debate. But I value diversity among scientific journals, and view The Journal of Controversial Ideas as an interesting experiment and a potentially valuable addition to the current range of journals. We'll see how it plays out.

torsdag 29 november 2018

Frukost med Formas

Idag var jag uppe med tuppen, och har redan hunnit med ett frukostframträdande på Nobelmuseet i forskningsstiftelsen Formas regi om ett ämne som ligger mig varmt om hjärtat: Forskning - på gott och ont? Under ledning av Formas generaldirektör Ingrid Petersson fick en panel i vilken jag fick sällskap av filosofen Jessica Nihlén Fahlquist, Stockholms universitets rektor Astrid Söderbergh Widding och forskningsminister Helene Hellmark Knutsson hyggligt mycket sagt inom ramen för den timme vi hade på oss:

söndag 25 november 2018

Johan Norberg is dead wrong about AI risk

I kind of like Johan Norberg. He is a smart guy, and while I do not always agree with his techno-optimism and his (related) faith in the ability of the free market to sort everything out for the best, I think he adds a valuable perspective to public debate.

However, like the rest of us, he is not an expert on everything. Knowing when one's knowledge on a topic is insufficient to provide enlightenment and when it is better to leave the talking to others can be difficult (trust me on this), and Norberg sometimes fails in this respect. As in the recent one minute and 43 seconds episode of his YouTube series Dead Wrong® in which he comments on the futurology of artificial intelligence (AI). Here he is just... dead wrong:

No more than 10 seconds into the video, Norberg incorrectly cites, in a ridiculing voice, Elon Musk as saying that "superintelligent robots [...] will think of us as rivals, and then they will kill us, to take over the planet". But Musk does not make such a claim: all he says is that unless we proceed with suitable caution, there's a risk that something like this may happen.

Norberg's attempt at immediate refutation - "perhaps super machines will just leave the planet the moment they get conscious [and] might as well leave the human race intact as a large-scale experiment in biological evolution" - is therefore just an invalid piece of strawmanning. Even if Norberg's alternative scenario were shown to be possible, that is not sufficient to establish that there's no risk of a robot apocalypse.

It gets worse. Norberg says that
    even if we invented super machines, why would they want to take over the world? It just so happens that intelligence in one species, homo sapiens, is the result of natural selection, which is a competitive process involving rivalry and domination. But a system that is designed to be intelligent wouldn't have any kind of motivation like that.
Dead wrong, Mr Norberg! Of course we do not know for sure what motivations a superintelligent machine will have, but the best available theory we currently have for this matter - the Omohundro-Bostrom theory for instrumental vs final AI goals - says that just this sort of behavior can be predicted to arise from instrumental goals, pretty much no matter what the machine's final goal is. See, e.g., Bostrom's paper The superintelligent will, his book Superintelligence, my book Here Be Dragons or my recent paper Challenges to the Omohundro-Bostrom Framework for AI Motivations. Regardless of whether the final goal is to produce paperclips or to maximize the amount of hedonic well-being in the universe, or something else entirely, there are a number instrumental goals that the machine can be expected to adopt for purpose of promoting that goal: self-preservation (do not let them pull the plug on you!), self-improvement, and acquisition of hardware and other resources. There are other such convergent instrumental goals, but these in particular point in the direction of the kind of rivalrous and dominant behavior that Norberg claims a designed machine wouldn't exhibit.

Norberg cites Steven Pinker here, but Pinker is just as ignorant as Norberg of serious AI futurology. It just so happens that when I encountered Pinker in a panel discussion last year, he made the very same dead wrong argument as Norberg now does in his video - just minutes after I had explained to him the crucial parts of Omohundro-Bostrom theory needed to see just how wrong the argument is. I am sure Norberg can rise above that level of ineducability, and that now that I am pointing out the existence of serious work on AI motivations he will read at least some of references given above. Since he seems to be under the influence of Pinker's latest book Enlightenment Now, I strongly recommend that he also reads Phil Torres' detailed critique of that book's chapter on existential threats - a critique that demonstrates how jam-packed the chapter is with bad scholarship, silly misunderstandings and outright falsehoods.

fredag 23 november 2018

Videofilmad i lärdomsstaden

Gårdagens Debatt i Lund (som jag annonserade i mina två föregående bloggposter) med Andreas Ekström (moderator), Anna Felländer, Thore Husfeldt, Alfred Ruth och mig på temat "Hur smart är konstgjord intelligens?" videofilmades och kan ses nedan. Det timslånga samtalet kretsade kring den artificiella intelligensens framtid, och blev bitvis intressant, men jag känner (liksom gissningsvis två av de andra panelisterna) att jag gott kunde ha tagit för mig lite mer. Kanske nästa gång - i Stockholm på torsdag.

måndag 19 november 2018

Förhandssnack inför AI-debatten i Lund på torsdag

Det har varit lite förhandssnack här och var inför den AI-debatt i Lund på torsdag kl 20.00 som jag annonserade i min förra bloggpost.


1) Jag tar tillfället i akt att visa den kärleksfulla nidbild av mig som Thore, med anspelning på min bok Here Be Dragons, ritade i samband med min bemärkelsedag förra året.

2) Det är inte ofta som schacksverige uppmärksammar mina framträdanden, så att båda dessa sajter kom att göra det denna gång får mig att höja på ögonbrynet. En tillfällighet? Eller räcker den schackrelaterade bild som arrangörerna i Lund använt sig av i annonseringen som förklaring? Jag tror inte att redaktörerna på Inte bara schack och schack.se samarbetar, men det skulle kunna finnas en tredje part - någon AI-intresserad schackspelare någonstans i landet - som tipsat båda, och som därmed utgör den gemensamma nämnaren. Kan det rentav vara så att någon läsare av denna blogg sitter på information som kan stilla min nyfikenhet?

3) Vad gäller den sistnämnda vill jag en gnutta skamset framhålla att den inte är den bästa intervju jag givit. Jag svarade på frågorna via epost och hade ont om tid, och antog lite förhastat att det skulle komma följdfrågor. Jag borde åtminstone ha utvecklat att par av de mer korthuggna svaren. "Den potential AI har att berika samhällsekonomin och våra liv är enorm, men det gäller även riskerna" hade helt klart varit ett bättre och mer balanserat svar än "Riskerna är enorma" på frågan om huruvida vi bör vara rädda för AI.4 Och vad gäller jämförelsen mellan ett schackprogram och en robotiserad kassörska kunde jag exempelvis ha farmhållit att medan schackprogrammet har en välavgränsad spelplan, väldefinierade regler och en klockrent specificerad målfunktion så är allt detta ofantligt mycket mer komplicerat och oklart för en snabbköpskassörska, som behöver vara kapabel att hantera inte bara standardsituationer som att kvittorullen tar slut eller att kundens kreditkort visar sig ogiltigt, utan även en miljard andra situationer, som 6-åringen som gråter över att ha tappat bort sin förälder någonstans i den stora affären, pensionären som insisterar på att det stått i tidningen att grönkålen kostar 19:90, och fyllot som vomerar på varubandet eller som ställd inför upplysningen att endast personaltoalett finns svarar med att hota att urinera i lösgodiset.

4) Strängt taget tillför väl inte det längre svaret någon information som läsaren inte kan väntas redan känna till, men det handlar här mer om social signalering än om informationsöverföring i snäv mening. Det är viktigt för mig att framstå som en klok och balanserad tänkare snarare än som en extremist och en domedagspredikant.

onsdag 14 november 2018

Paneldiskussioner i Lund och Stockholm

De kommande två veckorna skall jag delta i paneldiskussioner i Lund respektive Stockholm, och få tillfälle att dryfta frågor om framtida teknikutveckling och dess sociala konsekvenser, med bland andra Helene Hellmark Knutsson, minister för högre utbildning och forskning i vår övergångsregering, och min favoritmotståndare i AI-frågor på senare år, datalogen Thore Husfeldt. Torsdagar klockan åtta verkar vara tiden som gäller numera:

tisdag 6 november 2018

Om effektiv altruism i P4

Idag har jag för tredje gången inom loppet av en månad besökt P4 Göteborgs förmiddagsprogram (jag var ju där såväl fredagen den 5 som onsdagen den 17 oktober). Stefan Livh, som brukar ta emot, var denna gång på semester, så jag fick istället snacka med den vikarierande programledaren Erika Löthberg. Vårt samtal börjar cirka 1:23:30 in i sändningen, och håller med diverse avbrott på tills min önskelåt för dagen (Over the Rainbow med Judy Garland från 1939) drar igång vid cirka 1:48:35.

Denna gång slog jag ett slag för effektiv altruism, som är den gemensamma beteckningen på ett gryende forskningsområde och en snabbt växande social rörelse, vilka båda handlar om hur man som individ med ambitionen att bidra till att göra världen bättre kan åstadkomma det så effektivt som möjligt. Den som vill veta mer om det vi pratade om kan exempelvis ta del av EA Sveriges introduktion till effektiv altruism, GiveWells topplista över effektiva välgörenhetsprojekt, och karriärrådgivningsorganisationen 80,000 hours.