Visar inlägg med etikett matematik. Visa alla inlägg
Visar inlägg med etikett matematik. Visa alla inlägg

måndag 18 juli 2022

On systemic risk

For the latest issue of ICIAM Dianoia - the newsletter published by the International Council for Industrial and Applied Mathematics - which was released last week, I was invited to offer my reflections on a recent document namned Briefing Note on Systemic Risk. The resulting text can be found here, and is reproduced below for the convenience of readers of this blog.

* * *

Brief notes on a Briefing Note

I have been asked to comment on the Briefing Note on Systemic Risk, a 36 page document recently released jointly by the International Science Council, the UN Office for Disaster Risk Reduction, and an interdisciplinary network of decision makers and experts on disaster risk reduction that goes under the acronym RISKKAN. The importance of the document lies not so much in the concrete subject-matter knowledge (of which in fact there is rather little) that an interested reader can take away from it, but more in how it serves as a commitment from the three organizations to take the various challenges associated with systemic risk seriously, and to work on our collective ability to overcome these challenges and to reduce the risks.

So what is systemic risk? A first attempt at a definition could involve requiring a system consisting of multiple components, and a risk that cannot be understood in terms of a single such component, but which involves more than one of them (perhaps the entire system) and arises not just from their individual behavior but from their interactions. But more can be said, and an appendix to the Briefing Note lists definitions offered by 22 different organizations and groups of authors, including the OECD, the International Monetary Fund and the World Economic Forum. Recurrent concepts in these definitions include complexity, shocks, cascades, ripple effects, interconnectedness and non-linearity. The practical approach here is probably that we give up on the hope for a clear set of necessary and sufficient conditions on what constitutes a systemic risk, and accept that the concept has somewhat fuzzy edges.

A central theme in the Briefing Note is the need for good data. A system with many components will typically also have many parameters, and in order to understand it well enough to grasp its systemic risks we need to estimate its parameters. Without good data that cannot be done. A good example is the situation the world faced in early 2020 as regards the COVID pandemic. We were very much in the dark about key parameters such as R0 (the basic reproduction number) and the IFR (infection fatality rate), which are properties not merely of the virus itself, but also of the human population that it preys upon, our social contact pattern, our societal infrastructures, and so on – in short, they are system parameters. In order to get a grip on these parameters it would have been instrumental to know the infection’s prevalence in the population and how that quantity developed over time, but the kind of data we had was so blatantly unrepresentative of the population that experts’ guesstimates differed by an order of magnitude or sometimes even more. A key lesson to be remembered for the next pandemic is the need to start sampling individuals at random from the population to test for infection as early as possible.

Besides parameter estimation within a model of the system, it is of course also important to realize that the model is necessarily incomplete, and that system risk can arise from features not captured by it. At the very least, this requires a well-calibrated level of epistemic humility and an awareness of the imprudence of treating a risk as nonexistent just because we are unable to get a firm handle on it.

Early on in the Briefing Note, it is emphasized that while studies of systemic risk have tended to focus on “global and catastrophic or even existential risks”, the phenomenon appears ”at all possible scales – global, national, regional and local”. While this is true, it is also true that it is systemic risk at the larger scales that carry the greatest threat to society and arguably are the most crucial to address. An important cutoff is when the amounts at stake become so large that the risk cannot be covered by insurance companies, and another one is when the very survival of humanity is threatened. As to the latter kinds of risk, the recent monograph by philosopher Toby Ord gives the best available overview and includes a chapter on the so-called risk landscape, i.e., how the risks interact in systemic ways.

Besides epidemics, the concrete examples that feature the most in the Briefing Note are climate change and financial crises. These are well-chosen due both to their urgent need to be addressed and their various features typical of systemic risk. Still, there are other examples whose absence in the report constitute a rather serious flaw. One is AI risk, which is judged by Ord (correctly, in my view) to constitute the greatest existential risk of all to humanity in the coming century. A more abstract one, but nonetheless important, is the risk of human civilization ending up more or less irreversibly in the kind of fixed point – somewhat analogous to mutual defection in the prisoners’ dilemma game but typically much more complex and pernicious – that Scott Alexander calls Moloch and that Eliezer Yudkowsky speaks more prosaically of as inadequate equilibria.

måndag 26 oktober 2020

Framträdanden i november

Nästa månad (november 2020) gör jag en hel del föredrags- och panelframträdanden, varav följande är öppna för allmänheten och i de flesta fall digitalt:

fredag 19 juli 2019

Finns information? Ett meningsutbyte med Ulf Danielsson

För några veckor sedan hade jag ett meningsutbyte med fysikern Ulf Danielsson1 på Patrik Lindenfors Facebooksida om begreppet information och huruvida information verkligen existerar. Jag fann det tillräckligt intressant för att förtjäna publicering har på bloggen, och med Ulfs tillåtelse gör jag det här nedan.

Det hela började med att Patrik läste en intervju med Ulf, rubricerad Tro inte på spöken, i senaste Axess, och blev provocerad, något han uttryckte i sin Facebookpost. Jag hade själv blivit provocerad2 på ungefär samma sätt när jag läste samma intervju någon vecka tidigare. Hur som helst, Ulf svarade Patrik, jag hakade på, och resultatet blev som följer.

* * *

UD: Det som är märkligt är att det jag hävdar inte ses som en självklarhet för den med en naturvetenskaplig grundsyn. Att säga ”information är en egenskap hos materien” är snömos. Låt mig ta ett exempel. En vägskylt med talet 70. Skylten informerar oss om att här får man inte köra fortare än 70 km/h (åtminstone om skylten befinner sig i Sverige). Denna information är inte alls en egenskap hos själva skylten. Det finns inte ens något ”70” hos den materia som bygger upp skylten. Om en symbolreform genomfördes där siffrorna 3 och 7 bytte betydelse skulle detta inte på något sätt förändra karaktären hos den materia som skylten består av. Isolerat innehåller skylten ingen som helst information om en hastighetsbegränsning. För att det som skylten avses förmedla skall ha någon mening krävs att ett annat materiellt system, vanligen den biologiska hjärnan hos en bilförare, gör en tolkning av skylten och förhoppningsvis justerar sitt beteende. Den aktuella informationen existerar inte oberoende av denna växelverkan utan enbart i relation till en uttolkare.

Mitt enkla budskap är att allt är materia och att alla de modeller vi gör av världen, inklusive de begrepp vi använder oss av, inte existerar på annat sätt än i sin materiella form. Vi är begränsade biologiska varelser, fångna i och delar av samma fysiska värld som den vi vill beskriva. Det finns en objektiv fysisk värld (detta är förövrigt det enda som finns) som vi med viss framgång lyckas beskriva med hjälp av vetenskapliga modeller som gör bruk av begrepp som matematik, information och naturlagar. Dessa begrepp utgör en karta som sitter rent fysiskt i våra huvuden och liksom alla kartor inte är identisk med den objektiva verklighet den försöker spegla.

I det dagliga livet behöver man inte vara så noga med åtskillnaden. Man kan många gånger handskas med begreppen som om de var identiska med verkligheten. Det är just det som är så fiffigt med riktigt bra modeller. Men när man vill gå lite djupare är det helt centralt att upprätthålla distinktionen. Begreppet information har i vissa kretsar getts en betydelse som går långt utöver den väldefinierade roll den spelar i vetenskapligt modellbygge (inklusive inom den esoteriska fysik som jag sysslar med rörande kvantgravitation och svarta hål.) Den ges i populärkulturella sammanhang en obeorende existens som inbjuder till spekulationer som gränsar till det rent religiösa när man inbillar sig att mänskliga medvetanden kan reduceras till ettor och nollor och via något som liknar själavandring laddas upp på datorer. Det är detta larv jag vänder mig emot.

OH: Om medvetandet kan man ha olika uppfattning, Ulf, vilket du och jag har (se gärna Avsnitt 3 i http://www.math.chalmers.se/~olleh/UploadingPaper.pdf), vilket i sin tur är helt i sin ordning. Men din tvärsäkerhet förvånar mig en smula, och om jag hade varit en upload hade jag blivit förnärmad och förgrymmad över den flagranta kol-chauvinism du ger uttryck för!

Att döma av ditt exempel med 70-skylten verkar du ha en Searliansk syn på informationsinnehåll och medvetande - en syn jag personligen har svårt att acceptera. Låt mig utmana med att i ditt exempel byta ut 70-skylten mot plåten ombord på Pioneer 10 och 11 - eller för den delen en sekvens av N1*N2 ettor och nollor, där N1 och N2 är hyfsat stora primtal med ungefär samma kvot N1/N2 som höjd/längd hos plåten, och där ettorna och nollorna svarar mot svarta och vita pixlar i en digital bild av plåten. Anser du att även denna plåt, och dess digitala motsvarighet, saknar informationsinnehåll? Jag gissar (men rätta mig gärna om jag har fel!) att du i konsekvensens namn svarar nej på det, och därmed hamnar i en ståndpunkt jag finner orimlig.

UD: Om du inte har någon slug baktanke tillför dina exempel ingenting nytt. Min inställning är konsekvent densamma. Att symboler och ord i sig själva och oberoende av sitt sammanhang skulle kunna bära på en absolut mening jämställer jag med magi vilket är för mig fullständigt främmande. Det vore intressant om du gav din tolkning av exemplet med 70-skylten. Jag är särskilt intresserad av på vilket sätt en symbolreform (där betydelsen av symbolerna 3 och 7 byts ut) registreras av den materia som bygger upp skylten.

OH: En enda bit ger ingen information utan kontext. Knappast 10 bitar heller, men någonstans kring uppskattningsvis 100 eller 1000 bitar börjar det bli möjligt att förmedla något utan att mottagaren behöver känna till kontexten.

70-skylten är helt enkelt för torftig för att förmedla information till den som inte har relevant kodbok. Pioneer-plåten är det inte. Den bär på information som varje tillräckligt avancerad civilisation i vårt universum åtminstone till del kommer att (trots avsaknad av med oss gemensamt kulturell historia) kunna avkoda och på så vis begripa vår avsikt.

Måhända går det här att invända att det bara är genom den kontext som vårt universum och dess fysik ger som Pioneer-plåten blir begriplig, och att plåten därmed i sig inte bär på någon information. Den tankegången, om än en smula sökt, kan jag ändå ha en viss förståelse för, och jag blir i så fall tvungen att korrigera mitt exempel ett snäpp till:

Låt oss sända meddelandet

    1101110111110111111101111111111101111111111111011111111111111111011111111111111111110111111111111111111111110...
Om vi utsträcker det till säg 1000 bitar så vågar jag lova att varje tillräckligt avancerad civilisation (i vårt universum med vår fysik, eller i något helt annat) som läser meddelandet kommer att tänka "aha, primtalssekvensen!". Denna information ligger i själva meddelandet och kräver ingen kontext överhuvudtaget. Eller om vi skickar en tillräckligt stor 3D-realisering (två rumsdimensioner och en tidsdimension) av Game of Life, så kommer reaktionen att bli "Oh wow, vilken cool cellulär automat, kolla de har upptäckt hur man riggar en fabrik som tillverkar gliders!". Denna information ligger i meddelandet och kräver ingen kontext överhuvudtaget. Och från Game of Life-exemplet är det lätt att gå vidare och inse att vi med tillräcklig ansträngning kan berätta i stort sett vad vi vill om livet här på jorden utan att mottagaren behöver ha någon med oss gemensam kodbok eller kontext överhuvudtaget.

Allt detta kan man förstås förneka om man ditchar den matematiska platonismen och hävdar att matematiken blott är en kulturell konstruktion, men då har man verkligen irrat bort sig. Primtalssekvensen finns, oavsett oss människor, eller något fysiskt överhuvudtaget.3

UD: Jag tror vi gjort framsteg. Du tillstår att
    det bara är genom den kontext som vårt universum och dess fysik ger som Pioneer-plåten blir begriplig, och att plåten därmed i sig inte bär på någon information.
Du ser det visserligen som lite sökt men ändå som varande en möjlig ståndpunkt. I mer lättviktiga sammanhang behöver man inte vara så petig men när det gäller det vi nu avhandlar är det centralt. Utan ett yttre kontext bär alltså inte ens Pioneerplåten på någon information.

Vi skulle kunna lämna allt vid denna bräckliga enlighet och ta sommarlov, men jag kan inte låta bli att dra det ett varv till. Precis som du indikerat kopplar detta över till Searle och gör enligt min mening teorin om medvetande baserat på beräkningar ohållbar. En räknande dator är inte mer medveten än en 70-skylt. Oavsett om någon tittar på den eller ej.

Jag gissar att din utväg blir en platonsk syn på matematiken – vilket jag förstår är vad du förespråkar. För egen del finner jag en utanför materien existerande idévärld full med matematik lika orimlig som en religiöst motiverad andevärld. Lyckligtvis finns andra alternativ till platonismen än kulturell konstruktion. Som motståndare till allt vad dualism heter ser jag det som betydligt rimligare att matematiken till en del är biologiskt konstruerad och djupt rotad i våra evolverade hjärnor baserad på en rent fysisk erfarenhet av världen. För mig är fysiken och materien mer fundamental än matematiken. Om detta är vi nog knappast överens.

OH: Tack Ulf för i någon mån klargörande svar! Om vi här har närmat oss roten till våra divergerande ståndpunkter är det helt klart ett framsteg. Att fysiken skulle utgöra ett fundament för matematiken är mig mycket riktigt främmande, men är kanske inte så lätt att motbevisa (bortom i intuitiva upplevelser grundade utrop typ "hur i hela fridens namn skulle ett stycke materia kunna ha betydelse för huruvida antalet primtal är oändligt?"). Vi kanske får anledning att återkomma i ämnet?

Tills dess, tillåter du att jag återpublicerar vårt replikskifte på min blogg?

UD: Så många gånger du vill!

Fotnoter

1) Jag har känt Ulf sedan 2006 (tror jag det är), jag tycker bra om honom, och vi har oftast (om än inte alltid, vilket väl framgår av denna bloggpost) utmärkt harmonierande uppfattningar om livet, universum och allting.

Bland mina möten med Ulf är det jag kanske allra helst drar mig till minnes vårt gemensamma uttåg från klimatmötet i Engelsberg den 6 maj 2010. Själva mötet var ganska gräsligt, och (i efterhand) uppenbart riggat för att framställa klimatvetenskap och klimatförnekeri som två lika legitima utgångspunkter. Ulf och jag var där för att, jämte Johan Rockström, försvara vetenskapen och det vetenskapliga förhållningssättet mot attacker från klimatförnekare som Peter Stilbs och Maggie Thauersköld Crusell. Innan det avslutande eftermiddagspasset var över reste Ulf och jag oss för att lämna lokalen. Detta bottnade inte i något slags protest mot hur mötet utvecklats (även om en sådan protest helt klart hade varit befogad), utan helt enkelt i att vi behövde gå för att hinna med ett tåg. Medan vi var på väg ut ur lokalen hojtade den ökände klimatförnekaren och pseudovetenskapsivraren Nils-Axel Mörner att "nu lämnar råttorna det sjunkande skeppet!", varpå mötets moderator Lotta Gröning svarade att "så skall man väl inte säga om denna vackra byggnad". Att på detta sätt bli förolämpad av en fullblodsstolle som Mörner har jag inget emot, men jag hade mycket väl kunnat känna mig illa till mods av Grönings implicita instämmande i Mörners zoologiska kategorisering, om det inte vore för (och detta är poängen med att jag återger detta minne) att förolämpningen riktades inte bara mot mig utan även mot Ulf, vars insatser som fysiker och intellektuell är tillräckligt beundransvärda för att min känsla av att ha blivit förolämpad klart skulle övereskuggas av den smickrande upplevelsen av att ha buntats ihop med en riktigt framstående professorskollega.

2) Rubrikens "spöken" syftar på datorer med medvetande. Ofta med en så braskande rubrik kan man misstänka att någon redigerare gått över styr, men i detta fall är den grundad i Ulfs intervjusvar, som innehåller en passage med ordalydelsen
    att det skulle kunna finnas något slags medvetande, någon subjektiv närvaro inuti datorn, det är lika dumt som att tro på spöken.
Frågan om medvetandets natur hör till de största olösta problem som överhuvudtaget finns, och att uttrycka sig så kategoriskt som Ulf gör här tycker jag uppriktigt talat tyder på en illa kalibrerad grad av epistemisk ödmjukhet.

En ledtråd till hur Ulf tänker i denna fråga finns i ingressens "Det finns inga som helst belägg för att datorer skulle ha ett medvetande". Det kan man förstås hävda, men man kan med samma kraft hävda att det heller inte finns några belägg för att datorer inte skulle (kunna) ha ett medvetande, och Ulf lägger inte fram något argument som förmår bryta denna symmetri. Exakt vad som får honom att likväl vara så tvärsäker vet jag inte, men jag misstänker att han begår samma förhastade jump to conclusions som jag tillskriver Massimo Pigliucci i min uppsats Aspects of mind uploading:
    Pigliucci knows of exactly one conscious entity, namely himself, and he has some reasons to conjecture that most other humans are conscious as well, and furthermore that in all these cases the consciousness resides in the brain (at least to a large extent). Hence, since brains are neurobiological objects, consciousness must be a (neuro-)biological phenomenon. This is how I read Pigliucci’s argument. The problem with it is that brains have more in common than being neurobiological objects. For instance, they are also material objects, and they are computing devices. So rather than saying something like “brains are neurobiological objects, so a decent theory of consciousness is neurobiological”, Pigliucci could equally well say “brains are material objects, hence panpsychism”, or he could say “brains are computing devices, hence CTOM [computational theory of mind]”, or he might even admit the uncertain nature of his attributions of consciousness to others and say “the only case of consciousness I know of is my own, hence solipsism”. So what is the right level of generality? Any serious discussion of the pros and cons of CTOM ought to start with the admission that this is an open question. By simply postulating from the outset what the right answer is to this question, Pigliucci short-circuits the discussion, and we see that his argument is not so much an argument as a naked claim.

3) Progressionen i denna replik, från primtalssekvensen via Game of Life till vår fysiska värld, är ett pedagogiskt grepp jag lånat av vännen och matematikerkollegan Johan Wästlund.

Edit 22 juli 2019: Samma meningsutbyte finns nu, i annan (men ändå ganska lik) inramning på Ulfs blogg.

måndag 12 februari 2018

Meningsutbyte med Bo Rothstein om matematisk modellering

Bo Rothstein är med varje rimligt mått mätt en av Sveriges mest framstående statsvetare, och på tidningarnas debattsidor utgör han en frisk fläkt. Ibland går han dock en smula överstyr i sin argumentation, som i gårdagens artikel på DN Debatt, rubricerad Felaktig tolkning av metoo riskerar att skada tilliten. Det finns mycket att diskutera och kritisera i den artikeln, men här skall jag uppehålla mig vid en enda detalj, nämligen följande passage:
    [På] min egen arbetsplats, Göteborgs universitet, [utförs] ett antal undersökningar [...] där de tillfrågade fått svara på frågan om de under det senaste året utsatts för sexuella trakasserier. Resultatet är att cirka 2 procent av kvinnorna uppger att de blivit utsatta (och ungefär 1 procent av männen).

    Det är statistiskt inte helt enkelt att översätta dessa två procent per år till längre tidsperioder, men om man utgår från en anställningstid om 20 år är en någotsånär rimlig uppskattning att femton procent av de anställda kvinnorna blivit utsatta för vad de själva uppfattar vara sexuella trakasserier någon gång under en tjugoårsperiod.

Dessa 15% synes mig gripna ur luften, något som föranledde mig att igår skriva en Facebookuppdatering med följande innehåll.
    En sak jag inte begriper med den här artikeln är detta: om man är kritisk mot metoo och tycker att ett huvudproblem är att det är tyst kring vetenskapliga resultat om hur vanligt förekommande sexuella trakasserier är, på vad sätt skulle det då förbättra situationen att en ledande statsvetarprofessor killgissar1 på DN Debatt att 15% av kvinnliga anställda vid Göteborgs universitet blivit utsatta för sexuella trakasserier under sistlidna 20-årsperiod?
Jag skrev dock detta med en lite obehaglig magkänsla av att jag själv faktiskt kunde tänkas ha bidragit (om än helt oavsiktligt) till den av Rothstein anförda procentsiffran. Den 27 november förra året tog jag nämligen del av en Facebookuppdatering från samme Rothstein, där han frågade huruvida en årlig trakasserisannolikhet om 1,6% (en sifferuppgift som härrör från samma undersökning vid Göteborgs universitet men som avser en poolning av grupperna män och kvinnor) kunde översättas till en 32%-ig sannolikhet att bli trakasserad någon gång under en 20-årsperiod. Jag svarade nej, och Rothstein bad mig utveckla, varvid jag utvecklade:
    Det första du skall tänka på är huruvida du har tillräcklig information för att besvara din fråga. Det har du inte här, för sannolikheten att trakasseras inom loppet av en tjugoårsperiod beror inte bara på den årliga sannolikheten, utan också på beroendestrukturen mellan att trakasseras ett år och ett annat år. Givet att den årliga siffran är rätt kan, beroende på denna beroendestruktur, tjugoårssannolikheten landa var som helst mellan 1,6% och 32%. För att få fram en exaktare siffra krävs modellantaganden. Tre exempel:

    (1) Om trakasseri ett år immuniserar en person mot trakasseri alla kommande år (ett fullständigt orimligt antagande), så att det varje år uteslutande är nya personer som syns i statistiken, så fungerar din kalkyl, och svaret blir 32%.

    (2) Om det ständigt är exakt samma personer som trakasseras (ett lika orimligt antagande) så att inga nya kommer in i statisktiken under ett nytt år, så blir svaret 1,6%.

    (3) Om statistiskt oberoende gäller mellan att en person blir trakasserad ett år och nästa (ett måhända aningen mindre orimligt antagande, men fortfarande orimligt), dvs noll korrelation, så fungerar den Lindbomska kalkylen1 nedan, och svaret blir 27,6%.

    Många alternativa modellantaganden är möjliga. Så vad är sanningen? I slutändan är det en empirisk fråga. Intill dess vi kan besvara den gissar jag (tentativt) att positiv men inte fullständig korrelation föreligger mellan trakasseri mot en och samma person ett år och ett annat, så att det rätta svaret i så fall hamnar någonstans mellan (2) och (3).

Min obehagliga magkänsla besannades för någon timme sedan, då Rothstein kommenterade på Facebook med följande ord.
    Modellantaganden har jag fått från Olle Häggström själv [se ovan] när jag får några månader sedan frågade honom hur man skulle resonera om detta. Som ni kan se [...] är hans egen "gissning" att man hamnar någonstans mellan 1,6% och 27,6. Och då blir det väl som jag skrev, runt 15%.

    [...]

    Kan tillägga att jag inte är förtjust i att bli förolämpad ("killgissning"). Jag är inte statistiker men har gjort så gott jag kunnat i detta genom att tillfråga en av landets främsta matematiska statistiker. Har jag gjort fel så vi jag naturligtvis rätta till det men tonen i många av dessa kommentarer ger mig avsmak

Mitt svar till honom:
    Det här var inte helt bra, Bo. Om du faktiskt på allvar tolkar något av det jag skrev på din FB den 27 november som stöd för din siffra 15% så ber jag härmed att å det bestämdaste få dementera detta.

    Att "tillfråga en av landets främsta matematiska statistiker" är naturligtvis en god idé i sådana här sammanhang, men det hade varit en ännu bättre idé om du hade fullföljt den strategin lite ihärdigare innan du vände dig till DN Debatt. Du hade exempelvis kunnat fråga mig (a) huruvida medelvärdet mellan två ytterlighetspunkter automatiskt ger en rimlig uppskattning, och (b) huruvida kvantifieringarna "någonstans mellan 1,6% och 27,6%" och "runt 15%" är att betrakta som synonyma. Mitt svar hade blivit ett kraftfullt nej på båda frågorna.

Rothstein valde då att insistera på att det jag skrivit utgjorde stöd för hans 15%:
    Olle, tråkigt att du inte vågar stå för vad du faktiskt skrev, eller åtminstone erkänna att du uttryckt dig på ett sätt som gjort min tolkning helt av vad du skrev rimlig. Igen, du avslutar med följande
      Så vad är sanningen? I slutändan är det en empirisk fråga. Intill dess vi kan besvara den gissar jag (tentativt) att positiv men inte fullständig korrelation föreligger mellan trakasseri mot en och samma person ett år och ett annat, så att det rätta svaret i så fall hamnar någonstans mellan (2) och (3).
    Modell 2 var 1,6 procent, modell var 27, 6 procent. "Mellan" måste enligt svenskt språkbruk ses som en mittpunkt, och då hamnar man något under 15%.
Mitt korta svar på det:
    Jag står för det jag skrev, Bo. Och är ärligt talat lite chockad över hur du valt att vantolka detta.

Där tog dessvärre diskussionen slut, i och med att Rothstein, tydligen en smula förnärmad, valde att trycka på Facebooks avfriendningsknapp.

Fotnoter

1) I (den ganska omfattande) kommentarstråden fick jag viss berättigad kritik för ordvalet "killgissar" (inte bara från Rothstein). Ordet anbefalles visserligen av statliga Institutet för språk och folkminnen som ett av 2017 års nyord, men är likväl inte särskilt lyckat.

2) Nämligen uträkningen 1 - (1-0,016)20 = 0,276.

lördag 25 november 2017

900 grader

Att vinkelsumman i en triangel är 180° känner de flesta till, och ganska många känner nog också till att det bara gäller i det euklidiska planet. I icke-euklidisk geometri (som exempelvis sfärisk) uppstår andra vinkelsummor.

I kaffepausen till en sannolikhetsteoriworkshop tidigare i höstas frågade matematikerkollegan Johan Wästlund mig om jag händelsevis någon gång tänkt på hur stor vinkelsumman som mest kan bli i sfärisk geometri. Det hade jag inte, men då jag blev klar över svaret frågade jag Johan om det möjligen skulle kunna gå att bädda in svaret i en ny text till någon gammal Ebba Grön-låt. Han tände direkt på idén, och återkom till mig några dagar senare med följande text:
    Om du mäter en triangel så blir dess
    vinkelsumma enligt Euklides
    alltid samma, men om du kan kröka
    på själva ytan, kan vinklarna öka!

    Vi ryser i själen, det är så ballt,
    vi snackar ett plan, som går ett varv
    Ja, vi ryser i själen, det är så ballt,
    vi snackar ett plan, som går ett varv

    Det blir
    Nio hundra grader
    du kan lita på mig du kan lita på mig
    Nio hundra grader
    du kan lita på mig du kan lita på mig

    Euklides hade fem axiom,
    men sen kom det en astronom
    och sa det femte det kan inte gälla,
    där inga linjer är parallella

    Vi ryser i själen, det är så ballt,
    vi snackar ett plan, som går ett varv
    Ja, vi ryser i själen, det är så ballt,
    vi snackar ett plan, som går ett varv

    Det blir
    Nio hundra grader
    du kan lita på mig du kan lita på mig
    Nio hundra grader
    du kan lita på mig du kan lita på mig

    Jag ska förklara om du slutat tro
    Triangelns hörn de har rendez-vous
    på andra sidan, där sfären tar slut
    upp-och-ner, och med insidan ut

    Vi ryser i själen, det är så ballt,
    vi snackar ett plan, som går ett varv
    Ja, vi ryser i själen, det är så ballt,
    vi snackar ett plan, som går ett varv

    Det blir
    Nio hundra grader
    du kan lita på mig du kan lita på mig
    Nio hundra grader
    du kan lita på mig du kan lita på mig

    Nio hundra grader...

Och nu har YouTube äntligen begåvats med en inspelning av denna sång! Det är jazzkvartetten Da Möbius band (bestående av matematikerna Mats Andersson, Samuel Bengmark, Torbjörn Lundh och Klas Richardsson) som står för det eminenta framförandet:

onsdag 29 mars 2017

Kort kommentar om matematikutbildning med anledning av Göran Lambertz söndagsintervju

Senaste avsnittet av P1:s söndagsintervju med den från sin post som justitieråd i Högsta domstolen nypensionerade Göran Lambertz blev ett mycket intressant program, mycket tack vare dennes faiblesse för generös självreflektion och självkritik (dock, vad det verkar, inte utan vissa blinda fläckar). Rekommenderad lyssning!

Bland allt intressant som sades skall jag här kort skjuta in mig på en enda sak, nämligen vad Lambertz, som tycks ha varit en exemplarisk skolelev och ständigt bäst i klassen, i intervjun väljer att framhålla som sin allra största styrka under skolåren. 15:07 in i programmet meddelar han:
    Matematik var alltid mitt bästa skolämne.
För den som känner till hur gruvligt han i sin bok Quickologi från 2015 gick bort sig i sina egenpåhittade matematiska irrgångar (se min recension av boken, och en del av den efterföljande diskussionen) kan detta förefalla förvånande. Jag ser dock ingen anledning att betvivla hans självbiografiska uppgift om bästa skolämne. Istället gör jag två reflektioner:
    1. Någon gång kring millennieskiftet kom jag i samspråk med Stefan Nilsson, professor i zoofysiologi vid Göteborgs universitet, som ventilerade sina fördomar om matematikämnet genom att säga till mig något i stil med att "det måste vara annorlunda att undervisa i ett ämne där elevernas prestationer inte avgörs av hårda studier utan av talang". Jag blev så bestört - inte för att jag inte skulle ha hört den felaktiga fördomen1 förut, utan för att Nilsson vid tiden för samtalet var dekanus för den fakultet vid Göteborgs universitet som bland annat ansvarar för matematikerutbildningen - att jag närmast tappade målföret. Hujedamig att en person som har matematikerutbildning inom sitt ledningsansvar har en så felaktig och samtidigt ur utbildningssynpunkt fruktlös och destruktiv syn på matematikämnet! Fördomen är inte ovanlig, men kanske (tänker jag idag) kan exemplet Lambertz tjäna som illustration till att talang inte på långa vägar räcker för att göra en bra matematiker. Den som inte sedan gymnasieåren (vilka ägde rum för många decennier sedan) träffat på matematiken är, hur talangfull han än må vara, helt enkelt inte lämpad att utveckla ny matematisk teori eller utmejsla avancerade tillämpningar.

    2. Jag kan tänka mig att den matematiktalang som Lambertz uppvisade som ung faktiskt kan ha bidragit till hans matematidebacle anno 2015. Ty om han delar den nilssonska fördomen om matematiken, så är det ju inte konstigt om han, när han författade Quickologi, kände att hans matematiktalang borgade för att hans matematiska äventyrligheter skulle bli bra, och att konsultation av expertis inom ämnet (sådana som kastat bort åratal av hårda studier på det) inte kunde väntas ge något av värde.

Fotnot

1) Som med många felaktigheter har även denna ett litet korn av sanning: jag vill inte förneka att talang tycks ha betydelse för om en person skall nå framgång i matematikämnet. Fullkomligt felaktig är däremot föreställningen att hårt arbete och flitiga studier i ämnet skulle sakna sådan betydelse.

torsdag 16 februari 2017

Föredrag i Stockholm och Borås

Låt mig flagga för ett par föredragsframträdanden jag kommer att göra de närmaste veckorna - ett i Stockholm, och ett i Borås.
  • Onsdagen den 22 februari kl 13.00 håller jag ett seminarium på Statistiska institutionen, Stockholms universitet med rubriken Fundamentals of Bayesian reasoning and the choice of prior, och följande sammanfattning:
      Bayesian reasoning goes far beyond just Bayesian statistics, and is influential, e.g., in economics and in computer science. There is a beautiful body of work, going back to 20th century thinkers including Ramsey, de Finetti, von Neumann, Morgenstern and Savage, that is often taken as an indication that rationality implies Bayesian reasoning. In a recent Ph.D. course we centered around the question of how convincing this conclusion is, and arrived tentatively at an answer along the lines of "well, maybe sort of...". In this talk I will recap some of these discussions, and also address the issue of whether a prior can be chosen in a way that avoids arbitrariness and subjectivity.
  • Veckan efter, tisdagen den 28 februari kl 18.00, framträder jag på Borås Kulturhus (i ett arrangemang av Folkuniversitetet) med ett föredrag rubricerat I väntan på de intelligenta robotarna, och med följande sammanfattning:
      Vi ser idag stora framsteg inom artificiell intelligens. Det är någorlunda troligt (men inte alls säkert) att ytterligare framsteg på det området någon gång inom de närmaste 100 åren kommer att leda till en situation där vi människor inte längre är de intelligentaste varelserna på vår planet.

      Hur hanterar vi det? Kommer vi att kunna behålla kontrollen?

      Ett möjligt förhållningssätt är att säga "låt oss vänta och se, och hantera situationen först när den väl inträffat". Med utgångspunkt delvis från sin bok Here Be Dragons: Science, Technology and the Future of Humanity (Oxford University Press, 2016) förklarar Olle Häggström varför han anser att det är en dålig idé, och varför vi istället bör börja förbereda oss redan nu.

Välkomna!

fredag 10 juni 2016

Förvärrad trafikstockning på mitt nattduksbord

Jag har (som jag tidigare förklarat) för vana att parallelläsa böcker på ett osystematiskt och närmast kaotiskt vis. På mitt nattduksbord finns för närvarande cirka halvdussinet böcker som är att betrakta som pågående läsning, och ytterligare ungefär lika många som är halvlästa och som jag mer eller mindre givit upp hoppet om att fullfölja men inte kommit till skott med att rensa undan. Till denna litterära trafikstockning nödgas jag nu foga ytterligare två böcker, som jag just fått dedicerade exemplar av från respektive författare, vilkas namn båda torde vara välbekanta för trogna läsare av denna blogg. Det rör sig om följande titlar vilka båda omedelbart erhåller hög prioritet på min nuvarande läslista, och jag räknar med att återkomma med en fylligare diskussion av åtminstone en av dem - eller kanske båda - sedan jag läst dem.
  • The Age of Em: Work, Love, and Life When Robots Rule the Earth av Robin Hanson, som är associate professor i nationalekonomi vid George Mason University. Denna unika och mycket efterlängtade bok är författarens sammanfattning av sitt mångåriga arbete med att analysera de långtgående ekonomiska och sociala konsekvenserna av ett teknikgenombrott där vi (innan vi t.ex. hinner förgöra oss själva eller skapa artificiell superintelligens) lär oss att på dator emulera den mänskliga hjärnan och alla dess funktioner. Boken har givetvis beröringspunkter med min egen Here Be Dragons; den är smalare på så vis att den behandlar ett enda relativt specifikt framtidsscenario där jag istället försöker ta mig an ett någorlunda representativt urval, men i gengäld gör han det med ett djup och en detaljrikedom som jag inte kan matcha. Jag vet sedan tidigare att Hanson besitter en enastående analytisk skärpa, och det skulle förvåna mig stort om han med sin nya bok gav anledning att revidera den uppfattningen. (Bryan Caplan låter sig inte imponeras, men Hanson erbjuder svar på tal.)

  • Soccermatics: Mathematical Adventures in the Beautiful Game av David Sumpter, som är professor i tillämpad matematik vid Uppsala universitet. Lagom till EM-slutspelet tar han fotbollen till hjälp i denna populärvetenskapliga framställning, för att med en lång rad exempel påvisa kraften i att använda matematisk modellering till att förstå olika fenomen i den värld vi lever i, något han tidigare med stor framgång praktiserat med tillämpning på exempelvis
      fish swimming among coral in the Great Barrier Reef, democratic change in the Middle East, the traffic of Cuban leaf-cutter ants, swarms of locusts travelling across the Sahara, disease spreading in Ugandan villages, political decision-making by European politicians, dancing honeybees from Sydney, American stock-market investors, and the tubular structures built by Japanese slime mould
    - för att nu citera hans egen uppräkning på sidan 11 i bokens inledning, och nu är turen alltså kommen till fotbollen.

tisdag 5 april 2016

Om prediktion

I USA utropas varje år april månad till Mathematics Awareness Month, framför allt som ett slags paraply för en mängd olika lokala aktiviteter med det gemensamma syftet att skänka matematiken den uppmärksamhet i samhället ämnet förtjänar. Ett specifikt tema utses varje år, och i år är temat The Future of Prediction. I aprilnumret av tidskriften Notices of the American Mathematical Society ägnas en särskild avdelning åt detta tema, inklusive en text av yours truly, rubricerad Our desperate need to predict the future, där jag tar chansen att inskärpa några vetenskapsteoretiska poänger jag tidigare snuddat vid i Kapitel 6 av min bok Here Be Dragons och i min tidigare bloggpost No nonsense.1 Så här inleder jag den aktuella texten:
    In 1814, Pierre Simon de Laplace envisioned a demon who could pinpoint the exact present positions and movements of all particles and then calculate all of their future trajectories, thereby accurately predicting everything that will ever happen. He understood, however, that this task would be forever beyond mere human capabilities. Due to what we now know of as sensitive dependence on initial conditions, this brute force approach to predicting the future does not work (other than in certain limited situations with limited time horizon). Instead, we’d like to find regularities in the past and assume “by induction” that they will continue into the future. Unfortunately, there seems to be no way to defend induction - the extension of past regularities into the future - without reverting to circularity by pointing out that induction has served us well in the past and thus can be expected to do so in the future.

    Nevertheless, we rely on induction to make predictions. We simply do not know any other way. Good applied mathematicians and good scientists know that the extent to which these predictions are reliable depends on how closely the state of the system we are trying to predict will remain within the envelope of what has already been observed. The further we push atmospheric CO2 levels above those of the last several million years, the less reliably we can predict the future climate. Moore’s law - the exponential curve that fits several decades of computer hardware development so well - eventually predicts the physically impossible.

    Today we face unprecedented challenges of the following kind.

Med denna cliffhanger hoppas jag övertyga läsaren om att läsa hela min text om prediktion här!

Fotnot

1) Min nya text har också beröringpunkter med förra veckans bloggpost Aaronson om Newcombs paradox, som även den behandlar ämnet prediktion. Newcombs paradox kan ju ses som en illustration av hur känslan av fri vilja tycks gå upp i rök om vi blir alltför bra på att prediktera mänskligt beteende. I sista stycket av Notices-artikeln berör jag samma fenomen, om än inte med något fullt lika skruvat exempel.

onsdag 30 mars 2016

Scott Aaronsons underbara bok om kvantdatorberäkningar

Jag har nyss läst ut den unge briljante datalogen Scott Aaronsons bok Quantum Computing since Democritus från 2013, och jag rekommenderar den å det varmaste. Utöver att behandla teorin för kvantdatorberäkningar är den i minst lika hög grad en introduktion för den gren av teotetisk datalogi som benämns komplexitetsteori, och som studerar hur resurskrävande (i termer av exempelvis antal beräkningssteg eller mängden minnesutrymme) olika beräkningsproblem är, vanligtvis asymptotiskt då problemstorleken växer mot oändligheten. Komplexitetsteorin kan sägas handla om vilka problem som kan lösas effektivt, och till väldigt stor del är den uppbyggd kring den viktiga men infernaliskt svåra matematiska frågeställningen P kontra NP.1 Till bokens rikedom bidrar de många utvikningar författaren gör till angränsande områden, som kvantmekanik, relativitetsteori (inklusive avsnitt om huruvida tidsresor är möjliga och vad det i så fall kan väntas ha för konsekvenser för komplexitetsteorin), sannolikhetsteori, kryptologi, antropiska resonemang à la Nick Bostrom, mänskligt medvetande (med precisa och lätt lustfyllda sågningar av John Searles och Roger Penroses respektive bidrag till området), kreationism, och det fantasieggande tankeexperiment som benämns Newcombs paradox och som jag skall återkomma till i morgondagens bloggpost. Mer än en gång ser sig Aaronson manad att leverera disclaimern att han inom fysiken blott är en amatör, men det står klart att i den mån detta överhuvudtaget är sant så är han en extraordinärt bildad sådan. Referensen till Demokritos - den grekiske filosof som verkade under 400- och 300-talen före Kristus och som införde atomteorin - är givetvis en anakronism av rang, men Aaronson begår den av goda skäl.

Genremässigt är boken, som ett slags lite egensinnigt mellanting mellan lärobok och populärvetenskap, en smula svårkategoriserad. Såsom akademiker med min huvudsakliga utbildning inte i datalogi men i ett annat matematiktungt STEM-ämne tror jag att jag har precis rätt sorts bakgrund för att få maximalt utbyte av boken. Det jag framför allt tar med mig från boken är vilket fantastiskt rikt tankebygge komplexitetsteorin utgör, med alla dess intrikata samband i den djungel av olika komplexitetsklasser (jämte ovan nämnda P och NP) som definierats. För mig fungerar också bokens originella stil utmärkt, men jag kan föreställa mig att en och annan läsare kan komma att reta sig på Aaronsons drivna jargong, där ironin sällan är långt borta. Smaka t.ex. på följande inledningsmening på det kapitel i vilket komplexitetsteorin först introduceras:
    By any objective standard, the theory of computational complexity ranks as one of the greatest intellectual achievements of humankind - along with fire, the wheel, and computability theory. That it isn't taught in high schools is really just an accident of history. [s 44]
Eller följande inledning till kapitlet om kvantmekanik:
    There are two ways to teach quantum mechanics. The first way - which for most physicists today is still the only way - follows the historical order in which the ideas were discovered. So, you start with classical mechanics and electrodynamics, solving lots of grueling differential equations at every step. Then you learn about the "blackbody paradox" and various strange experimental results, and the great crisis these things posed for physics. Next you learn a complicated patchwork of ideas that physicists invented between 1900 and 1926 to try to make the crisis go away. Then, if you're lucky, after years of study you finally get around to the central conceptual point: that nature is described not by probabilities (which are always nonnegative), but by numbers called amplitudes that can be positive, negative, or even complex.

    Look, obviously the physicists had their reasons for teaching quantum mechanics this way, and it works great for a certain kind of student. But the "historical" approach also has disadvantages, which in the quantum information age becomes increasingly apparent. For example, I've had experts in quantum field theory - people who've spent years calculating path integrals of mind-boggling complexity - ask me to explain the Bell inequality to them, or other simple conceptual things like Grover's algorithm. I felt as if Andrew Wiles had asked me to explain the Pythagorean Theorem.

    As a direct result of this "QWERTY" approach to explaining quantum mechanics - which you can see reflected in almost every popular book and article, down to the present - the subject acquired an unnecessary reputation for being complicated and hard. Educated people memorized the slogans - "light is both a wave and a particle," "the cat is neither dead nor alive until you look," "you can ask about the position or the momentum, but not both," "one particle instantly learns the spin of the other through spooky action-at-a-distance," etc. But they also learned that they shouldn't even try to understand such things without years of painstaking work.

    The second way to teach quantum mechanics eschews a blow-by-blow account of its discovery, and instead starts directly from the conceptual core - namely, a certain generalization of probability theory to allow minus signs (and more generally, complex numbers). Once you understand that core, you can then sprinkle in physics to taste, and calculate the spectrum of whatever atom you want. This second approach is the one I'll be following here. [s 109-110]

Fotnot

1) Det som gör sambandet mellan komplexitetsteori och kvantdatorberäkningar särskilt hett är att ett kvantdatorgenombrott kan komma att utöka klassen av problem som vi kan lösa effektivt. Här finns dock utbredda vanföreställningar om hur radikal denna utökning kan väntas bli. Aaronson plockar ned dessa:
    From reading newspapers, magazines, and so on, one would think a quantum computer could "solve NP-complete problems in a heartbeat" by "trying every possible solution in parallell," and then instantly picking the correct one.

    Well, arguably that's the central misconception about quantum computing among laypeople. [s 145]

Och vad som kraftigt bidrar till denna "central misconception" är missförståndet att primtalsfaktorisering av stora heltal skulle vara ett NP-komplett problem. Det är visserligen sant att problemet tillhör NP, och att de snabbast kända klassiska (dvs icke-kvant) algoritmerna tar exponentiell tid på sig (något som, tack vare Shors algoritm, ett kvantdatorgenombrott skulle ändra på), men detta gör inte primtalsfaktorisering NP-komplett. Aaronson igen:
    Over the course of my life, I must've met at least two dozen people who "knew" that factoring is NP-complete, and therefore that Shor's algorithm - since it lets us factor on a quantum computer - also lets us solve NP-complete problems on a quantum computer. Often these people were supremely confident of their "knowledge". [s 64-65]

tisdag 1 mars 2016

Om Löbs sats och dess eventuella betydelse inom AI-forskning

Matematisk logik är långt ifrån det område av matematiken som jag har störst håg och fallenhet för, men jag blev för en tid sedan uppmärksammad på Löbs sats - en intressant släkting till Gödels båda ofullständighetssatser. På sidan 26 i sin bok Quantum Computing since Democritus (som jag rekommenderar mycket varmt och som jag alldeles säkert kommer att återkomma till här på bloggen) förklarar datalogen Scott Aaronson i omisskännlig stil vad satsen går ut på:
    If a statement can be proved by using as an axiom that it's provable, then it can also be proved without using that axiom. This result is known as Löb's Theorem [...], though personally I think that a better name would be the "You-Had-the-Mojo-All-Along Theorem".

Förutom att vara ett fantasieggande och förbluffande resultat i sig självt, så verkar det som om Löbs sats eventuellt kan vara av betydelse inom AI (artificiell intelligens), och mer specifikt ett potentiellt hinder för det slags AI-självförbättringsspiral som annars eventuellt kan väntas ge upphov till en intelligensexpolsion, även kallad Singulariteten. Åtminstone är det något man funderar intensivt över på MIRI - Machine Intelligence Research Institute, som är (den här på bloggen ofta citerade) Eliezer Yudkowskys skötebarn. MIRI-matematikern Patrick LaVictoire behandlar Löbs sats och dess eventuella AI-relevans i sin välskrivna översiktsuppsats An introduction to Löb's Theorem in MIRI research.

torsdag 4 februari 2016

Ulf Danielsson och Max Tegmark bjuder på stor show

Vilken show! Den 12 december förra året satte sig två av de starkast lysande stjärnorna bland svenska vetenskapsmän, fysikerna Ulf Danielsson och Max Tegmark, ned inför publiken på Cirkus i Stockholm för att diskutera kosmologi, strängteori, medvetendets plats i universum, och framför allt relationen mellan matematik och fysik. Och nu finns den knappt 40 minuter långa videoupptagningen av deras samtal tillgänglig på UR Samtiden. Jag rekommenderar den å det varmaste.

De är överens om mycket, men inte om allt, och det är meningsmotsättningarna som driver samtalet framåt. Just i frågan om relationen mellan matematik och fysik kommer deras divergerande ståndpunkter fram allra tydligast. Är det matematiken som är det verkligt fundamentala i vår värld (Max ståndpunkt), eller är matematiken blott människans ofullkomliga försök till beskrivning av världens beskaffenhet (Ulfs)? Jag vet såklart inte vem av dem som kommer sanningen närmast, även om jag måste erkänna att jag har en starkare intuitiv dragning till den platonska syn på matematiken som Max ger uttryck för, jämfört med Ulfs syn på matematiken som något slags evolutionärt uppkommen abrovink. Men båda bidrar i lika hög grad till en sevärd föreställning, vars kombination av lättilgänglighet och intellektuell höjd är remarkabel.

torsdag 10 december 2015

Ada Lovelace 200 år

Idag är en dag då vi som gillar vetenskap har extra stor anledning att höja våra glas till en skål. Den läsare må (nätt och jämnt) vara förlåten som tänker att jag härmed syftar på att det idag är Nobeldagen, och att det är till gamle Alfred Nobel vi bör skåla. Vad jag har i åtanke är emellertid något mycket större: Augusta Ada King, grevinna av Lovelace, född Byron (1815-1852) fyller 200 år!1 Numera kallar vi henne oftast kort och gott Ada Lovelace.

Denna briljanta matematiker levde ett kort men intensivt liv, och är mest känd för sitt samarbete med matematikerkollegan Charles Babbage kring hans så kallade analytiska maskin (the analytical engine) - en dator långt före elektronikens och kretskortens tidevarv, vilken istället byggde på kugghjul och mekanik. Lovelace och Babbage utgjorde ett formidabelt radarpar, där (med dagens terminologi) Babbage stod för hårdvaran och Lovelace för mjukvaran - samt för de mest långtgående visionerna om datorns användbarhet. Hon beskrivs ibland som tidernas första datorprogrammerare. Den analytiska maskinen färdigställdes aldrig, men hade i annat fall blivit den första så kallade universella datorn, ett århundrade innan Alan Turing skapade detta inom datalogin helt centrala begrepp.

Lovelace står idag, inte minst tack vare den årligen i oktober firade Ada Lovelace Day, som kvinnlig förebild inom de till stora delar mansdominerade STEM-områdena (science, technology, engineering and mathematics). Annie Burman uppmärksammade henne i en läsvärd understreckare i SvD häromdagen. För den som vill ta del av Lovelaces liv och gärning i det aningen längre formatet rekommenderar jag Sydney Paduas underbara serieroman The Thrilling Adventures of Lovelace and Babbage, som med hjälp av tredubbla fotnotsapparater lyckas med såväl att berätta den sanna historien som att fabulera ohämmat underhållande kring det parallella universum i vilket Babbage lyckades färdigställa sin analytiska maskin. Ett bättre julklappstips än The Thrilling Adventures får ni inte av mig i år!

Fotnot

1) Eller skulle ha gjort, om inte döden kommit emellan.

torsdag 10 september 2015

Millennium 4

Jag har inget att tillföra rörande den bittra kontroversen kring utgivningen av David Lagercrantz nya bok Det som inte dödar oss, lanserad som den fristående fortsättningen på Stieg Larssons Millennium-trilogi. Med tanke på de många recensioner boken redan fått ser jag ej heller någon större poäng med att själv ge en djupgående sådan, men kan konstatera att den för mig duger utmärkt som underhållningslitteratur, och att den skicklige Lagercrantz lyckats tillräckligt bra med att imitera Larssons stil att jag säkert inte hade kommit på att misstänka att det var någon annan än Larsson som höll i pennan om jag inte redan känt till hur det förhöll sig med den saken.

Det jag här vill lyfta fram är istället den påfallande anhopning i boken av ämnen som är bekanta från denna blogg. I en av (de sedan Stieg Larssons böcker obligatoriska) demonstrationerna av protagonisten Lisbeth Salanders superkrafter kliver hon in på en av Stockholms schack-klubbar och sopar brädet med en intet ont anande elitspelare. Vidare bjuder författaren på mer matematik (i första hand primtalsfaktorisering och RSA-kryptering) än vad jag kan påminna mig ha sett i någon annan mainstream-deckare. Och framför allt bollar han utförligt (och någorlunda skickligt) med begrepp kring artificiell intelligens och Singulariteten, som i det samtal på s 204-205 där den fiktiva KTH-professorn Farah Sharif förklarar sammanhangen för Mikael Blomkvist:
    Bara några dagar efter att vi uppnått AGI [Artificial General Intelligence] kommer vi att ha ASI [vilket står för] Artificial Superintelligence, något som är intelligentare än vi. Datorerna börjar förbättra sig i en accelererande takt, kanske i en faktor på tio, och blir hundra, tusen, tiotusen gånger så smarta som vi, och vad händer då?

    [...]

    Hur tror du att en dator känner sig som vaknar upp och finner sig tillfångatagen och kontrollerad av primitiva kryp som vi? Varför skulle den finna sig i den situationen? Varför skulle den överhuvudtaget visa oss någon överdriven hänsyn, eller än mindre låta oss rota i dess inre för att stänga av processen? Vi riskerar att stå inför en intelligensexplosion, en teknologisk singularitet som Vernor Vinge kallade det.

    [...]

    Idag arbetar tusentals människor över hela världen för att förhindra en sådan utveckling. Många är optimistiska, eller till och med utopiska. Man talar om friendly ASI, om vänliga superintelligenser som redan från början programmerats så att de enbart hjälper oss. Man tänker sig något i stil med vad Asimov föreställde sig i boken Jag, robot, inbyggda lagar som förbjuder maskinerna att skada oss. Innovatören och författaren Ray Kurzweil ser en underbar värld framför sig där vi med hjälp av nanoteknik interagerar med datorerna, och delar vår framtid med dem. Men självklart finns inga garantier. Lagar kan hävas. Betydelsen av initiala programmeringar kan förändras, och det är oerhört lätt att göra antropomorfiska misstag; tillskriva maskinerna mänskliga drag, och missförstå deras inneboende drivkraft.

Där får Lagercrantz som synes till ett härligt flöde av buzzwords. Den här på bloggen flitigt citerade Eliezer Yudkowsky nämns inte explicit i boken, men jag gläds åt att se hans skötebarn Machine Intelligence Research Institute figurera i handlingen. Vad jag dock gärna hade sluppit ta del av är Lisbeth Salanders larviga försök att koppla den teknologiska singulariteten till den (helt orelaterade) singularitet som förekommer i de svarta hålens fysik.

onsdag 26 augusti 2015

Om framsteg inom matematiken

Denna bloggpost handlar om forskningsframsteg inom matematiken, och då menar jag verkligen inom på ett sätt som exkluderar (det i och för sig ofantligt viktiga) tillämpandet av matematiska metoder i andra ämnen. En vanlig föreställning är att sådana inommatematiska framsteg utgörs av formulerandet och bevisandet av nya matematiska satser.1 Det ligger en hel del i denna föreställning, även om den är något grovhuggen, och idag vill jag lyfta fram en annan typ av framsteg som jag anser vara lika viktiga för matematikens framåtskridande, nämligen nya, enklare, kortare och helt enkelt bättre bevis av redan kända och bevisade satser.

Skälet till att den sortens framsteg är viktiga är följande. Matematik är en kumulativ verksamhet, där de framsteg som görs idag bygger på gårdagens, och kan på samma sätt väntas komma att ligga till grund för framtida framsteg. Nya satser och bevis bygger på gamla satser. Om nu dessa gamla satser har så komplicerade och svårtillgängliga bevis att inte dagens och morgondagens matematiker förmår smälta dem, så riskerar det intellektuella tankebygge som matematiken utgör att bli till en koloss på lerfötter där ingen längre begriper hur saker och ting egentligen hänger samman. Genom att lägga fram nya bevis som är enklare och mer lättilgängliga än originalbevisen (men naturligtvis fortsatt korrekta), så underlättar man för nya generationer matematiker att förstå den grund som de sedan hoppas kunna bygga vidare på.

Låt mig berätta om ett framsteg av detta slag som de båda unga franska matematikerna Hugo Duminil-Copin och Vincent Tassion nyligen gjort inom det område där jag själv på 90-talet fick mina främsta genombrott som matematiker: perkolationsteori. Detta område kan kort beskrivas som den gren av sannolikhetsteorin där man studerar modeller för genomsläpplighet i ostrukturerade material och konnektivitet i ostrukturerade nätverk. Det finns en uppsjö modeller inom perkolationsteorin, men en av de mest grundläggande är så kallad kantperkolation på Zd-gittret med dimension d=2 eller högre. Detta gitter har noder i heltalspunkterna i det d-dimensionella euklidiska rummet, och länkar mellan varje par av närmsta grann-noder (dvs noder på euklidiskt avstånd 1 från varandra); för d=2 bildas på så vis ett kvadratiskt gitter, för d=3 ett kubiskt, och för högre d ett hyperkubiskt. Så långt är alltsammans perfekt strukturerat, men den oordning som är typisk för perkolationsmodeller fås genom att länkar raderas slumpmässigt. Vi fixerar den så kallade perkolationsparametern p mellan 0 och 1, raderar varje länk oberoende av varje annan med sannolikhet 1-p, och behåller den således med sannolikhet p. (Detta fungerar på liknande vis som den perkolationsmodell på bikakegitter som jag diskuterade i en tidigare bloggpost.)

Ett centralt och inte särskilt svårt resultat, som går tillbaka till perkolationsteorins barndom på 1950-talet, är existensen av ett kritiskt värde pc sådant att existensen av en oändlig sammanhängande komponent i det därvid erhållna oordnade nätverket har sannolikhet 0 om p är i den så kallat subkritiska fasen p<pc, men 1 om p är i den superkritiska fasen p>pc. Det kritiska värdet för d=2 bevisades av Harry Kesten 1980 vara 1/2, medan exakta värden för pc i högre dimensioner ännu inte är kända.

Följande bild av en realisering av denna perkolationsmodell med p=0,51 på Z2 är hämtad från Wikipedia.

Detta är bara ett lite stycke av realiseringen, då mönstret fortsätter oändligt långt i alla riktningar. Parametern p är vald strax över det kritiska värdet, vilket garanterar existensen av en oändlig sammanhängande komponent av noder och länkar.

Om vi istället hade valt ett subkritiskt p, så hade vi enbart fått ändliga komponenter. Det betyder att om vi startar i en given nod och bara får gå längs kvarvarande länkar, och om vi med βn betecknar sannolikheten att vi kan nå minst n längdenheter bort från ursprungsnoden, så går βn mot 0 då n går mot oändligheten. Ett av perkolationsteorins centrala framsteg på 1980-talet var att det, oavsett dimension d, gäller att så snart p<pc så går βn inte bara mot 0, utan gör det exponentiellt snabbt i n (med andra ord: det existerar positiva konstanter a och b sådana att βn<ae-bn oavsett n). För den matematiskt obevandrade kan detta resultat synas oskyldigt, men det understryker kraftfullt hur skarp övergången mellan subkritisk och superkritisk perkolation är. Resultatet bevisades av Mikhail Menshikov (1986) och av Michael Aizenman och David Barsky (1987), oberoende av varandra, på var sin sida av den dåvarande järnridån, och med två helt olika bevis. Båda bevisen är tämligen omfattande, och jag minns hur jag som ung och grön doktorand vintern 1991-1992 slet hårt med att smälta och förstå dem. Jag förstod dem till slut, men de är så invecklade att jag idag knappast skulle kunna rekonstruera dem utan att kika i facit.

In i handlingen träder nu de båda herrarna Duminil-Copin och Tassion, och deras aktuella uppsats A new proof of the sharpness of the phase transition for Bernoulli percolation on Zd, där de levererar ett kort och koncist bevis av det exponentiella avtagandet. Kort, koncist och enkelt - betydligt enklare än de båda ursprungliga bevisen av Menshikov respektive Aizenman och Barsky, vilka hittills varit standard. Det skall här medges att "enkelt" är ett relativt begrepp, och jag skulle inte rekommendera den läsare som inte redan är bevandrad i sannolikhetsteorin på åtminstone masternivå att ge sig i kast med att läsa uppsatsen, men för oss som är vana vid perkolationsteori är uppsatsen utmärkt lättsmält, och jag vågar mig nästan på att lova att om någon väcker mig mitt i natten om tio eller tjugo år och ber mig återge beviset så kommer jag att klara det.2 Jag tackar Hugo Duminil-Copin och Vincent Tassion för att de på detta vis gjort perkolationsteorin lite klarare för mig och för våra kollegor.

Fotnoter

2) Nyckeln till att komma ihåg beviset är att återkalla deras definition av storheten φp(S) i början av uppsatsen, och att det avgörande är huruvida denna storhet är mindre än 1. När väl det är på plats går räkningarna mer eller mindre av sig själva. (Detta visste givetvis inte Duminil-Copin och Tassion när de första gången försökte sig på sitt argument, men mycket av det som gör en skicklig matematiker är att kunna ana sig till i förväg vad som är en relevant kvantitet att börja räkna på i ett givet sammanhang.)

tisdag 4 augusti 2015

Lambertz laborerar med pseudokvantiteter

I min bloggpost Quickologisk sannolikhetskalkyl den 16 maj i år diskuterade jag den centrala passage i Göran Lambertz bok Quickologi, i vilken författaren gör anspråk på att medelst en sannolikhetsberäkning påvisa att morddomarna mot Thomas Quick var riktiga. Jämte många andra fel i Lambertz framställning påvisade jag att den räkneregel för betingade sannolikheter som han implicit byggde hela sin kalkyl på inte gäller.1

Det stod tidigt klart att Lambertz tagit del av min kritik [WebCite], men det var först häromdagen som han presenterade en korrigering av sin kalkyl i ljuset av denna kritik [WebCite]. Det kan i förstone förefalla glädjande att han är beredd att rätta till den kalkyl som han har fått förklarat för sig är felaktig, men tyvärr visar det sig att hans korrigering är ytterst halvhjärtat genomförd. Ovillig att skiljas från sin felaktiga räkneregel för betingade sannolikheter löser han det hela med att helt enkelt döpa om de kvantiteter han laborerar med: det han i boken kallade sannolikheter kallar han nu "bevisvärde". I boken hade han på s 296 en passage med ordalydelsen...
    I tabellen nedan står hundra (100) för hundraprocentig sannolikhet, vilket i praktiken ofta är detsamma som faktisk vetskap. Jag sätter noll (0) för ingen sannolikhet alls. Femtio (50) innebär att man gör bedömningen att omständigheten i sig innebär att sannolikheten är 50 procent för att personen är skyldig (se exemplet med de båda misstänkta, A och B, på sidan 275). Tio (10) betyder på motsvarande sätt att man gör bedömningen att omständigheten i sig innebär att sannolikheten är 10 procent för att personen är skyldig.
...vilken han nu ändrat [WebCite] till följande:
    I tabellen nedan står hundra (100) för fullt bevis, vilket i praktiken ofta är detsamma som faktisk vetskap. Jag sätter noll (0) för inget bevisvärde alls. Femtio (50) innebär att värdet hos beviset, när det används för att visa att personen är skyldig, ligger mitt emellan 0 och 100 (jfr mordet med de båda misstänkta, A och B, ovan). Tio (10) betyder på motsvarande sätt att värdet hos beviset, när det används för att visa att personen är skyldig, är 10 % av fullt bevis.
Detta ger väldigt lite ledning (vare sig i teorin eller i praktiken) i hur man ansätter ett "bevisvärde" till en omständighet, och läsaren lämnas helt i sticket vad gäller hur "bevisvärde" egentligen skiljer sig från det gängse sannolikhetsbegreppet.2 Detta är synnerligen otillfredsställande, ty Lambertz verkar mena att han glatt kan behandla "bevisvärde" med den räkneregel som jag påvisade var så åt helskotta fel för sannolikheter, varför vi behöver dels en klar och redig definition av "bevisvärde", dels en argumentation för varför den lambertzka räkneregeln skulle vara giltig för dessa kvantiteter. Något sådant finner vi inte i hans framställning. De exempel jag gav i maj (vilka enkelt kan mångfaldigas) på varför räkneregeln fallerar för sannolikheter verkar fungera som motexempel även då sannolikheterna ersätts med "bevisvärde".3,4 Det ser faktiskt inte bättre ut än att Lambertz (önske-)tänker sig att hans felaktiga resonemang i boken plötsligt och magiskt blir korrekt om blott han byter ut delar av terminologin.

Vad Lambertz i praktiken gör i sin kalkyl är följande. För varje enskild bevisomständighet höftar han till med en siffra som läsaren inte ges någon susning om var den kommer ifrån (oavsett om den betecknas som sannolikhet eller som "bevisvärde"). Därefter tillämpar han en räkneregel (additivitet för de bevisvärdessiffror han höftat till med) som läsaren inte meddelas någon som helst motivering till varför den skulle vara giltig, och så postulerar han, helt out of the blue, att långtgående slutsatser om Thomas Quicks skuld kan dras om den därvid erhållna summan kraftigt överstiger 100%. Jag kan inte se att denna sifferexercis tillför något jämfört med om Lambertz hade valt att presentera sin lista över bevisomständigheter utan några sifferangivelser, att peka ut vilka av dem han tycker väger mycket tungt (eller måttligt tungt, eller relativt lätt, etc), och att i ord konkludera att han tycker att den sammantagna bevisningen tyder på att Quick är skyldig. Genom att klämma till med (lite godtyckliga) siffror, och behandla dessa med en (lite godtycklig) räkneregel, ger han ett bedrägligt intryck av precision i sitt resonemang, och de kvantiteter han laborerar med är i själva verket vad Sven-Eric Liedman döpt till pseudokvantiteter.5 Det slags användande av matematik som Lambertz här ägnar sig åt är något jag med emfas vill fördöma. Matematik skall användas för att ge det slags precision som rent verbala resonemang inte klarar av - inte för att medelst sken av precision få resonemang att verka mer övertygande och imponerande än de faktiskt förtjänar.

*

Det ovanstående är mitt huvudsakliga skäl till varför jag inte finner Lambertz korrigerande text [WebCite] utgöra något framsteg i förhållande till den felaktiga sannolikhetskalkyl han presenterar i boken. Jag vill inte ödsla tid och kraft på att påpeka alla de övriga fel han begår i den nya texten, utöver på ett par punkter där han trots allt dristar sig till att diskutera sannolikheter:
  • I början av den som rättelse avsedda texten skriver Lambertz följande:
      Sannolikhetsvärden kan, rent matematiskt, inte adderas. De ska i stället multipliceras enligt formeln 1-(1-p)(1-p), där p är sannolikheten för det enskilda beviset.
    Det här är så gott som meningslös rappakalja, som bara tjänar till att demonstrera Lambertz avgrundsdjupa okunskap i sannolikhetsteori. Givetis kan sannolikhetsvärden adderas, och de kan adderas "rent matematiskt" (vad nu detta tillägg är tänkt att tillföra) - frågan är bara hur summan kan tolkas. Vad gäller Lambertz uttryck 1-(1-p)(1-p) så försummar han att tala om vad detta uttryck är tänkt att stå för, och hans påstående blir därför meningslöst. Lägg också märke till att han uttalar sig om sannolikhetsvärden, i pluralis, men att det i uttrycket 1-(1-p)(1-p) bara förekommer en variabel, betecknad p. Min bästa gissning om vad Lambertz menar är att han betecknar den ena sannolikheten med p, och den andra (också!) med p - vilket i så fall är en grad av bristande matematisk tankereda man sällan ser i tryck. Och min bästa gissning rörande varifrån han fått sitt uttryck är att det handlar om teorin för så kallat oberoende händelser: För två händelser A och B har vi att
      P(A och B) = P(A)P(B)
    och att
      P(A eller B) = 1 - (1-P(A))(1-P(B))
    - förutsatt att vi talar om oberoende händelser.6

    På tal om addition av sannolikheter finns för övrigt en annan klass av händelser där P(A eller B) fås genom just addition av P(A) och P(B). Jag talar här om disjunkta, dvs ömsesidigt uteslutande, händelser för vilka vi alltså har att P(A eller B) = P(A)+P(B). Blåvitt och Elfsborg kan inte båda vinna Allsvenskan 2015 (deras respektive segrar är disjunkta händelser), varför sannolikheten att något av de båda lagen vinner Allsvenskan 2015 fås som summan av lagens respektive segersannolikheter.

  • I den nu aktuella rättelsetextens [WebCite] allra sista stycke tar Lambertz upp sannolikheten för att Quick är oskyldig, givet ett par specifika bevisomständigheter som han behandlar i separata rättelsetexter: de beryktade likhundarna [WebCite], och det nästan lika beryktade kunskapstestet av Sven Åke Christianson [WebCite]. Det finns väldigt mycket att invända mot Lambertz evidensvärdering och sannolikhetsanalys i dessa fall, men ett elementärt klavertramp som han i båda fallen begår är det som kallas the fallacy of the transposed conditional: att för två händelser A och B förväxla P(A|B) med P(B|A).7 Tvärtemot vad Lambertz vårdslösa sifferhantering tycks vilja göra gällande, så är sannolikheten för Quicks oskuld givet en viss bevisomständighet inte detsamma som sannolikheten för denna bevisomständighet givet Quicks oskuld.

Fotnoter

1) För att kort rekapitulera vad jag påpekade i maj: Det är helt enkelt inte sant att betingade sannolikheter uppfyller additivitetsegenskapen
    P(A|Ei, Ej) = P(A|Ei) + P(A|Ej).
Ej heller är det oftast sant, eller approximativt sant. Eller som jag skrev i maj:
    Det går att koka ihop enstaka exempel på händelser A, Ei och Ej där additivitetsformeln råkar stämma, men då är det att betrakta mer som en tillfällighet än som konsekvensen av en allmän egenskap hos betingade sannolikheter.

2) Vad gäller "mordet med de båda misstänkta, A och B, ovan" finner den som söker högre upp i Lambertz korrigerade text [WebCite] inget omnämnande av A och B, så jag kan bara anta att "ovan" syftar på s 275 i boken, där Lambertz förklarar att A och B har sannolikhet 50% vardera att vara skyldig till ett visst mord. I det här fallet sammanfaller alltså "bevisvärde" med sannolikhet, men om Lambertz på allvar menar att "bevisvärde" inte bara är en synonym till sannolikhet hade det varit mer belysande om han givit ett exempel där dessa kvantiteter skiljer sig åt.

3) Detta givetvis sagt med reservation för att jag inte vet vad "bevisvärde" egentligen är, då ju Lambertz inte förklarat saken.

4) Följande stycke i Lambertz korrigerade text tyder på att han faktiskt tagit visst intryck av Fotnot 7 i Quickologisk sannolikhetskalkyl:
    Man måste dock vara försiktig med denna metod och inte tro att den ger några exakta, eller ens alltid rättvisande, besked. Det visar sig om man t.ex. adderar en mängd bevis som var för sig har ett relativt lågt bevisvärde. Kommer man då upp i 100 därför att bevisen är många (exempelvis en hel hop vittnen som alla är lite osäkra), måste man vara varsam.

5) I en recension av Liedmans bok Hets kan vi läsa att
    en pseudokvantitet har en kvantitets alla yttre kännetecken men saknar dess avgörande positiva egenskap, att exaktare än varje försök till beskrivning med enbart ord karakterisera ett objekt eller en relation mellan objekt.

6) Vi talar alltså här om det sannolikhetsteoriska obereondebegreppet. Jag vill å det bestämdaste avråda läsare på lambertzk kunskapsnivå från att ta för givet att händelser eller kvantiteter som är oberoende i logisk eller någon mer vardaglig mening automatiskt också är det i sannolikhetsteoretisk mening - don't try this at home!

7) Sådan förväxling kan leda till hur felaktiga sannolikhetsuppskattningar som helst; se t.ex. Fotnot 3 i min bloggpost från den 27 februari i år. För ytterligare diskussion om the fallacy of the transposed conditional rekommenderar jag min populärvetenskapliga framställning i Nämnaren 1/2013.

Edit 4 augusti 2015 kl 21:35: Göran Lambertz har skrivit ett utförligt svar [WebCite] till denna bloggpost.

Edit 8 augusti 2015: Nu har Göran Lambertz gjort en omfattande revision [WebCite] av den korrigeringstext jag kritiserar i denna bloggpost. För att texten ovan skall bli begriplig är det därför nödvändigt att genomgående konsultera WebCite-versionen av den oreviderade korrigeringstexten snarare än "original-länken" till (den nu reviderade) korrigeringstexten.

I den nya revisionen har Lambertz återgått (om än inte helt konsekvent) i sin terminologi från "bevisvärde" till sannolikhet. Han har övergivit sitt additionsförfarande, till förmån för ett multiplikationsförfarande som han tycker är så förträffligt att han ser sig föranledd att proklamera att han genomfört sin analys "på ett matematiskt i huvudsak korrekt sätt", men dessa stolta ord är dessvärre alldeles ogrundade. Lambertz tycks mena att om A är händelsen att Quick är skyldig, och om Ei och Ej är två olika bevisomständigheter, så gäller det multiplikativa sambandet
    P(A|Ei, Ej) = 1-(1-P(A|Ei))(1-P(A|Ej))
förutsatt att Ei och Ej uppfyller något visst oberoendevillkor L som han dock dessvärre inte preciserar ordentligt. Jag går bet på att lista ut vilket detta villkor L skulle vara; såväl vanligt obetingat oberoende som betingat oberoende givet A eller betingat oberoende givet Quicks oskuld ¬A visar sig vara otillräckligt för att garantera den önskade multiplikativiteten. Saken blir inte bättre av hans besynnerliga ad hoc-hantering av de negativa "sannolikheter" som redan från början är mäkta besynnerliga, och texten innehåller därtill en del ytterligare underligheter. Jag vet inte riktigt hur jag skall kunna sammanfatta denna nya version av den quickologiska sannolikhetskalkylen utan att jag riskerar att få nya ebrev från Lambertz med uppläxning rörande vad som är lämpligt språkbruk för en "professor och representant för Chalmers, med de anspråk på seriositet som samhället ställer på en sådan person" (citat ur ebrev från Lambertz till mig den 6 augusti i år), men "rena rappakaljan" vore helt klart ett i sammanhanget träffande uttryck.

torsdag 18 september 2014

Superintelligence odds and ends V: What is an important research accomplishment?

My review of Nick Bostrom's important book Superintelligence: Paths, Dangers, Strategies appeared first in Axess 6/2014, and then, in English translation, in a blog post here on September 10. The present blog post is the last in a series of five in which I offer various additional comments on the book (here is an index page for the series).

*

The following two-sentence paragraph, which opens Chapter 15 of Superintelligence, is likely to anger many of my mathematician colleagues.
    A colleague of mine likes to point out that a Fields Medal (the highest honor in mathematics) indicates two things about the recipient: that he was capable of accomplishing something important, and that he didn't. Though harsh, the remark hints at a truth.

At this point, I urge the angry mathematicians reading this not to stop reading, and not to conclude that Bostrom is a jackass and/or a moron unworthy of further attention. There is more to his "harsh" position than first meets the eye. And less, because to those of us who continue reading, it quickly becomes clear that he is not saying that the mathematical results discovered by some or all Fields Medalists are unimportant. Instead, he has two interesting and original points to make about research in mathematics (and in other disciplines), one general, and one more concrete. The general point is that the value of the discovery of a result is not equal to the value of the result itself, but rather the value of how much earlier we, as a consequence of the discovery, learned the result compared to what would have been the case without that particular discovery.1 The more concrete point is that even if deep and ground-breaking results in pure mathematics are valuable in themselves (as opposed to whatever scientific or engineering applications may eventually grow out of them), then there may be a vastly more efficient way to advance mathematics (compared to what the typical Fields Medalist engages in), namely to contribute to the development of AI or of transhumanistic technologies for enhancement of human cognitive capacities, in order for the next generation of mathematicians (made of flesh-and-blood or of silicon) to be in a vastly better position to make even deeper and even more ground-breaking discoveries. Here's how Bostrom explains his position:
    Think of a "discovery" as an act that moves the arrival of information from a later point in time to an earlier time. The discovery's value does not equal the value of the information discovered but rather the value of having the information available earlier than it otherwise would have been. A scientist or a mathematician may show great skill by being the first to find a solution that has eluded many others; yet if the problem would soon have been solved anyway, then the work probably has not much benefited the world. There are cases in which having a solution even slightly sooner is immensely valuable, but this is more plausible when the solution is immediately put to use, either by being deployed for some practical end or serving as the foundation to further theoretical work. And in the latter case [...] there is great value in obtaining the solution slightly sooner only if the further work it enables is itself both important and urgent.

    The question, then, is [...] whether it was important that the medalist enabled the publication of the result to occur at an earlier date. The value of this temporal transport should be compared to the value that a world-class mathematical mind could have generated by working on something else. At least in some cases, the Fields Medal might indicate a life spent solving the wrong problem - perhaps a problem whose allure consisted primarily in being famously difficult to solve.

    Similar barbs could be directed at other fields, such as academic philosophy. Philosophy covers some problems that are relevant to existential risk mitigation - we encountered several in this book. Yet there are also subfields within philosophy that have no apparent link to existential risk or indeed any practical concern. As with pure mathematics, some of the problems that philosophy studies might be regarded as intrinsically important, in the sense that humans have reason to care about them independently of any practical application. The fundamental nature of reality, for instance, might be worth knowing about, for its own sake. The world would arguably be less glorious if nobody studied metaphysics, cosmology, or string theory. However, the dawning prospect of an intelligence explosion shines a new light on this ancient quest for wisdom.

    The outlook now suggests that philosophic progress can be maximized via an indirect path rather than by immediate philosophizing. One of the many tasks on which superintelligence (or even just moderately enhanced human intelligence) would outperform the current cast of thinkers is in answering fundamental questions in science and philosophy. This reflection suggests a strategy of deferred gratification. We could postpone work on some of the eternal questions for a little while, delegating that task to our hopefully more competent successors - in order to focus our own attention on a more pressing challenge: increasing the chance that we will actually have competent successors. This would be high-impact philosophy and high-impact mathematics.

If this is not enough to calm down those readers feeling anger on behalf of mathematics and mathematicians, Bostrom furthermore offers the following conciliatory footnote:
    I am not suggesting that nobody should work on pure mathematics or philosophy. I am also not suggesting that these endeavors are especially wasteful compared to all the other dissipations of academia or society at large. It is probably very good that some people can devote themselves to the life of the mind and follow their intellectual curiosity wherever it leads, independent of any thought of utility or impact. The suggestion is that at the margin, some of the best minds might, upon realizing that their cognitive performance may become obsolete in the forseeable future, want to shift their attention to those theoretical problems for which it makes a difference whether we get the solution a little sooner.
The view of research priorities and the value of mathematical, philosophical and scientific progress that Bostrom offers in the above passages may seem provocative at first, but on second reflection it strikes me as wise and balanced. Are there any aspects of this issue he has failed to take into account? Of course there are, but the question should be whether there are any such aspects that are sufficiently relevant to overthrow his conclusion. Here's the best one I can come up with for the moment:

Perhaps the main value of a mathematical discovery lies not in the result itself, but in the process leading up to the discovery, and perhaps it is important that the cognitive work is done by an ordinary human tather than an enhanced human or some super-AI. Well, a bit of enhancement is OK - many years of education, plus some caffeine - but anything much beyond that reduces the value of the discovery significantly.

Something along those lines. But, honestly, doesn't it sound arbitrary, artificial, and more than a little anthropochauvinistic? It is certainly not an argument with which the mathematical community can hope to convince tax payers to support research in mathematics. Perhaps some similar argument might work for music or for literature, as the audience might have a preference for songs or novels they know are written by ordinary humans rather than by some superintelligence.2 But the case is very different for mathematics, because the population of people who can appreciate and enjoy, say, Wiles' proof of Fermat's Last Theorem or Perelman's proof of the Poincaré conjecture, is very small and consists almost exclusively of professional mathematicians. So using the argument for mathematics comes very close to asking taxpayers to support mathematical research because it is enjoyable to mathematicians.

The process-more-important-then-result objection fails to convince. All in all, I think that Bostrom's new perspective on the value of research findings, although of course not the only valid viewpoint, is very much worth putting on the table when discussing priorities regarding which research areas to fund.3

Footnotes

1) This notion of the value of a discovery is not entirely unproblematic, however. Consider the case of my friends Svante Linusson and Johan Wästlund, and their their solution to the famous problem of proving Parisi's conjecture. On the very same day that they announced their result, another group, consisting of Chandra Nair, Balaji Prabhakar and Mayank Sharma, announced that they had achieved the same thing (using a different approach). For the sake of the argument, let us make the following simplifying assumptions:
    (a) the two works and their timings were independent (almost true),

    (b) there is no extra value in having the two different proofs of the result compared to having just one (plain false),

    (c) without the two works, it would have taken another ten years for the scientific community to come up with a proof of Parisi's conjecture (pure speculation on my part).

With these assumptions, Bostrom's way of attaching value to research discoveries has some strange consequences. The work of Linusson and Wästlund is deemed worthless (because in view of the Nair-Prabhakar-Sharma paper, they did not accelerate the proof of Parisi's conjecture). Similarly and symmetrically, the Nair-Prabhakar-Sharma paper is deemed worthless. Yet, Bostrom has to accept that the two papers, taken together, are valuable, because they gave us proof of Parisi's conjecture ten years earlier than what would have been the case without them.

Such superadditivity of values is not unusual. A hot dog on its own may be worthless to me, and the same may go for a bun, but together they constitute a highly delicious and valuable meal. But the Linusson-Wästlund and the Nair-Prabhakar-Sharma papers, exhibiting the same superadditivity, still does not fit the hot-dog-and-bun pattern, because unlike the hot dog and the bun, each of the papers contains, on its own, the whole thing we value (the early arrival of the proof of Parisi's conjecture). Strange.

2) And chess. As a chess amateur, I enjoy studying the games of world champions and other grandmasters. For more than a decade, there have been computer programs that play clearly better chess than the very best human chess players. And yet, I do not find even remotely the same thrill in studying games between these programs, compared to those played between humans.

3) It will be interesting to see how this statement will be received by my friends and colleagues in the mathematics community. My hope and my belief is that the position I'm endorsing will be appreciated for its nuances and recognized as a point of view that merits discussion. But I am not certain about this. If worst comes to worst, my statement will be widely condemned and perhaps even mark the end of a 15-or-so years period during which I have received a steady stream of invitations and requests to take on various positions of trust in which I am expected to defend the interests of research mathematics. I would not welcome such a scenario, but I much prefer it to one in which I refrain from speaking openly on important issues.