Visar inlägg med etikett prediktion. Visa alla inlägg
Visar inlägg med etikett prediktion. Visa alla inlägg

torsdag 17 december 2020

Min medverkan i SVT:s Utrikesbyrån igår

Angående min medverkan i SVT:s Utrikesbyrån igår (ca 11:20-12:50 in i videon på SVT Play; se även detta nyhetsklipp) vill jag framhålla att mina kritiska ord om FHM-direktör Johan Carlsons prediktion i början av mars av hur hårt Sverige i värsta fall kan komma att drabbas av coronasmittan inte rör sig om simpel efterklokhet. Minnesgoda läsare av denna blogg kan påminna sig att jag redan när det begav sig var starkt kritisk mot hans besinningslösa bedömning.

Programmet, vilket gavs rubriken Pricka rätt 2021, tycker jag som helhet blev helt ok, och inte minst är det bra att de lyfte Philip Tetlocks arbete med superforecasting. Och naturligtvis anser jag att det var ett klokt drag av dem att anlita mig som expertkommentator, men...

...de hade kunnat få betydligt större utväxling på just den saken om de hade hållt sig till den ursprungliga intention de signalerade till mig inför intervjun, nämligen att på ett mer övergripande plan diskutera de matematiska modellernas roll i prognosmakeri, istället för den snabba inzoomningen på Kinas osäkra covid-19-data.

tisdag 5 april 2016

Om prediktion

I USA utropas varje år april månad till Mathematics Awareness Month, framför allt som ett slags paraply för en mängd olika lokala aktiviteter med det gemensamma syftet att skänka matematiken den uppmärksamhet i samhället ämnet förtjänar. Ett specifikt tema utses varje år, och i år är temat The Future of Prediction. I aprilnumret av tidskriften Notices of the American Mathematical Society ägnas en särskild avdelning åt detta tema, inklusive en text av yours truly, rubricerad Our desperate need to predict the future, där jag tar chansen att inskärpa några vetenskapsteoretiska poänger jag tidigare snuddat vid i Kapitel 6 av min bok Here Be Dragons och i min tidigare bloggpost No nonsense.1 Så här inleder jag den aktuella texten:
    In 1814, Pierre Simon de Laplace envisioned a demon who could pinpoint the exact present positions and movements of all particles and then calculate all of their future trajectories, thereby accurately predicting everything that will ever happen. He understood, however, that this task would be forever beyond mere human capabilities. Due to what we now know of as sensitive dependence on initial conditions, this brute force approach to predicting the future does not work (other than in certain limited situations with limited time horizon). Instead, we’d like to find regularities in the past and assume “by induction” that they will continue into the future. Unfortunately, there seems to be no way to defend induction - the extension of past regularities into the future - without reverting to circularity by pointing out that induction has served us well in the past and thus can be expected to do so in the future.

    Nevertheless, we rely on induction to make predictions. We simply do not know any other way. Good applied mathematicians and good scientists know that the extent to which these predictions are reliable depends on how closely the state of the system we are trying to predict will remain within the envelope of what has already been observed. The further we push atmospheric CO2 levels above those of the last several million years, the less reliably we can predict the future climate. Moore’s law - the exponential curve that fits several decades of computer hardware development so well - eventually predicts the physically impossible.

    Today we face unprecedented challenges of the following kind.

Med denna cliffhanger hoppas jag övertyga läsaren om att läsa hela min text om prediktion här!

Fotnot

1) Min nya text har också beröringpunkter med förra veckans bloggpost Aaronson om Newcombs paradox, som även den behandlar ämnet prediktion. Newcombs paradox kan ju ses som en illustration av hur känslan av fri vilja tycks gå upp i rök om vi blir alltför bra på att prediktera mänskligt beteende. I sista stycket av Notices-artikeln berör jag samma fenomen, om än inte med något fullt lika skruvat exempel.

torsdag 31 mars 2016

Aaronson om Newcombs paradox

Igår berättade jag om Scott Aaronsons underbara bok Quantum Computing since Democritus, och om hans charmerande tendens att bjuda läsaren på spännande små utvikningar. En av dessa utvikningar rör det fantasieggande filosofiska tankeexperiment som bär namnet Newcombs paradox. Jag sammanfattade själv häromåret tankeexperimentet med följande ord:
    An incredibly intelligent donor, perhaps from outer space, has prepared two boxes for you: a big one and a small one. The small one (which might as well be transparent) contains $1,000. The big one contains either $1,000,000 or nothing. You have a choice between accepting both boxes or just the big box. It seems obvious that you should accept both boxes (because that gives you an extra $1,000 irrespective of the content of the big box), but here’s the catch: The donor has tried to predict whether you will pick one box or two boxes. If the prediction is that you pick just the big box, then it contains $1,000,000, whereas if the prediction is that you pick both boxes, then the big box is empty. The donor has exposed a large number of people before you to the same experiment and predicted correctly [every] time, regardless of whether subjects chose one box or two.1
Så vad väljer du, att ta den stora lådan, eller båda lådorna? Är du en så kallad one-boxer, eller en two-boxer? I en av de tidiga artiklarna om paradoxen, från 1969, skriver Robert Nozick så här:
    To almost everyone, it is perfectly clear and obvious what should be done. The difficulty is that these people seem to divide almost evenly on the problem, with large numbers thinking that the opposing half is just being silly.2
Jag har själv (fram tills nu) inte riktigt kunnat ta ställning inför den spänning mellan å ena sidan kausalt och å andra sidan statistiskt-prediktivt tänkande som problemställningen lyfter fram, och därmed inte kunnat svara på om jag är en one-boxer eller en two-boxer. Därför triggades min nyfikenhet rejält av följande löfte från Aaronson:
    I can give you my own attempt at a resolution, which has helped me to be an intellectually fulfilled one-boxer. [Quantum Computing since Democritus, s 296]
Och när jag ser hans argument så sliter jag mitt hår över att inte ha kommit på det själv, för argumentet föreslår ju praktiskt taget sig självt för den som är bekant med antingen Nick Bostroms simuleringsargument (vilket jag är) eller Stuart Armstrongs tankeexperiment med den aggressivt förhandlande nyblivet superintelligenta AI:n (vilket jag också är).
    Now let's get back to the earlier question of how powerful a computer the Predictor has. Here's you, and here's the Predictor's computer. Now, you could base your decision to pick one or two boxes on anything you want. You could just dredge up some childhood memory and count the letters in the name of your first-grade teacher or something and based on that, choose whether to take one or two boxes. In order to make its prediction, therefore, the Predictor has to know absolutely everything about you. It's not possible to state a priori what aspects of you are going to be relevant in making the decision. To me, that seems to indicate that the Predictor has to solve what one might call a "you-complete" problem. In other words, it seems the Predictor needs to run a simulation of you that's so accurate it would essentially bring into existence another copy of you.

    Let's play with that assumption. Suppose that's the case, and that now you're pondering whether to take one box or two boxes. You say, "all right, two boxes sounds really good to me because that's another $1,000." But here's the problem: when you're pondering this, you have no way of knowing whether you're the "real" you, or just a simulation running in the Predictor's computer. If you're the simulation, and you choose both boxes, then that actually is going to affect the box contents: it will cause the Predictor not to put the million dollars in the box. And that's why you should take just the one box. [Quantum Computing since Democritus, s 296-297]

I ljuset av detta argument ansluter jag mig härmed till lägret av one-boxers.

Fotnoter

1) Jag har här förvrängt mitt eget citat en smula genom att ändra "90% of the time" till "every time", för att bättre ansluta mig till hur tankeexperimentet vanligtvis (och så även i Aaronsons bok) framställs. För den centrala problematiken gör detta inte någon större skillnad. Skälet till att jag i mitt ursprungliga citat talar om 90% är att stycket är hämtat från min recension av William Eckhardts bok Paradoxes in Probability Theory, där författaren insisterar på 90%-formuleringen.

2) Nozicks påstående om "almost evenly" kan jämföras med David Chalmers opinionsundersökning 40 år senare om filosofers inställning till filosofiska spörsmål, där (bland 931 svarande) 21% säger sig vara one-boxers, mot 31% two-boxers (medan återstående 47% kategoriseras under det mer svårtolkade svaret "others").

fredag 18 januari 2013

Silverprediktioner

Det tycks mig en smula ironiskt att USA:s idag troligtvis mest välkände statistiker inte är utbildad statistiker. Jag vill dock inte racka ned alltför mycket på Nate Silver för denna brist i hans CV, då han är mycket begåvad och genom praktisk erfarenhet skaffat sig omfattande kunskaper i ämnet. Han har en examen i nationalekonomi från 2000, hade ett enligt egen utsago tråkigt jobb i en ekonomisk konsultfirma fram till 2003, och utveckalde samtidigt på sin fritid programmet PECOTA (Player Empirical Comparison and Optimization Test Algorithm) för prediktering av professionella basebollspelares framtida prestationer, vilket blev så framgångsrikt att han till slut hade råd att säga upp sig och satsa helhjärtat på sina egna projekt (inklusive en kort period som professionell pokerspelare). Sin stora berömmelse vann han som prediktionsguru inte inom baseboll utan inom amerikansk politik. I mars 2008 lanserade han sin blogg FiveThirtyEight1, och kom snabbt att väcka stor uppmärksamhet för sina träffsäkra prognoser. I presidentvalet mellan Obama och McCain i november 2008 prickade han rätt vinnare i 49 av 50 delstater, och fyra år senare mellan Obama och Romney klarade han alla 50.

Nate Silvers bok The Signal and the Noise: The Art and Science of Prediction utkom i september förra året och tog sig snabbt in på bästsäljarlistorna. Den 500-sidiga boken är skriven med ett utpräglat journalistiskt driv, och är både lättläst och bitvis så intressant att den är svår att lägga ifrån sig. Flertalet kapitel behandlar prediktion inom något specifikt område, från meteorologi och jordbävningar till poker och finansmarknader, och så naturligtvis Silvers egna specialområden baseboll och amerikansk politik.

Silver är mycket skicklig på att utveckla framgångsrika prediktionsmodeller och -algoritmer, och det finns väldigt mycket att hålla med om när det gäller allmänna råd och recept för framgångsrik prediktion. Exempelvis är det bara att instämma då han framhåller vikten av mekanistisk förståelse (att sätta sig in i de kausala samband som ligger bakom det fenomen man modellerar, i motsats till det slags kurvanpassning där man inte bryr sig mycket om vad kurvorna egentligen står för). Detsamma gäller hans ställningstagande mellan hedgehogs och foxes i Isaiah Berlins instruktiva tankefigur där en igelkott (hedgehog) har en enda stor idé att arbeta med, medan en räv har många små; mycket av Silvers framgång som prognosmakare består i att han förmår kombinera informationen i många olika (slags) kunskapskällor snarare än att ensidigt fokusera på en eller några få. Den tankefigur som bokens titel fömedlar - vikten av att kunna skilja ut den relevanta signalen i vad som ofta är ett hav av brus - är också mycket användbar och viktig. Och ännu en viktig lärdom är att man inte bör nöja sig med att ange vilket utfall man finner allra sannolikast - i de flesta beslutssituationer finns all anledning att försöka precisera en fördelning som ger sannolikheter för alla möjliga utfall.

Mycket klok är också Silvers betoning av hur viktigt det är att försöka göra en så träffsäker prediktion som möjligt. Detta kan i förstone synas så självklart att det inte ens behöver nämnas, men han ger genom boken en rad exempel på hur prognoser förvrids då prognosmakare har andra incitament än att prognosticera så träffsäkert som möjligt. Till exempel framstår det initialt som en smula gåtfullt hur amerikanska TV-stationer tenderar att göra betydligt sämre väderprognoser än den federala väderbyrån NWS (National Weather Service), trots att de har gratis tillgång till prognoserna från NWS och därmed kan försäkra sig om att göra lika bra prognoser genom att helt enkelt apa efter. Det visar sig emellertid att TV-stationernas önskan att hålla sig väl med sina tittare skapar en bias i deras väderprognoser. Tittare tenderar att bli argare då prognoserna förutsagt sol medan verkligheten levererat regn än vice versa, något som får TV-stationerna att i överlag överdriva risken för regn. Silver ger också exempel på hur liknande asymmetrier bland fondförvaltare på Wall Street kan bidra till flockmentalitet och kollektiv oförmåga att rätt bedöma risken för börsnedgångar och krascher.2

Jag har som synes mycket gott att säga om Nate Silvers bok. Den bjuder på många klokskaper, och jag bedömer att den kan njutas med stor behållning av ett brett spektrum av läsare på alla nivåer från gymnasister till professorer. Likväl är det något med den som inte känns bra. Silver talar genomgående med stor auktoritet, men kan vi verkligen lita på att han har täckning för det?

Mina egna förkunskaper om de ämnen bokens olika kapitel tar upp varierar kraftigt, från näst intill total okunnighet (som Kapitel 3 om baseboll, Kapitel 5 om jordbävningar och Kapitel 10 om poker) via ett lite bättre hum (som Kapitel 4 om meteorologi och Kapitel 7 om epidemier och infektionssjukdomar) och riktigt hygglig pålästhet (Kapitel 12 om klimatvetenskap) till vad jag dristar mig kalla expertis (Kapitel 8 om statistiska slutledningsprinciper och Kapitel 9 om schack). Överlag kan om min upplevelse av boken sägas att den var som mest njutbar i de kapitel som behandlar ämnen jag visste mycket lite om, medan ju mer jag behärskade ämnet desto oftare stötte jag på tveksamheter och rena felaktigheter i texten, och vad gäller de tre sistnämnda kapitlen tycker jag att de inte håller måttet för vad man kan begära av god populärvetenskap i fråga om vederhäftighet. Man kan nu fråga sig om det är en tillfällighet att just de tre kapitel vilkas innehåll jag kan något om är så dåliga, eller om det möjligen kan vara så att övriga kapitel är lika dåliga men att jag helt enkelt saknar de specialkunskaper som krävs för att genomskåda detta. Jag lämnar detta som en öppen fråga, men vill avsluta med att ge exempel på störande dumheter i Kapitel 8, 9 och 12.

Kapitel 8 om statistisk slutledning. Vad gäller metodologi är detta bokens centrala kapitel. Nate Silver förordar bayesiansk uppdatering av a priori-sannolikheter i ljuset av data. Utan tvivel är detta en stor del av "hemligheten" bakom hans framgångar som prognosmakare, och på områden som poker och oddssättning på vadslagningsbyråer kan man lugnt säga att hans förhållningssätt är det enda rimliga. Men när han mer allmänt tar ställning i frågan om bayesianska kontra frekventistiska metoder3 - en av de mest debatterade principfrågorna inom den matematiska statistiken under större delen av 1900-talet och framåt - gör han det onyanserat och ovederhäftigt. Hans beskrivningar av frekventistisk statistik är aggressivt tendentiösa och ofta direkt felaktiga, som att "sampling error [is] the only type of error that frequentist statistics directly accounts for" (sid 252) eller att "frequentist methods - in striving for immaculate statistical procedures that can't be contaminated by the researcher's bias - keep him hermetically sealed off from the real world" (sid 253). Precis som ekonomerna Thomas Ziliak och Deidre McCloskey i deras uppmärksammade bok The Cult of Statistical Significance (som jag skrivit om här) övergår Silver i sina attacker på frekventismen till att även attackera personen Sir Ronald Fisher (1890-1962), allmänt känd som den frekventistiska statistikens fader. Fisher var en inbiten rökare, och vägrade hårdnackat (och pinsamt nog för en vetenskaplig frontfigur som han) att acceptera slutsatsen att rökning orsakar lungcancer. Korrelationen kunde han inte förneka, men föreslog alternativa kausalsamband, som att någon viss defekt i lungan skulle dels på sikt ge upphov till lungcancer, dels ge en retning som triggar folk att som lindring börja röka. Med facit i hand kan vi skratta åt detta, men Silver är helt fel ute när han hävdar att det var Fishers frekventistiska tankesätt som tillät honom hans ståndpunkt. Silver tycks mena att om Fisher varit bayesian, så hade han haft förstånd att representera långöktheten i han alternativa kausalteori med en mycket låg a priori-sannolikhet, och därmed ge hög sannolikhet åt det gängse kausalsambandet mellan rökning och lungcancer. Silvers argumentation här är helt orimlig, för det första för att Fisher, färgad av önsketänkande, givetvis inte hade valt en sådan a priori-fördelning, och för det andra (och viktigare!) för att vetenskapliga frågor inte skall avgöras genom val av a priori-fördelning utan genom fortsatt anskaffning av allt bättre evidens av olika slag.

Opinionsläget i fråga om bayesianism kontra frekventism bland akademiska matematiska statistiker är idag betydligt mindre upphettat för några år sedan, och de flesta i den yngre generationen av forskare inser att bayesianska metoder passar bra för vissa problem, frekventistiska passar bättre för andra, medan åter andra lämpligen kan behandlas med hybrider och kombinationer av de båda verktygslådorna. När Silver ger sin sammanfattning av läget med (sid 260)...
    Recently [...] some well-respected statisticians have begun to argue that frequentist statistics should no longer be taught to undergraduates. And some professions have considered banning Fisher's hypothesis test from their journals. In fact, if you've read what's been written in the past ten years, it's hard to find anything that doesn't advocate a Bayesian approach.
...så är påståendena i de två första meningarna i sak riktiga men tendentiöst utvalda, medan den tredje meningen är ett rent påhitt och ger en helt missvisande bild av hur det ligger till.

Kapitel 9 om schack. I detta kapitel, som mestadels uppehåller sig vid kampen mellan människa och schackdator, är det tydligt hur Silver låtsas behärska schacklig jargong och avancerade koncept men sätter ihop de fina nyckelorden på ett sätt som avslöjar hur lite han förstår om schack. Jag vill inte uppehålla mig vid detta4, mer än att konstatera det lite lustiga faktum att Silver gör sig skyldig till den (troligtvis) mest felaktiga sifferuppskattning jag någonsin sett. I sin förklaring till varför schackdatorer inte kan jobba sig igenom alla tänkbara varianter när de väljer ett drag framhåller Silver det (mer än) astronomiska antalet möjliga partier att tugga sig igenom, och den praktiska orimligheten i att göra det. Detta är helt riktigt, men den konkreta siffra han anger - 101050 - för det ungefärliga antalet möjliga schackpartier är fullkomligt hårresande uppåt väggarna, och det förvånar mig att Silver, som ändå besitter den allmänmatematiska kompetens som krävs för att snabbt konstatera detta, okritiskt släpper ifrån sig en sådan uppgift.5,6

Kapitel 12 om klimatvetenskap. Detta kapitel bedömer jag vara avsevärt bättre än Kapitel 8 och 9, och Silver gör många kloka påpekanden, inte minst då han betonar att vår gedigna förståelse för växthuseffekten och andra fysikaliska mekanismer inblandade i klimatsystemet gör våra kunskaper om klimatförändringarna och deras orsaker mycket solida. Sedan ägnar han emellertid alldeles för mycket kraft åt att analysera hur väl scenarier och förutsägelser gjorda för några få år sedan7 och avsedda för återstoden av århudradet har fallit ut de senaste åren - i stort sett meningslösa räkneövningar då så korta tidsskalor gör att trenderna rätt och slätt drunknar i klimatsystemets brus. Silver är på tok för otydlig på denna punkt.

Fotnoter

1) Bloggen namn kommer av att 538 är antalet delegater i det amerikanska elektorskollegiet.

2) Silvers förklaring är så instruktiv att den förtjänar att citeras. Tänk dig att du är en aktiehandlare vars framtida lönekuvert och bonusar naturligtvis är beroende av hurpass väl du lyckas med att tjäna pengar åt din arbetsgivare. Det är viktigt att du rätt kan förutse huruvida marknaden är på väg upp (Köp! Köp! Köp!) eller ner (Sälj! Sälj! Sälj!), men du bör också beakta vilka de eventuella konsekvenserna blir om du gissar fel. Här föreligger (sid 355, originalets fetning) en viss asymmetri:
  • The trader buys but the market crashes. This is no fun: he's lost his firm a lot of money and there will be no big bonus and no new Lexus. But since he's stayed with the herd, most of his colleagues will have made the same mistake. Following the last three big crashes on Wall Street, employment at securities firms decreased by about 20 percent. That means there is an 80 percent chance the trader keeps his job and comes out okay; the Lexus can wait until the next bull market.
  • The trader sells but the market rises. This scenario, however, is a disaster. Not only will the trader have significantly underperformed his peers - he'll have done so after having stuck out his neck and screaming that they were fools. It is extremely likely that he will be fired. And he will not be well-liked, so his prospects for future employment will be dim. His career earnings potential will have been dramatically reduced.
Med sådana incitament, påpekar Silver, behöver man känna sig väldigt säker på att en nedgång är nära förestående innan man vågar satsa på att så är fallet.

3) Någon text som helt ägnas denna debatt har jag inte författat, men här, här och här delar jag med mig av min balanserade syn på frågan.

4) Här, emellertid, är ett typiskt exempel: I första matchpartiet 1997 mellan dåvarande världsmästaren Garri Kasparov och datorprogrammet Deep Blue överraskade den förstnämnde med att efter inledningsdragen 1. Sf3 d5 2. g3 Lg4 (onödigt svåra att rekonstruera ur Silvers bok på grund av ett fel i diagrammet på sid 271) avvika från gängse spelöppningsteori med det ovanliga 3. b3. Om detta skriver Silver (sid 270) att Deep Blues spelöppningsdatabas "relied on the assumption [...] that Kasparov would respond as almost all players had when faced with this position, by moving the knight back out of the way", följt av en fotnot om löparparets värde som ger (det helt orimliga) intrycket av att detta (löparparets värde) är något som Kasparov men inte Deep Blue kände till. Mycket rimligare hade varit att säga något om den försvagning av vits bondestruktur som ett byte på f3 skulle åstadkomma, och hur denna kan vägas mot fördelen av att inneha löparparet. För övrigt skulle ingen enda någorlunda kunnig schackspelare i ställningen efter svarts andra drag mer än för högst ett ögonblick överväga "moving the knight back out of the way" (till g1 alltså). Vad däremot många gjort i ställningen är att kasta springaren framåt (3. Se5), men klart vanligast är faktiskt 3. Lg2, vilket tillåter bytet på f3 men undviker den vidhängande bondeförsvagningen (varefter svart som regel avstår från att slå springaren).

5) Om a är en övre gräns för maximala antalet tillgängliga drag i en ställning, och b är en övre gräns för antalet drag i ett schackparti, så är a2b en övre gräns för antalet möjliga schackpartier. Med hjälp av 50-dragsregeln går det lätt att härleda att b är högst 5950, och en grov övre gräns för a är 169 321. Antalet möjliga schackpartier är därför högst lika med 169 32111900 vilket är mindre än 1026512 29828 - förvisso ett ofattbart stort tal, men ändå rent ut sagt löjligt litet jämfört med 101050.

6) Det är oklart var Silver fått sin siffra ifrån. Han hänvisar till Kasparovs intressanta essä The Chess Master and the Computer i New York Review of Books för ett par år sedan, men i denna text anger Kasparov antalet till 10120. Ironiskt nog är även denna siffra alldeles på tok, och faktiskt (dess enorma astronomiska storlek till trots) för liten. Det är inte svårt att rigoröst konstruera en uppsättning schackpartier som till antalet överstiger 10500 eller mer.

7) Exempelvis diskuterar Silver i detalj (sid 381 och framåt) den vadslagning rörande global temperaturutveckling som en klimatförnekare vid namn Scott Armstrong 2007 föreslog Al Gore. Att jämföra hur många månader som sedan dess kommit närmare den temperaturutveckling Armstrong föreslog åt sig själv än den han tillskrev Gore, ger data med ett så dåligt signal/brus-förhållande att de i princip är värdelösa.

Edit 19 januari 2013: Jag vill inte längre stå för Fotnot 5:s skattning a=169, utan korrigerar för att vara på den säkra sidan till a=321. När jag härledde a=169 tyckte jag att jag var fiffig som tog i beaktande att bönder som står på sjunde raden kan ha upp till 12 olika drag att välja mellan, tack vare att det finns fyra olika pjäser att promovera till. Desto märkligare att jag glömde att beakta den ökade rörelsefrihet som promoverade bönder kan ha. Min nya försiktigare skattning a=321 bygger på värsta fall-scenariot att den som är vid draget har nio damer (och således noll bönder). Med lite skicklighet bör det gå att pressa ned skattningen rejält. J.E. Littlewoods motsvarande skattning (i det manus som diskuteras i kommentarstråden nedan) är 332. Diskrepensen mot mitt nya 321 ser ut att bero på att Littlewood skattat maximala antalet rutor en löpare kan nå med 14 istället för optimala 13, och motsvarande ickeoptimalitet för damer.

tisdag 28 februari 2012

Prediktering medelst linjär regression?

Den finaste idrottsprestation jag gjort är att på skidor avverka de 90 kilometrarna från Sälen till Mora. Igår genomförde jag det hela för tredje gången, därtill åstadkommandes en rejäl putsning av det personliga rekordet.1,2 Något målgångsfoto från gårdagen finns ännu inte tillgängligt - bilden här till höger är från målgången 2011.3

Mitt första Öppet spår körde jag vid 39 års ålder, och gick då i mål på tiden 9.16.00. 43 år gammal grejade jag sluttiden 8.58.40, och igår, 44 år fyllda, gick jag i mål på nya rekordtiden 8.29.41. De läsare som är roade av tillämpad statistisk modellering inbjudes härmed att, som en enkel övningsuppgift, på klokast möjliga vis utnyttja dessa data till att uppskatta hur snabbt jag kan väntas genomföra loppet vid 50 års ålder, och vid 60.

Fotnoter

1) Trots min fina insats fick jag i vanlig ordning se mig besegrad av lillasyster Lisa Hernqvist, som gick i mål på imponerande 8.01.58. Jag får vara nöjd med att jag hängde med henne i 15 km.

2) Tro det eller ej, men det här är inte första gången jag använder en förment seriös blogg till simpelt skrävel över egna idrottsframgångar.

3) Den något sammanbitna minen kommer sig av den fysiska ansträngningen parad med att jag ännu inte var klar över att jag hade över minuten till godo på dåvarande drömgränsen nio timmar.