I min förrförra bloggpost retade jag läsekretsens nyfikenhet rörande min Chalmers- och matematikerkollega Ulf Perssons nya bok Karl Popper, falsifieringens profet, och jag tänkte idag berätta kort om boken. Huruvida det jag nu skriver är att betrakta som en regelrätt recension vill jag låta vara osagt. En invändning kan vara att Ulf och jag är goda vänner och att den saken kan grumla mitt omdöme eller åtminstone lägga en hämsko på min öppenhjärtighet. Jag kan inte tillbakavisa detta helt, men kan i alla fall peka på att Ulf är en person som, mer utpräglat än kanske någon annan jag känner, praktiserar och sätter värde på ärlighet och raka puckar, något jag här tänker ta fasta på.
Jag kommer att göra problemet med min eventuellt bristande saklighet och objektivitet etter värre genom att göra explicita jämförelser mellan å ena sidan Ulf och hans skriverier, och å andra sidan mig och mina. Risken jag därmed tar - förutom den uppenbara att framstå som en smula självcentrerad - ligger i hur välkänt vanskligt det är att hålla sig med en korrekt självbild. Jag gör ändå ett försök, ty om det lyckas kan det bli en bra guide för denna bloggs trogna läsare (som vid det här laget kan antas bekanta med mina skriverier) till huruvida även Ulfs bok kan vara något för dem.
Karl Popper (1902-1994) räknas som en av 1900-talets främsta och mest inflytelserika vetenskapsfilosofer. Hans centrala bidrag utgörs av falsifikationismen - idén att vetenskapliga teorier inte kan bevisas men väl falsifieras, och den därav följdriktiga betoningen på behovet av att utsätta teorierna för kritisk prövning.1 I Karl Popper, falsifieringens profet bjuder Ulf Persson på ett kort biografiskt kapitel om Popper, och ett kapitel om Poppers samhällsfilosofi (framlagd i The Open Society and Its Enemies från 1945) där vi får klart för oss hur väl denna harmonierar med hans vetenskapssyn. Huvuddelen av boken består emellertid av en räcka kapitel där vi får se det falsifikationistiska synsättet tillämpas på olika vetenskaper: matematik, fysik, evolutionsbiologi, medicin, nationalekonomi och didaktik. Popper själv kommer ibland ur sikte (även om jag inte fört räkning om saken tycks det mig som att det ibland går 15-20 sidor utan att han omtalas), men diskussionen har genomgående något popperianskt över sig, om än med en distinkt perssonsk touch. För oss som känner Ulf och tagit del av vad han tidigare skrivit känns en rad av hans käpphästar och favoritämnen igen - upptäckten av ickeeuklidiska geometrier och dess konsekvenser för synen på matematiken, ptolemaiosk kontra kopernikansk världsbild, evolution medelst naturligt urval, och inte minst didaktikens (enligt Ulf) fatala brister i fråga om vetenskaplighet. Hans intellektuella intressen överlappar i påfallande grad med mina egna.
Jag känner stor frändskap med Ulf i flera avseenden. Vi har båda vår akademiska bas och vetenskapliga legitimitet i matematiken, men vi har båda vägrat att hålla oss inom dess domäner, och vi har båda överträtt dess gränser inte i första hand genom att ställa våra matematiska färdigheter i tjänst för detaljerad tillämpning inom något specifikt ämne, utan mer genom ett mer svepande och vidlyftigt filosoferande om de riktigt stora frågorna om världens beskaffenhet. Vissa andra uppenbara likheter finns också mellan våra kynnen - kanske framför allt den snudd på oemotståndliga lusten att utan otydlighetsskapande lager av diplomati påtala intellektuella brister i andras arbeten.
Men där finns också, vågar jag påstå, tydliga skillnader. En sådan är Ulfs totala (och, tror jag, bara delvis avsiktliga) brist på den politiska korrekthet som jag tror mig själv om att i åtminstone någon mån besitta; den självklarhet med vilken han konsekvent använder det genusladdade ordet vetenskapsman är blott ett av symptomen på hans ointresse för anpassning i sådan riktning. En annan skillnad är att Ulf känner mindre behov än jag av att belägga sina allmänna påståenden med konkreta exempel eller åtminstone källvänvisningar. Möjligen kan en sådan attityd gagna flödet i texten, men stadgan i argumentationen kan också bli lidande.2 I synnerhet när Ulf avfärdar hela verksamheter och discipliner, med påståenden som att "pedagogiken inte gjort några framsteg sedan antiken" (s 165), efterlyser jag en något större konkretion i de belägg han anför.
Stilistiskt har Ulfs texter alltid lidit av en hög frekvens av slarvfel, och alltsedan den intensiva period 2005-2007 då jag som ordförande för Svenska Matematikersamfundet fungerade som ansvarig utgivare för det medlemsblad Ulf stod som redaktör för (med sig själv som flitigast anlitad skribent) har jag misstänkt att han aldrig någonsin självmant går tillbaka och korrekturläser sina texter. Ett annat lite irriterande särdrag är hans obenägenhet att påbörja nytt stycke, vilket kan få hans texter att för ögat te sig oaptitliga och ogenomträngliga. Det verkar dock som om han denna gång fått (påtvingats?) hjälp med både korrekturläsning och redigering, och även om stildragen finns kvar så är de kraftigt dämpade, vilket gör Karl Popper, falsifieringens profet till det (mig veterligen) mest välskrivna alster som kommit från Ulfs penna.
Jag finner boken klart läsvärd, och rekommenderar den varmt för den samhälls- och vetenskapsintresserade bildade allmänhet som jag föreställer mig att den typiska läsaren av denna blogg tillhör. Bokens svep över olika vetenskapsområden ur ett tämligen konsekvent popperianskt perspektiv bjuder på många intressanta lärdomar.
Trogen mitt kritiska kynne (vilket jag som sagt delar med Ulf) vill jag ändå nämna några av de enskildheter i boken som jag finner mindre lyckade:
- Den schablonmässiga utnämningen av Richard Dawkins till "förespråkare för genetisk determinism" (s 105) synes mig orättvis och ogrundad.
- När Ulf strax tidigare tar upp den mycket intressanta frågan om altruismens evolutionära ursprung, behandlad i E.O. Wilsons Sociobiology från 1975, gör han ett val jag finner smått obegripligt, nämligen då han vad gäller förklaringsmodeller förbigår både den släktskapsselektion som spelar så stor roll i Wilsons arbete och den tankegång om reciprok altruism som senare skulle vinna stora framsteg, till förmån för följande icke-förklaring:
- Den skenbara motsägelsen, att altruistiska personer har negativt överlevnadsvärde i förhållande till sina mer själviska fränder, kan som redan antytts lätt kringgås om man antar att altruismen beror på en kombination av flera gener. (s 104)
- I diskussionen på s 144 och framåt om klinisk utprövning av nya behandlingsmetoder och mediciner talar Ulf om försöks- och kontrollgrupp och om vikten av att "det enda som väsentligen skiljer grupperna åt är behandlingen" (s 145), men försummar att nämna det avgörande instrument som tillåter forskarna att åstadkomma det på ett statistiskt rigoröst sätt: randomiserad allokering av patienter till försöks- och kontrollgrupp.3 På detta vis kan man ur korrelationer på någorlunda säker grund härleda kausaliteter, i motsats till i de epidemiologiska sammanhang Ulf diskuterar på s 146-147, där kontrollerad randomisering inte är tillgänglig, vilket gör kausaliteter långt mer problematiska att belägga (utöver den multipelinferensproblematik han diskuterar).
- Bokens avslutande appendix om sannolikhetsbegreppet är direkt dåligt. Jag sympatiserar visserligen med Ulfs uttalade avsikt att påvisa att "det är meningslöst att tala om sannolikheten för en viss händelse eller ett visst faktum utan att göra preciseringar och antaganden" (s 185), men sättet han gör det på - en räcka svagt sammanhängande och slarvigt genomförda kombinatoriska räkneexempel - tjänar mest bara till att påvisa hans ytliga kännedom om ämnet.
Fotnoter
1) Här är inte platsen för någon fullödig redogörelse för min syn på den popperianska falsifikationismen, men låt mig ändå säga följande. Å ena sidan anser jag att den genom betoningen på kritisk prövning av vetenskapliga teorier varit och är mycket värdefull. Å andra sidan ser jag ofta exempel på alltför fyrkantigt anförande av falsifierbarhetskriteriet. Att detta kriterium skulle göra skiljandet av riktig vetenskap från dåliga imitationer till en rättfram sak tror jag inte ens att Popper ansåg, och att saken är komplicerad illustreras inte minst av den så kallade Duhem-Quine-tesen. Som exempel på ett fall där jag efterlyser mer nyanserad bedömning kan jag citera följande ur min recension häomsistens av Max Tegmarks bok Our Mathematical Universe:
- Jag håller med Woit och Frenkel om att [Tegmark] går långt i sina spekulationer - så långt att han nog får anses ha överträtt gränsen mellan naturvetenskap och filosofi. Jag anser dock inte att det nödvändigtvis ligger något fel i detta, så länge man är tydlig över vad som är vad. Tegmark är föredömligt tydlig med vad som är mainstreamvetenskap (som hans utförliga och mycket intressanta redogörelse för den moderna kosmologins framväxt och var den står idag), vad som är något mindre etablerat, och vad som är hans egna tämligen sjövilda spekulationer. Och jag anser att frågan om universums (eller multiversums) fundamentala beskaffenhet är intressant och viktig, och finner det troligt att vi inte kan hitta fram till sanningen om detta med mindre än att en och annan forskare på Tegmarks vis tar sig friheten att söka sig långt utanför den etablerade boxen. Jag finner det en smula inskränkt att kräva att de spekulationer dessa pionjärer därvid levererar redan från början uppfyller alla gängse vetenskaplighetskrav om poppersk falsifierbarhet och liknande (Tegmark argumeterar för sina Nivå IV-teoriers falsifierbarhet, men övertygar inte riktigt på denna punkt). Sådant kan (förhoppningsvis) mejslas fram över tid.
2) Någon gång händer det att bristen på faktakontroll leder alldeles fel. På s 163 läser vi följande:
- Under drygt femtio år har en matematiktävling anordnats i Sverige. Vid varje tillfälle tas omkring ett dussin individer ut till final: det rör sig om drygt halvtusendet finalister under det senaste halvseklet. Av dessa har endast en handfull varit flickor. Kan vi av detta sluta att pojkar är mera matematiskt begåvade än flickor?
3) Hans tal om hur "i en tillräckligt stor population bör alla dessa skillnader [mellan försöks- och kontrollgrupp] ta ut varandra" som en följd av "de stora talens lag" (s 145) kan möjligen tolkas som att han någonstans i bakhuvudet känner till randomiseringsförfarandet, men han har uppenbarligen missat vilken absolut central roll detta spelar i kliniska försök.
I read and loved "The open society and its enemies" when I was 16. But apart from that the great Karl P did more harm than good, I think. His contributions to the foundational debate on quantum mechanics (probability, randomness ... ) are justly completely ignored. The falsifiability thing is a neat idea. Can be useful sometimes. Much over-rated.
SvaraRaderaI wholeheartedly agree regarding Popper's work on probability and QM. When I read Popper Selections a few years ago, the chapter on "Propensities, Probabilities, and the Quantum Theory" struck me as by far the worst.
Radera"det avgörande instrument som tillåter forskarna att åstadkomma det på ett statistiskt rigoröst sätt: randomiserad allokering av patienter till försöks- och kontrollgrupp"
SvaraRaderaJag har försökt förstå vad det är som gör att en initierad person/empirist helt plötsligt *måste* ta till slumpen för att resultaten ska bli rigorösa. Jag menar, vilken *information* tillför egentligen randomiseringen om man redan tagit hänsyn till alla faktorer man känner till? Låt mig säga att jag är med på följande *möjliga* fördelar med randomisering:
- förhindra omedvetna systematiska indelningsfel
- som en del av blindhet i ett försök
- för att klassiska signifikanstest/konfidensintervall ska fungera i tänkta upprepade experiment
- det är ett bekvämt och snabbt sätt att "ta hand om" faktorer man inte riktigt orkar hantera systematiskt
Det första kan uppnås utan slump, liksom det andra. Det tredje ser jag inte som ett hållbart argument eftersom det är de faktiska experimenten vi vill ha information om, inte imaginära. Det fjärde kan vara praktiskt, men ter sig som en approximation snarare än en förutsättning för ett giltigt/rigoröst resultat.
Kan man avgöra om en randomisering (tänk A, B, F, G, I till behandling och C, D, E, H, J till kontroll) är bra? Om så är fallet borde det ju bero på någon faktor man känner till/misstänker kan påverka. Om inte, vad är fel med A,B,C,D,E till behandling och F, G, H, I, J till kontroll? (Det här är inte mitt påhitt utan kommer från en statistiker som hävdade att valet A, B, C, D, E inte var så lyckat.)
Har någon en enkel förklaring till varför "ett tärningskast" krävs för ett giltigt resultat? I mina ögon tillför randomisering noll användbar information, lite som att lottoraden 2, 3, 12, 15, 23, 24, 35 är bättre än 1,2,3,4,5,6,7 för att den är "mer slumpmässig".
Jag är genuint intresserad av ett svar på frågan och har diskuterat den med statistiker förut. Kanske är jag för dum för att förstå det briljanta, men inget för mig övertygande argument för randomisering har ännu dykt upp.
Mvh
SP
Bra fråga, Stephen! Den kräver egentligen ett långt svar (och någon gång när jag har tid borde jag nog skriva en bloggpost om saken) men jag skall nu försöka fatta mig kort.
RaderaAtt ur en korrelation sluta sig till ett kausalsamband är ett centralt moment i empiriska studier på snart sagt alla områden, men är förknippat med svåra problem. Antag att man i en enkätstudie frågar folk (a) om de äter tomater, och (b) om de har nageltrång, och att man därvid finner en stark och statistisk signifikant korrelation mellan tomatätande och nageltrång. Kan vi därav dra slutsatsen att tomatätande orsakar nageltrång?
Sakta i backarna! Orsakssambandet kan gå åt olika håll, och det kan ju vara så att nageltrånget orsakar tomatätande (t.ex. på grund av att man omedvetet söker smärtlindring hos tomaterna). Och vad värre är, det skulle ju kunna finnas någon för oss okänd bakomliggande faktor X som orsakar både tomatätning och nageltrång. För en epidemiolog som gör den här sortens studier gåller det att med olika rimlighetsresonemang komma fram till vad för slags kausaliteter som är troligast, men det är inte lätt, och ofta(st) finns en kvardröjande osäkerhet om saken.
I randomiserade kliniska försök kan man (nästan) komma runt den här problematiken. Jag samlar in 100 försökspersoner, låter min slumptalsgenerator avgöra vilka 50 som under en månads tid skall påtvingas en diet med massor av tomater, och vilka 50 som under samma tid skall avhållas från tomater. Av tomatätarna fick 47 nageltrång, medan bara 2 av icke-ätarna fick det. Ett mycket starkt statistiskt samband! Vad är orsakssambandet? Tack vare att vi har styrt tomatätandet på basis av randomisering så är det enda rimliga alternativet att tomatätande orsakar nageltrång. Alternativen skulle vara att nageltrång (medelst något slags bakåt-i-tiden-mekanism) påverkar min slumptalsgenerator, eller (troligare, men fortfarande väldigt långsökt) att det finns någon bakomliggande faktor X som på ett systematiskt sätt styr både nageltrång och min slumptalsgenerator. Den sista av dessa kan måhända inte uteslutas helt, men kräver en sådan grad av "naturens konspirererande mot oss" att vi ändå kan bortse från den (utom möjligen möjligen i vissa exotiska kvantmekaniska sammanhang).
Kan vi lösa detta med någon systematisk regel istället för randomisering? Kanske, men det är inte lätt. Nästan vilken regel vi än väljer blir hypotesen om en bakomliggande faktor X mindre långsökt än med randomisering.
Att inte ha någon allokeringssystem alls (randomiserat eller inte) är inte heller något bra alternativ. Ett känt fenomen är att en läkare som är satt att allokera patienter till behandlings- och kontrollgrupp ofta tenderar (medvetet eller ej) att av omsorg om patianterna allokera de svårast sjuka till behandlingsgruppen.
Tack för svar!
SvaraRadera> […] någon gång när jag har tid borde jag nog skriva en bloggpost om saken […]
Gör gärna det, det vore intressant :-)
> Tack vare att vi har styrt tomatätandet på basis av randomisering så är det enda rimliga alternativet att tomatätande orsakar nageltrång. Alternativen skulle vara att nageltrång (medelst något slags bakåt-i-tiden-mekanism) påverkar min slumptalsgenerator, eller (troligare, men fortfarande väldigt långsökt) att det finns någon bakomliggande faktor X som på ett systematiskt sätt styr både nageltrång och min slumptalsgenerator.
Nja, det är väl inte randomiseringen/slumpen i sig, utan det faktum att tilldelningsmekanismen är oberoende av det fenomen (eller samband) vi vill studera. Då menar jag logiskt oberoende, d.v.s. att vi med den kunskap vi besitter inte kan koppla ihop fenomenet (nageltrånget) med tilldelningen (slumptalsgeneratorn). Sedan kan vi så klart aldrig vara 100 procent säkra, slumptal eller ej. Det är just glidningen från oberoende, eller utom vår kontroll, till slump som jag inte riktigt lyckas förstå vikten av. Indelning (a,b,e), (c,d,f) är väl lika bra/dålig oavsett slantsingling/slumptalsgenerator/grannens val av tre bokstäver av de sex första i alfabetet/min faiblesse för statistiska förkortningar som cdf/etc.
> Kan vi lösa detta med någon systematisk regel istället för randomisering? Kanske, men det är inte lätt. Nästan vilken regel vi än väljer blir hypotesen om en bakomliggande faktor X mindre långsökt än med randomisering.
Jag är helt med på att randomisering är praktiskt för att det är ett enkelt sätt att få ett urval vi inte kontrollerar. Däremot är det andra saker jag inte förstår, som jag nu återkommer till:
a) Om vi kan avgöra att en tilldelning är ”mindre lyckad”, så måste det bero på att vi vet saker om objekten (t.ex. att försöksrutorna i grupp A i snitt har mer näringsrik jord än i grupp B). Då bör vi se till att indelningen tar hänsyn till detta (om det nu kallas för balansera, kontrollera för. eller något annat). Och, en ”mindre lyckad” tilldelning blir väl inte bättre för att den är ”slumpmässig”!? Eller godtar man vilken randomisering som helst?
b) Om vi inte kan säga något dåligt om en tilldelning, d.v.s. problemet har en symmetri/invarians som inte vår bakgrundskunskap kan bryta, så spelar det väl ingen roll hur vi gör tilldelningen: alla tilldelningar ter sig lika bra så vitt vi kan se (som i Lotto där inget vi vet kan säga att 1,2,3,4,5,6,7 är en mer osannolik serie än någon annan).
Jag minns vagt ett citat i stil med ”Whenever there is a randomised way of doing things, there is a non-randomised way that is better but requires more thinking”. Lät vettigt. Minns dock inte nu var det kommer ifrån (återkommer om jag hittar det).
Så, återigen, vad är det för omistlig information eller ohärmbar funktion slumpen tillför? (Det är här någonstans jag brukar börja känna mig lite dum, som om jag inte ser det där självklara som alla andra inte kan undgå.)
Mvh
SP
Du har uppenbarligen hakat upp dig på någonting här, Stephen. Jag gjorde ovan ett rejält försök att lösa upp knuten för dig, men den sitter tydligen hårt och tycks kräva ytterligare bearbetning. Tyvärr har jag inte tid med det.
Radera"Whenever there is a randomized way of doing something, there is a nonrandomized way that yields better results from the same data, but requires more thinking.", E.T. Jaynes, Probability Theory, The Logic of Science, 2003, kap. 17.8, s. 532.
SvaraRaderaInte riktigt rätt kontext kanske, eftersom det hänvisar till slutledning från data och inte experimentdesignen.
Mvh
SP