lördag 29 augusti 2015

Två fall för Streisandeffekten

För tre år sedan skrev jag här på bloggen om den så kallade Streisandeffekten:
    Streisandeffekten - så uppkallad efter sångerskan Barbara Streisands misslyckade försök 2003 att hejda spridningen av bilder på hennes residens i Malibu - betecknar hur åtgärder för att hejda informationsspridning lätt kan bli kontraproduktiva. Begreppet har snabbt blivit mycket populärt i bloggosfären, och jag tycker mig i sociala media se en utbredd önskan att vilja medverka till informationsspridningen så snart något luktar Streisandeffekt. Intresset för själva sakfrågan är ofta sekundärt; det är informationsspridandet i sig som, när någon försökt hejda det, upplevs som angeläget och ett slag för yttrandefriheten.
Nu finns ett par aktuella fall, båda med anknytning till bioetik men i övrigt tämligen olika, där jag gärna bidrar till Streisandeffekten, och jag uppmanar därför läsekretsen att ta del av och gärna också sprida följande båda texter: Att jag på detta vis pushar för Tännsjös och Peaces texter betyder inte att jag står bakom deras innehåll.1,2 Däremot finner jag båda texterna vara läsvärda och intressanta bidrag till den ständigt pågående intellektuella diskussionen kring hur vi bör leva och hur samhället bör utformas.

Fallet Tännsjö är egentligen inte särskilt upprörande, och kan inte förstås som att någon akademisk frihet skulle vara hotad. Hans text beställdes av (en redaktör på) den amerikanske nyhetssajten Vox, men när han levererade den befanns innehållet (trots att det rimligtvis inte kan ha bjudit på några överraskningar för beställaren) vara alltför magstarkt för publicering, och den refuserades (läs gärna Brian Leiters sammanfattning av händelseförloppet). Häri ligger inget brott mot några viktiga yttrandefrihets- eller andra principer (jag har i stora drag inget att invända emot att Vox är fria att själva välja vad de skall publicera), utan mitt deltagande i Streisandeffektsdrevet handlar i detta fall om ren och skär skadeglädje över en sällsynt klantig redaktionell hantering.

Fallet Peace är långt allvarligare. Hans text publicerades i tidskriften Atrium, utgiven av Northwestern Universitys medicinska fakultet, vars dekanus Eric Neilson kort därefter fick syn på den och protesterade mot utgivningen med (den besynnerliga) förevändningen att texten var pronografisk, vilket fick en underhuggare att plocka bort tidskriftsnumret från nätet. Tidskriftsnumrets redaktör Alice Dreger (som också är aktuell med boken Galileo's Middle Finger vilken raffinerat nog (för den här historien) handlar om inskränkningar i akademisk frihet; jag rekommenderar den varmt) protesterade upprepade gånger, men det dröjde 14 månader innan numret åter lades upp på tidskriftens webbsida. Någon avbön från Neilson eller från universitetet har dock inte kommit, och häromdagen fick Dreger nog och meddelade att hon lämnar sin professur vid Northwestern. Här en central passage ur avgångsbrevet:
    We all make mistakes, but this was a profound mistake that cut to the very heart of academic freedom. It should have been acknowledged and corrected immediately. That is most definitely not what happened. Instead, what happened was denial, avoidance, blame-shifting, and evasion. To this day, the university has not admitted its mistake, and it has not affirmed its commitment to academic freedom in a way that makes clear that similar incidents will not occur in the future. This failure should be embarrassing to an otherwise great university.
Se även Dregers FAQ om fallet.

Fotnoter

1) Tännsjö driver, med den hedonistiska utilitarismen som utgångspunkt, tesen att världen blir bättre om vi sätter fler barn till världen, och att vi därför har en moralisk förpliktelse att föröka oss. Men hans resonemang håller inte, även om vi skulle acceptera hans utgångspunkt i den hedonistiska utilitarismen. Här är hans enligt min mening avgörande misstag:
    Of course, we should see to it that we do not overpopulate the planet in a manner that threatens the future existence of mankind. But we’re nowhere near that point yet, at least not if we also see to it that we solve pressing problems such as the one with global warming. In the mean time, we’re ethically obligated to make as many people as possible.
Påståendet att vi inte är i närheten av den punkt då överbefolkning sätter mänsklighetens framtida överlevnad på spel är ogrundat och troligen felaktigt. Mänskligheten står inför en rad existentiella risker som vi behöver hantera. Vårt överutnyttjande av naturresurser, till vilket överbefolkning bidrar, kan resultera i sociala spänningar och om det vill sig riktigt illa krig och social kollaps, vilket i sin tur kan slå hårt mot vår förmåga att hantera de existentiella riskerna. Ett girigt maximerande av antalet människoliv här och nu riskerar på så vis att försämra utsikterna för mångdubbelt (understatement!) fler människoliv i framtiden.

2) Ämnet för Peaces text - sexuella tjänster utförda av unga kvinnliga sjuksköterskor åt förlamade unga manliga patienter - är mig alltför obekant för att jag skall ha någon bestämd uppfattning om det han skriver.

onsdag 26 augusti 2015

Om framsteg inom matematiken

Denna bloggpost handlar om forskningsframsteg inom matematiken, och då menar jag verkligen inom på ett sätt som exkluderar (det i och för sig ofantligt viktiga) tillämpandet av matematiska metoder i andra ämnen. En vanlig föreställning är att sådana inommatematiska framsteg utgörs av formulerandet och bevisandet av nya matematiska satser.1 Det ligger en hel del i denna föreställning, även om den är något grovhuggen, och idag vill jag lyfta fram en annan typ av framsteg som jag anser vara lika viktiga för matematikens framåtskridande, nämligen nya, enklare, kortare och helt enkelt bättre bevis av redan kända och bevisade satser.

Skälet till att den sortens framsteg är viktiga är följande. Matematik är en kumulativ verksamhet, där de framsteg som görs idag bygger på gårdagens, och kan på samma sätt väntas komma att ligga till grund för framtida framsteg. Nya satser och bevis bygger på gamla satser. Om nu dessa gamla satser har så komplicerade och svårtillgängliga bevis att inte dagens och morgondagens matematiker förmår smälta dem, så riskerar det intellektuella tankebygge som matematiken utgör att bli till en koloss på lerfötter där ingen längre begriper hur saker och ting egentligen hänger samman. Genom att lägga fram nya bevis som är enklare och mer lättilgängliga än originalbevisen (men naturligtvis fortsatt korrekta), så underlättar man för nya generationer matematiker att förstå den grund som de sedan hoppas kunna bygga vidare på.

Låt mig berätta om ett framsteg av detta slag som de båda unga franska matematikerna Hugo Duminil-Copin och Vincent Tassion nyligen gjort inom det område där jag själv på 90-talet fick mina främsta genombrott som matematiker: perkolationsteori. Detta område kan kort beskrivas som den gren av sannolikhetsteorin där man studerar modeller för genomsläpplighet i ostrukturerade material och konnektivitet i ostrukturerade nätverk. Det finns en uppsjö modeller inom perkolationsteorin, men en av de mest grundläggande är så kallad kantperkolation på Zd-gittret med dimension d=2 eller högre. Detta gitter har noder i heltalspunkterna i det d-dimensionella euklidiska rummet, och länkar mellan varje par av närmsta grann-noder (dvs noder på euklidiskt avstånd 1 från varandra); för d=2 bildas på så vis ett kvadratiskt gitter, för d=3 ett kubiskt, och för högre d ett hyperkubiskt. Så långt är alltsammans perfekt strukturerat, men den oordning som är typisk för perkolationsmodeller fås genom att länkar raderas slumpmässigt. Vi fixerar den så kallade perkolationsparametern p mellan 0 och 1, raderar varje länk oberoende av varje annan med sannolikhet 1-p, och behåller den således med sannolikhet p. (Detta fungerar på liknande vis som den perkolationsmodell på bikakegitter som jag diskuterade i en tidigare bloggpost.)

Ett centralt och inte särskilt svårt resultat, som går tillbaka till perkolationsteorins barndom på 1950-talet, är existensen av ett kritiskt värde pc sådant att existensen av en oändlig sammanhängande komponent i det därvid erhållna oordnade nätverket har sannolikhet 0 om p är i den så kallat subkritiska fasen p<pc, men 1 om p är i den superkritiska fasen p>pc. Det kritiska värdet för d=2 bevisades av Harry Kesten 1980 vara 1/2, medan exakta värden för pc i högre dimensioner ännu inte är kända.

Följande bild av en realisering av denna perkolationsmodell med p=0,51 på Z2 är hämtad från Wikipedia.

Detta är bara ett lite stycke av realiseringen, då mönstret fortsätter oändligt långt i alla riktningar. Parametern p är vald strax över det kritiska värdet, vilket garanterar existensen av en oändlig sammanhängande komponent av noder och länkar.

Om vi istället hade valt ett subkritiskt p, så hade vi enbart fått ändliga komponenter. Det betyder att om vi startar i en given nod och bara får gå längs kvarvarande länkar, och om vi med βn betecknar sannolikheten att vi kan nå minst n längdenheter bort från ursprungsnoden, så går βn mot 0 då n går mot oändligheten. Ett av perkolationsteorins centrala framsteg på 1980-talet var att det, oavsett dimension d, gäller att så snart p<pc så går βn inte bara mot 0, utan gör det exponentiellt snabbt i n (med andra ord: det existerar positiva konstanter a och b sådana att βn<ae-bn oavsett n). För den matematiskt obevandrade kan detta resultat synas oskyldigt, men det understryker kraftfullt hur skarp övergången mellan subkritisk och superkritisk perkolation är. Resultatet bevisades av Mikhail Menshikov (1986) och av Michael Aizenman och David Barsky (1987), oberoende av varandra, på var sin sida av den dåvarande järnridån, och med två helt olika bevis. Båda bevisen är tämligen omfattande, och jag minns hur jag som ung och grön doktorand vintern 1991-1992 slet hårt med att smälta och förstå dem. Jag förstod dem till slut, men de är så invecklade att jag idag knappast skulle kunna rekonstruera dem utan att kika i facit.

In i handlingen träder nu de båda herrarna Duminil-Copin och Tassion, och deras aktuella uppsats A new proof of the sharpness of the phase transition for Bernoulli percolation on Zd, där de levererar ett kort och koncist bevis av det exponentiella avtagandet. Kort, koncist och enkelt - betydligt enklare än de båda ursprungliga bevisen av Menshikov respektive Aizenman och Barsky, vilka hittills varit standard. Det skall här medges att "enkelt" är ett relativt begrepp, och jag skulle inte rekommendera den läsare som inte redan är bevandrad i sannolikhetsteorin på åtminstone masternivå att ge sig i kast med att läsa uppsatsen, men för oss som är vana vid perkolationsteori är uppsatsen utmärkt lättsmält, och jag vågar mig nästan på att lova att om någon väcker mig mitt i natten om tio eller tjugo år och ber mig återge beviset så kommer jag att klara det.2 Jag tackar Hugo Duminil-Copin och Vincent Tassion för att de på detta vis gjort perkolationsteorin lite klarare för mig och för våra kollegor.

Fotnoter

2) Nyckeln till att komma ihåg beviset är att återkalla deras definition av storheten φp(S) i början av uppsatsen, och att det avgörande är huruvida denna storhet är mindre än 1. När väl det är på plats går räkningarna mer eller mindre av sig själva. (Detta visste givetvis inte Duminil-Copin och Tassion när de första gången försökte sig på sitt argument, men mycket av det som gör en skicklig matematiker är att kunna ana sig till i förväg vad som är en relevant kvantitet att börja räkna på i ett givet sammanhang.)

onsdag 19 augusti 2015

Two recent comments on Bostrom's Superintelligence

In my opinion, anyone who seriously wants to engage in issues about the potential for disruptive consequences of future technologies, and about the long-term survival of humanity, needs to know about the kind of apocalyptic scenarios in connection with a possible breakthrough in artificial intelligence (AI) that Oxford philosopher Nick Bostrom discusses in his 2014 book Superintelligence. For those readers who consider my review of the book too brief, while not having gotten around to reading the book itself, and who lack the patience to wait for my upcoming Here Be Dragons: Science, Technology and the Future of Humanity (to be released by Oxford University Press in January), I recommend two recent essays published in high-profile venues, both discussing Bostrom's arguments in Superintelligence at some length: Geist and Koch express very different views on the subject, and I therefore strongly recommend (a) reading both essays, and (b) resisting the temptation to quickly, lightheartedly and without deeper understanding of the issues involved take sides in favor of the view that best fits one's own personal intuitions and biases. As for myself, I have more or less taken sides, but only after having thought about the issues for years, and having read many books and many papers on the topic.

I have relatively little to say about Koch's essay, because he and I (and Bostrom) seem to be mostly in agreement. I disagree with his (mild) criticism against Bostrom for a tendency to go off on tangents concerning far-fetched scenarios, an example being (according to Koch) the AI going on to colonize the universe.1 And I have some minor qualms concerning the last few paragraphs, where Koch emphasizes the scientific study of the human brain and how it gives rise to intelligence and consciousness, as the way to move forward on the issues rasied by Bostrom: while I do think that area to be important and highly relevant, holding it forth as the only possible (or even as the obviously best) way forward seems unwarranted.2

My disagreements with Geist are more far-reaching. When he summarizes his opinion about Bostrom's book with the statement that "Superintelligence is propounding a solution that will not work to a problem that probably does not exist", I disagree with both the "a problem that probably does not exist" part and the "a solution that will not work" part. Let me discuss them one at a time.

What Geist means when he speaks of "a problem that probably does not exist" is that a machine with superhuman intelligence will probably never be possible to build. He invokes the somewhat tired but often sensible rule of thumb "extraordinary claims require extraordinary evidence" when he holds forth that "the extraordinary claim that machines can become so intelligent as to gain demonic powers requires extraordinary evidence". If we take the derogatory term "demonic" to refer to superhuman intelligence, then how extraordinary is the claim? This issue separates neatly in two parts, namely:
    (a) Is the human brain a near-optimal arrangement of matter for producing intelligence, or are there arrangements that give rise to vastly higher intelligence?

    (b) If the answer to (a) is that such superhumanly intelligent arrangements of matter do exist, will it ever be within the powers of human technology to construct them?

To me, it seems pretty clear that the likely answer to (a) is that such superhumanly intelligent arrangements of matter do exist, based on how absurd it seems to think that Darwinian evolution, with all its strange twists and turns, its ad hoc solutions and its peacock tails, would have arrived, with the advent of the present-day human brain, at anything like a global intelligence optimum.3

This leaves question (b), which in my judgement is much more open. If we accept both naturalism and the Church-Turing thesis, then it is natural to think that intelligence is essentially an algorithmic property, so that if there exist superhumanly intelligent arrangements of matter, then there are computer programs that implement such intelligence. A nice framework for philosophizing over whether we could ever produce such a program is computer scientist Thore Husfeldt's recent image of the Library of Turing. Husfeldt used it to show that blind search in that library would no more be able to find the desired program than a group of monkeys with typewriters would be able to produce Hamlet. But might we be able to do it by methods more sophisticated then blind search? That is an open question, but I am leaning towards thinking that we can. Nature used Darwinian evolution to succed at the Herculean task of navigating the Library of Mendel to find genomes corresponding to advanced organisms such as us, and we ourselves used intelligent design for navigating the library of Babel to find such masterpieces as Hamlet and Reasons and Persons (plus The Da Vinci Code and a whole lot of other junk). And now, for searching the the Library of Turing in the hope of finding a superintelligent program, we have the luxury of being able to combine Darwinian evolution with intelligent design (on top of which we have the possibility of looking into our own brains and using them as a template or at least an inspiration for engineering solutions). To suggest that a successful such search is within grasp of future human technology seems a priori no more extraordinary than to suggest that it isn't, but one of these suggestions is true, so they cannot both be dismissed as extraordinary.

Geist does invoke a few slightly more concrete arguments for his claim that a superintelligent machine will probably never be built, but they fail to convince. He spends much ink on the history of AI and the observation that despite decades of work no superintelligence has been found, which he takes as an indication that it will never be found, but the conclusion simply does not follow. His statement that "creating intelligence [...] grows increasingly harder the smarter one tries to become" is a truism if we fix the level that we start from, but the question becomes more interesting if we ask whether it is easier or harder to improve from a high level of intelligence than from a low level of intelligence. Or in Eliezer Yudkowsky's words: "The key issue [is] returns on cognitive reinvestment - the ability to invest more computing power, faster computers, or improved cognitive algorithms to yield cognitive labor which produces larger brains, faster brains, or better mind designs." Does cognitive reinvestment yield increasing or decreasing returns? In his paper Intelligence explosion microeconomics, Yudkowsky tries to review the evidence, and finds it mixed, but comes out with the tentative conclusion that on balance it points towards increasing returns.

Let me finally discuss the "a solution that will not work" part of Geist's summary statement about Bostrom's Superintelligence. The solution in question is, in short, to instill the AI that will later attain superintelligence level with values compatible with human flourishing. On this matter, there are two key passages in Geist's essay. First this:
    Bostrom believes that superintelligences will retain the same goals they began with, even after they have increased astronomically in intelligence. "Once unfriendly superintelligence exists," he warns, "it would prevent us from replacing it or changing its preferences." This assumption - that superintelligences will do whatever is necessary to maintain their "goal-content integrity" - undergirds his analysis of what, if anything, can be done to prevent artificial intelligence from destroying humanity. According to Bostrom, the solution to this challenge lies in building a value system into AIs that will remain human-friendly even after an intelligence explosion, but he is pessimistic about the feasibility of this goal. "In practice," he warns, "the control problem ... looks quite difficult," but "it looks like we will only get one chance."

And then, later in the essay, this:

    [Our experience with] knowledge-based reasoning programs indicates that even superintelligent machines would struggle to guard their "goal-content integrity" and increase their intelligence simultaneously. Obviously, any superintelligence would grossly outstrip humans in its capacity to invent new abstractions and reconceptualize problems. The intellectual advantages of inventing new higher-level concepts are so immense that it seems inevitable that any human-level artificial intelligence will do so. But it is impossible to do this without risking changing the meaning of its goals, even in the course of ordinary reasoning. As a consequence, actual artificial intelligences would probably experience rapid goal mutation, likely into some sort of analogue of the biological imperatives to survive and reproduce (although these might take counterintuitive forms for a machine). The likelihood of goal mutation is a showstopper for Bostrom’s preferred schemes to keep AI "friendly," including for systems of sub-human or near-human intelligence that are far more technically plausible than the godlike entities postulated in his book.
The idea of goal-content integrity, going back to papers by Omohundro and by Bostrom, is roughly this: Suppose an AI has the ultimate goal of maximizing future production of paperclips, and contemplates the idea of switching to the ultimate goal of maximizing the future production of thumbtacks. Should it switch? In judging whether it is a good idea to switch, it tries to figure out whether switching will promote its ultimate goal - which, since it hasn't yet switched, is paperclip maximization - and it will reason that no, switching to the thumbtacks goal is unlikely to benefit future production of paperclips, so it will not switch. The generalization to other ultimate goals seems obvious.

On the other hand, the claim that a sufficiently intelligent AI will exhibit reliable goal-content integrity is not written in stone, as in a rigorously proven mathematical theorem. It might fail. It might even fail for the very reason suggested by Geist, which is similar to a recent idea by physicist Max Tegmark.4 But we do not know this. Geist says that "it is impossible to [invent new higher-level concepts] without risking changing the meaning of its goals". Maybe it is. On the other hand, maybe it isn't, as it could also be that a superintelligent AI would understand how to take extra care in the formation of new higher-level concepts, so as to avoid corruption of its goal content. Geist cannot possibly know this, and it seems to me that when he confidently asserts that the path advocated by Bostrom is "a solution that will not work", he vastly overestimates the reliability of his own intuitions when speculating about how agents far far more intelligent than him (or anyone he has ever met) will reason and act. To exhibit a more reasonable level of epistemic humility, he ought to downgrade his statement about "a solution that will not work" to one about "a solution that might not work" - which would bring him into agreement with Bostrom (and with me). And to anyone engaging seriously with this important field of enquiry, pessimism about the success probability of Bostrom's preferred scheme for avoiding AI Armageddon should be a signal to roll up one's sleeves and try to improve on the scheme. I hope to make a serious attempt in that direction myself, but am not sure whether I have the smarts for it.

Footnotes

1) The AI-colonizes-the-universe scenario is not at all far-fetched. For it to happen, we need (a) that the AI is capable of interstellar and intergalactic travel and colonization, and (b) that it has the desire to do so. Concerning (a), a 2013 paper by Stuart Armstrong and Anders Sandberg makes a strong case that full-scale colonization of the visible universe at close to the speed of light will become feasible. Concerning (b), arguments put forth in the seminal 1998 Great Filter paper by Robin Hanson strongly suggest that colonizing the universe is not an unlikely choice by an agent that has the capability to do so.

2) It is of course not surprising that Christof Koch, like almost all other researchers, finds his own research area particularly important: he is a neuroscientist, specializing in the neural bases of consciousness. (I kind of like his 2012 book Consciousness: Confessions of a Romantic Reductionist.)

3) Although very much superfluous, we might add to this argument all the deficiencies in the human cognitive machinery that we are aware of. For instance, quoting Koch:
    Homo sapiens is plagued by superstitions and short-term thinking (just watch politicians, many drawn from our elites, to whom we entrust our long-term future). To state the obvious, humanity's ability to calmly reason - its capacity to plan and build unperturbed by emotion (in short, our intelligence) - can improve. Indeed, it is entirely possible that over the past century, average intelligence has increased somewhat, with improved access to good nutrition and stimulating environments early in childhood, when the brain is maturing.

4) In his paper Friendly artificial intelligence: the physics challenge, Tegmark suggests that the concepts involved in the AI's goal content might turn out to be meaningless when the AI discovers the fundamental physics underlying reality, and it will realize that its ulitmate goal is incoherent. Then what will it do? Hard to say. Here is Tegmark:
    For example, suppose we program a friendly AI to maximize the number of humans whose souls go to heaven in the afterlife. First it tries things like increasing people's compassion and church attendance. But suppose it then attains a complete scientific understanding of humans and human consciousness, and discovers that there is no such thing as a soul. Now what? In the same way, it is possible that any other goal we give it based on our current understanding of the world ("maximize the meaningfulness of human life", say) may eventually be discovered by the AI to be undefined.

tisdag 18 augusti 2015

Ett välkommet nytillskott i det svenska bloggutbudet

Uppsalafysikern Ulf Danielsson har startat en blogg, där han frikostigt och i samma läsarvänliga stil som vi lärt oss att känna igen från hans böcker delar med sig av sina kunskaper inom fysik, astronomi och angränsande områden. Jag rekommenderar den varmt!

Sina båda första bloggposter skrev Ulf i mitten av juli i samband med rymdfarkosten New Horizons passage av Pluto och bilderna därifrån. Bilder på himlakroppar i vårt solsystem är ett ämne han också återkom till några veckor senare, då NASA hade offentliggjort sina underbara bilder av jorden och månen tagna från Lagrangepunkten L1; se bilden nedan. Därutöver har Ulf i seprata bloggposter hunnit behandla ämnen som Gud och multiversum, Obamas senaste klimatutspel, artificiell intelligens,1 relativitetsteori och Stephen Hawkings nära förestående besök i Stockholm. Sin nyfunna(?) talang för att formulera fyndiga klickbeten visar han med bloggposten Universums död och universitetens ansvar, som visserligen är utmärkt intressant men som inte alls tar upp frågan om universitetens ansvar för att rädda universum från att dö.

Fotnot

1) Här tar Ulf avstamp i samma aktuella Forskning och Framsteg-artikel som jag själv skrev om häromdagen, men redovisar en syn på artificiell intelligens som avviker en del från min. Det får bli ett rejält test på den argumentativa kraften i min kommande bok Here Be Dragons om denna kan rubba hans uppfattning en smula - hursomhelst är jag smickrad över att han skriver att han "ser mycket fram emot att läsa den".

fredag 14 augusti 2015

Ett osökt tillfälle till reklam

Stora framsteg har gjorts det senaste årtiondet på området artificiall intelligens (AI), men huruvida det till slut kommer att bli möjligt för oss att skapa en maskin som i fråga om allmänintelligens övertrumfar människans förmåga måste rimligtvis ses som en öppen fråga. Det händer emellanåt att filosofer och andra meddelar att att ett sådant AI-genombrott är omöjligt, men jag har hittills utan undantag funnit deras argumentation slarvig och förhastad.

Därför blev jag en liten smula provocerad när jag fick se att omslaget till det pinfärska numret 7/2015 av utmärkta populärvetenskapsmagasinet Forskning och Framsteg pryds av krigsstilsrubriken "Dummare än du tror", följt av underrubriken "Möt forskarna som menar att maskinerna aldrig kan bli så smarta som vi". Det visar sig emellertid att rubrikerna åsyftar en alldeles utmärkt artikel av Joanna Rose, där ett brett spektrum av olika ståndpunkter redovisas.1 Artikeln ger mig dessutom osökt tillfälle att göra reklam för min kommande bok Here Be Dragons, som behandlar tänkbara konsekvenser för mänskligheten av framtida framsteg inom AI och en rad andra teknologier, och som utkommer på Oxford University Press i januari. Det är nämligen så att två av de tänkare som ges störst utrymme i artikeln och som stödjer omslagets tal om att "maskinerna aldrig kan bli så smarta som vi" - John Searle och Massimo Pigliucci - delar på äran att ha fått sina argument dissekerade och vederlagda i min (sedan flera månader tillbaka färdigskrivna) bok. Interssantast av dessa båda är fallet Searle. I Forskning och Framsteg-artikeln stödjer han sig på sitt berömda kinesiska rummet-argument för att döma ut Nick Bostroms paperclip Aramgeddon-scenario2 såsom "enfaldigt", och han kommer sedan fram till följande:
    Om du bara vill att din dator ska fungera, spela schack eller få flygplanet att landa, så spelar det ju ingen roll om du tror att den är intelligent eller inte. Frågan är bara viktig när du ger maskinen ett psykologiskt eller filosofiskt innehåll. Så om vi fruktar att illasinnad superintelligens ska förgöra oss så är det viktigt att apokalypshotet är verkligt. Men utan ett medvetande kan maskinen inte ha egna avsikter, motiv eller mål. Den är ju bara en mycket komplex hög av skrot.
Det Searle här säger är i allt väsentligt en upprepning av den argumentation som han lade fram i sin recension förra året i New York Review of Books av Bostroms bok Superintelligence - en recension som triggade mig att i min egen bok inkludera en detaljerad vederläggning av Searles argument. I själva verket tillintetgör jag i Here Be Dragons hans argumentation dubbelt upp, genom att påvisa (a) att kinesiska rummet-argumentet inte håller, och (b) att även om vi skulle acceptera Searles slutsats från hans kinesiska rum så krävs en rejält "enfaldig" (för att nu låna lite av Searles egen terminologi) tankelapsus för att ur den slutsatsen kunna blåsa faran över rörande "att illasinnad superintelligens ska förgöra oss" à la paperclip Armageddon.

Mer har jag inte för avsikt att säga här och nu om de argument och motargument som figurerar i denna diskussion, utan hänvisar till Here Be Dragons och ber läsekretsen om några månaders tålamod tills dess att boken utkommit. Jag får återkomma längre fram med exakt publiceringsdatum för boken så att ni alla får tillfälle att hänga på bokhandelslåset den aktuella morgonen.

Fotnoter

1) Forskning och Framsteg har behandlat frågan om utsikterna för ett framtida AI-genombrott även i tidigare texter; se t.ex. min egen krönika om detta ämne i nr 7/2014.

2) Jag har tidigare diskuterat paperclip Aramgeddon såväl här på bloggen som i föredragsform.

torsdag 13 augusti 2015

Qvintensencollage

Jag vill absolut inte vara den som förfaller till skryt, men känner ändå att situationen kräver att jag meddelar följande. När den avgående redaktören för Svenska statistikfrämjandets medlemstidning Qvintensen, Dan Hedlin (tack Dan för ett strålande arbete!), ägnar ett uppslag (sidorna 12-13) i det senaste numret åt vad han kallar ett "collage" över "artiklar som håller för tidens tand" från hans sex år vid rodret, så handlar två av det tjugotalet notiser som collaget utgörs av om texter jag skrivit, och en tredje handlar om en intervju med mig.

måndag 10 augusti 2015

En moralfilosofisk utmaning

I den bloggpost rubricerad Pinker till frontalangrepp mot bioetiken som jag skrev i förrgår nämnde jag, lite i förbigående, mänsklighetens eventuella undergång, och av kontexten framgick att jag betraktar ett sådant scenario som dåligt och icke önskvärt. Detta triggade en bekant till mig, nationalekonomen Niclas Berggren, att höra av sig och fråga huruvida jag verkligen anser det självklart att mänsklighetens undergång vore något att beklaga.1 Han uppmärksammade mig i sammanhanget på en bloggpost han skrev för några år sedan, där han förklarade sin egen ståndpunkt:
    Jag anser inte [att mänsklighetes undergång vore att beklaga], eftersom existens endast kan ha ett värde för medvetna varelser. Om sådana varelser inte längre finns, kan icke-existens [...] inte vara något negativt.
Personligen accepterar jag inte Niclas slutsats, utan tänker istället så här: en blomstrande framtid för mänskligheten vore något strålande positivt, och därför är det negativt (och således beklagansvärt) om en sådan framtid inte kommer till stånd. Jag kan dock hålla med honom om att det på intet vis är självklart att jag har rätt och han har fel i denna fråga. Kanske finns inte ens något objektivt rätt svar på det.

Däremot vill jag rikta en utmaning till Niclas (och till övriga läsekretsen) rörande hans resonemang om existensens värde. Går det att köpa hans resonemang utan att i konsekvensens namn acceptera även följande tankegång, som lades fram av Derek Parfit i Kapitel 16 i den fantastiska boken Reasons and Persons från 1984?

Antag för enkelhets skull att vi har att välja mellan två framtider F1 och F2 för våra efterkommande om hundra år. I F1 är deras liv, till följd av hur vi has misshushållit med jordens resurser och misshandlat miljön, visserligen är värda att leva men inte så mycket mer än så. I F2 däremot, i vilken vi skött vår planet mycket bättre, lever våra efterkommande avsevärt bättre liv. Antag att vi väljer F1. Gör vi då orätt mot någon? För att svara på det bör vi beakta att våra efterkommande i F1 kommer att vara andra människor än våra efterkommande i F2, ty de två scenarierna svarar mot olika händelseutvecklingar, vilka i hög grad leder till att andra par av människor kommer att slå sig samman och blanda sina gener, och även i fall då samma parbildningar uppstår kommer de att tajma sina samlag (eller IVF-fertiliseringar) annorlunda vilket medför att andra spermier och andra ägg kommer att förenas och bli till nya människor. Vilka är det då vi gör orätt mot om vi satsar på en politik som leder till F1 istället för F2? Well, våra efterkommande i F1 drabbas ju inte, ty visserligen är inte deras liv helt fantastiska, men de är bättre än inget, och om vi istället hade fört händelseutvecklingen mot F2 så hade de inte funnits alls, vilket hade varit sämre. Inte heller folket i F2 drabbas av vårt agerande, ty de kommer ju inte att existera, varför de givetvis inte kommer att vara medvetna, och som Niclas framhåller kan ju "existens endast [...] ha ett värde för medvetna varelser". Det verkar alltså inte gå att hitta några som drabbas av hur vi slösar med naturtillgångar och förstör miljön, och därmed är det svårt att se hur det skulle kunna ligga något moraliskt fel i dessa handlingar.

Parfit, i Reasons and Persons, finner denna slutsats oacceptabel (något jag är böjd att hålla med om), men går bet på att finna något fel i resonemanget. Han uppmanar på s 451 i boken till sökandet efter någon princip som skall skjuta resonemanget i sank: "Since I have failed to find the principle to which we should appeal, I cannot explain the objection to our choice of such policies. I believe that, though I have so far failed, I or others could find the principle we need." Och så gör han ett halvironiskt tillägg som jag är så road av att jag citerat det en gång tidigare här på bloggen (i samband med att Parfit förra året tilldelades Schockpriset): "Meanwhile, we should conceal this problem from those who will decide whether we increase our use of nuclear energy."

Nå, vad säger Niclas, och vad säger resten av läsekretsen - finns det något vettigt sätt att undvika Derek Parfits oönskade slutsats?

Fotnot

1) En underförstådd premiss (vilken jag här för resonemangets skull accepterar) i Niclas tankegång är att undergången inträffar plötsligt och oförutsett, så att inte själva undergångsprocessen medför något lidande.

lördag 8 augusti 2015

Pinker till frontalangrepp mot bioetiken

Kognitionsvetaren Steven Pinker är enligt min mening en av vår tids främsta populärvetenskapsförfattare och public intellectuals. Jag har läst en rad av hans böcker med behållning, varav jag tycker allra bäst om How the Mind Works, The Blank Slate och förra årets The Sense of Style. Minnesgoda läsare av denna blogg kan exempelvis erinra sig mina positiva ord för ett par år sedan om hans uppsats Science is not your enemy. En annan text av Pinker som jag glatt mig storligen åt är The stupidity of dignity - en välformulerad uppgörelse med den biokonservatism som dominerar den av dåvarande president George W. Bush beställda Human Dignity and Bioethics: Essays Commissioned by the President's Council från 2008.

Nu är emellertid Pinker en herre som sticker ut hakan åt många håll, och man kan inte rimligtvis vänta sig att jag skall hålla med honom om precis allt. Den som har tålamod att invänta min kommande bok Here Be Dragons (Oxford University Press, januari 2016) kommer att finna att jag på ett par punkter ser mig föranledd att kritisera hans idéer. Kritisk är jag också till hans debattinlägg häromdagen rubricerat The moral imperative for bioethics, där han återkommer till ämnet bioetik. Hans måltavla denna gång är bredare än den biokonservatism han besköt 2008 med The stupidity of dignity - nu är det bioetiken som helhet han går till storms mot. Det moraliska imperativ han talar om i rubriken till det nya debattinlägget är att bioetiken inte får lov att på minsta vis hindra eller bromsa den medicinska utveckling som hittills skänkt mänskligheten så mycket gott. Eller som han så koncist, med fem enstaviga ord, uttrycker det:
    Get out of the way.
Och han utvecklar denna ståndpunkt så här:
    A truly ethical bioethics should not bog down research in red tape, moratoria, or threats of prosecution based on nebulous but sweeping principles such as "dignity," "sacredness," or "social justice." Nor should it thwart research that has likely benefits now or in the near future by sowing panic about speculative harms in the distant future. These include perverse analogies with nuclear weapons and Nazi atrocities, science-fiction dystopias like "Brave New World" and "Gattaca," and freak-show scenarios like armies of cloned Hitlers, people selling their eyeballs on eBay, or warehouses of zombies to supply people with spare organs. Of course, individuals must be protected from identifiable harm, but we already have ample safeguards for the safety and informed consent of patients and research subjects.

    Some say that it's simple prudence to pause and consider the long-term implications of research before it rushes headlong into changing the human condition. But this is an illusion.

Det här är precis tvärt emot vad jag pläderar för i Here Be Dragons, nämligen vikten av att (med Pinkers ord) "consider the long-term implications of research before it rushes headlong into changing the human condition". Eller som jag själv uttryckte saken för ett par år sedan i vad jag kallade mitt Karthago: "För övrigt anser jag att forskningsprioriteringar utan stöd i ett systematiskt kunskapsunderlag om olika teknikområdens möjliga och troliga positiva eller negativa inverkan på mänsklighetens framtidsutsikter är ungefär lika förståndigt som att med gasen i botten framföra en bil med ögonen enbart på hastighetsmätaren fullkomligt ignorerandes vad som händer utanför bilen." Det som jag förespråkar, och som Pinker vänder sig emot, är framsynthet i fråga om nya medicinska och andra teknologier och deras konsekvenser för mänskligheten. Vilka är då Pinkers argument mot sådan framsynthet? Han anför två saker. För det första anför han att tvekan och eftertanke riskerar att bromsa viktiga framsteg:
    First, slowing down research has a massive human cost. Even a one-year delay in implementing an effective treatment could spell death, suffering, or disability for millions of people.
Ja, visst är det så, men vad Pinker med detta argument förbiser är att medicinska och andra tekniska och vetenskapliga framsteg kan ha inte bara massivt positiva effekter, utan även dito negativa sådana, inklusive om det vill sig riktigt illa mänsklighetens undergång. Att detta leder till avvägningar som behöver tas på allvar är något jag ofta argumenterat för, bland annat här på bloggen och i tidskriften Physica Scripta, men i den kommande Here Be Dragons lägger jag fram argumentationen långt mer detaljerat (och med stöd i mer konkreta exempel) än tidigare.

Pinkers andra argument handlar om hur svårt det är att förutsäga framtiden:
    Second, technological prediction beyond a horizon of a few years is so futile that any policy based on it is almost certain to do more harm than good.
Här har han givetvis rätt i att svårigheterna är mycket stora (och även detta är något jag diskuterar i min kommande bok). Men härifrån till att slänga upp händerna i luften och säga att meningsfull framsynthet är omöjligt är ett stort steg. Jag anser, i motsats till Pinker, att det (i synnerhet med tanke på vilka enorma värden som står på spel) är väl värt att försöka, även om givetvis alla framtidsförutsägelser och alla eventuella policyrekommendationer baserade på dessa bör förses med en välavvägd grad av ödmjukhet inför den svårighet som Pinker framhåller. Det kan för övrigt noteras att hans påstående om "technological prediction [being] futile" i sig är en förutsägelse, varför han kommer snubblande nära en självmotsägelse.

torsdag 6 augusti 2015

Om fasdiagram

Det sägs ofta att vattnets smältpunkt är 0°C, och att dess kokpunkt är 100°C. Dessa fasövergångsvärden är dock inte absoluta, utan beror på lufttrycket. Redan på 3000 meters höjd är lufttrycket så lågt att kokpunkten hamnar strax under 90°C, vilket gör att man på dessa höjder inte kan koka lika varmt kaffe som i vanliga fall (annat än med tryckkokare). Så här ser vattnets fasdiagram ut:

Olika substanser har olika fasdiagram, men vissa karaktäristika, som förekomsten av en trippelpunkt, är ofta återkommande. Se t.ex. ubåtens fasdiagram (något mindre känt än vattnets), vilket ser ut så här:

Den övre bilden är hämtad från Wikipedia, medan den nedre kommer från det aktuella avsnitt av xkcd-tecknaren Randall Munroes frågespalt What if, i vilket han lärorikt och belysande besvarar den viktiga läsarfrågan "What if you released a submarine into Jupiter's atmosphere? Would it eventually reach a point where it would float? Could it navigate?". Jag rekommenderar frågespalten varmt, inklusive den samling i bokform som kom förra året och som även finns i svensk översättning.

tisdag 4 augusti 2015

Lambertz laborerar med pseudokvantiteter

I min bloggpost Quickologisk sannolikhetskalkyl den 16 maj i år diskuterade jag den centrala passage i Göran Lambertz bok Quickologi, i vilken författaren gör anspråk på att medelst en sannolikhetsberäkning påvisa att morddomarna mot Thomas Quick var riktiga. Jämte många andra fel i Lambertz framställning påvisade jag att den räkneregel för betingade sannolikheter som han implicit byggde hela sin kalkyl på inte gäller.1

Det stod tidigt klart att Lambertz tagit del av min kritik [WebCite], men det var först häromdagen som han presenterade en korrigering av sin kalkyl i ljuset av denna kritik [WebCite]. Det kan i förstone förefalla glädjande att han är beredd att rätta till den kalkyl som han har fått förklarat för sig är felaktig, men tyvärr visar det sig att hans korrigering är ytterst halvhjärtat genomförd. Ovillig att skiljas från sin felaktiga räkneregel för betingade sannolikheter löser han det hela med att helt enkelt döpa om de kvantiteter han laborerar med: det han i boken kallade sannolikheter kallar han nu "bevisvärde". I boken hade han på s 296 en passage med ordalydelsen...
    I tabellen nedan står hundra (100) för hundraprocentig sannolikhet, vilket i praktiken ofta är detsamma som faktisk vetskap. Jag sätter noll (0) för ingen sannolikhet alls. Femtio (50) innebär att man gör bedömningen att omständigheten i sig innebär att sannolikheten är 50 procent för att personen är skyldig (se exemplet med de båda misstänkta, A och B, på sidan 275). Tio (10) betyder på motsvarande sätt att man gör bedömningen att omständigheten i sig innebär att sannolikheten är 10 procent för att personen är skyldig.
...vilken han nu ändrat [WebCite] till följande:
    I tabellen nedan står hundra (100) för fullt bevis, vilket i praktiken ofta är detsamma som faktisk vetskap. Jag sätter noll (0) för inget bevisvärde alls. Femtio (50) innebär att värdet hos beviset, när det används för att visa att personen är skyldig, ligger mitt emellan 0 och 100 (jfr mordet med de båda misstänkta, A och B, ovan). Tio (10) betyder på motsvarande sätt att värdet hos beviset, när det används för att visa att personen är skyldig, är 10 % av fullt bevis.
Detta ger väldigt lite ledning (vare sig i teorin eller i praktiken) i hur man ansätter ett "bevisvärde" till en omständighet, och läsaren lämnas helt i sticket vad gäller hur "bevisvärde" egentligen skiljer sig från det gängse sannolikhetsbegreppet.2 Detta är synnerligen otillfredsställande, ty Lambertz verkar mena att han glatt kan behandla "bevisvärde" med den räkneregel som jag påvisade var så åt helskotta fel för sannolikheter, varför vi behöver dels en klar och redig definition av "bevisvärde", dels en argumentation för varför den lambertzka räkneregeln skulle vara giltig för dessa kvantiteter. Något sådant finner vi inte i hans framställning. De exempel jag gav i maj (vilka enkelt kan mångfaldigas) på varför räkneregeln fallerar för sannolikheter verkar fungera som motexempel även då sannolikheterna ersätts med "bevisvärde".3,4 Det ser faktiskt inte bättre ut än att Lambertz (önske-)tänker sig att hans felaktiga resonemang i boken plötsligt och magiskt blir korrekt om blott han byter ut delar av terminologin.

Vad Lambertz i praktiken gör i sin kalkyl är följande. För varje enskild bevisomständighet höftar han till med en siffra som läsaren inte ges någon susning om var den kommer ifrån (oavsett om den betecknas som sannolikhet eller som "bevisvärde"). Därefter tillämpar han en räkneregel (additivitet för de bevisvärdessiffror han höftat till med) som läsaren inte meddelas någon som helst motivering till varför den skulle vara giltig, och så postulerar han, helt out of the blue, att långtgående slutsatser om Thomas Quicks skuld kan dras om den därvid erhållna summan kraftigt överstiger 100%. Jag kan inte se att denna sifferexercis tillför något jämfört med om Lambertz hade valt att presentera sin lista över bevisomständigheter utan några sifferangivelser, att peka ut vilka av dem han tycker väger mycket tungt (eller måttligt tungt, eller relativt lätt, etc), och att i ord konkludera att han tycker att den sammantagna bevisningen tyder på att Quick är skyldig. Genom att klämma till med (lite godtyckliga) siffror, och behandla dessa med en (lite godtycklig) räkneregel, ger han ett bedrägligt intryck av precision i sitt resonemang, och de kvantiteter han laborerar med är i själva verket vad Sven-Eric Liedman döpt till pseudokvantiteter.5 Det slags användande av matematik som Lambertz här ägnar sig åt är något jag med emfas vill fördöma. Matematik skall användas för att ge det slags precision som rent verbala resonemang inte klarar av - inte för att medelst sken av precision få resonemang att verka mer övertygande och imponerande än de faktiskt förtjänar.

*

Det ovanstående är mitt huvudsakliga skäl till varför jag inte finner Lambertz korrigerande text [WebCite] utgöra något framsteg i förhållande till den felaktiga sannolikhetskalkyl han presenterar i boken. Jag vill inte ödsla tid och kraft på att påpeka alla de övriga fel han begår i den nya texten, utöver på ett par punkter där han trots allt dristar sig till att diskutera sannolikheter:
  • I början av den som rättelse avsedda texten skriver Lambertz följande:
      Sannolikhetsvärden kan, rent matematiskt, inte adderas. De ska i stället multipliceras enligt formeln 1-(1-p)(1-p), där p är sannolikheten för det enskilda beviset.
    Det här är så gott som meningslös rappakalja, som bara tjänar till att demonstrera Lambertz avgrundsdjupa okunskap i sannolikhetsteori. Givetis kan sannolikhetsvärden adderas, och de kan adderas "rent matematiskt" (vad nu detta tillägg är tänkt att tillföra) - frågan är bara hur summan kan tolkas. Vad gäller Lambertz uttryck 1-(1-p)(1-p) så försummar han att tala om vad detta uttryck är tänkt att stå för, och hans påstående blir därför meningslöst. Lägg också märke till att han uttalar sig om sannolikhetsvärden, i pluralis, men att det i uttrycket 1-(1-p)(1-p) bara förekommer en variabel, betecknad p. Min bästa gissning om vad Lambertz menar är att han betecknar den ena sannolikheten med p, och den andra (också!) med p - vilket i så fall är en grad av bristande matematisk tankereda man sällan ser i tryck. Och min bästa gissning rörande varifrån han fått sitt uttryck är att det handlar om teorin för så kallat oberoende händelser: För två händelser A och B har vi att
      P(A och B) = P(A)P(B)
    och att
      P(A eller B) = 1 - (1-P(A))(1-P(B))
    - förutsatt att vi talar om oberoende händelser.6

    På tal om addition av sannolikheter finns för övrigt en annan klass av händelser där P(A eller B) fås genom just addition av P(A) och P(B). Jag talar här om disjunkta, dvs ömsesidigt uteslutande, händelser för vilka vi alltså har att P(A eller B) = P(A)+P(B). Blåvitt och Elfsborg kan inte båda vinna Allsvenskan 2015 (deras respektive segrar är disjunkta händelser), varför sannolikheten att något av de båda lagen vinner Allsvenskan 2015 fås som summan av lagens respektive segersannolikheter.

  • I den nu aktuella rättelsetextens [WebCite] allra sista stycke tar Lambertz upp sannolikheten för att Quick är oskyldig, givet ett par specifika bevisomständigheter som han behandlar i separata rättelsetexter: de beryktade likhundarna [WebCite], och det nästan lika beryktade kunskapstestet av Sven Åke Christianson [WebCite]. Det finns väldigt mycket att invända mot Lambertz evidensvärdering och sannolikhetsanalys i dessa fall, men ett elementärt klavertramp som han i båda fallen begår är det som kallas the fallacy of the transposed conditional: att för två händelser A och B förväxla P(A|B) med P(B|A).7 Tvärtemot vad Lambertz vårdslösa sifferhantering tycks vilja göra gällande, så är sannolikheten för Quicks oskuld givet en viss bevisomständighet inte detsamma som sannolikheten för denna bevisomständighet givet Quicks oskuld.

Fotnoter

1) För att kort rekapitulera vad jag påpekade i maj: Det är helt enkelt inte sant att betingade sannolikheter uppfyller additivitetsegenskapen
    P(A|Ei, Ej) = P(A|Ei) + P(A|Ej).
Ej heller är det oftast sant, eller approximativt sant. Eller som jag skrev i maj:
    Det går att koka ihop enstaka exempel på händelser A, Ei och Ej där additivitetsformeln råkar stämma, men då är det att betrakta mer som en tillfällighet än som konsekvensen av en allmän egenskap hos betingade sannolikheter.

2) Vad gäller "mordet med de båda misstänkta, A och B, ovan" finner den som söker högre upp i Lambertz korrigerade text [WebCite] inget omnämnande av A och B, så jag kan bara anta att "ovan" syftar på s 275 i boken, där Lambertz förklarar att A och B har sannolikhet 50% vardera att vara skyldig till ett visst mord. I det här fallet sammanfaller alltså "bevisvärde" med sannolikhet, men om Lambertz på allvar menar att "bevisvärde" inte bara är en synonym till sannolikhet hade det varit mer belysande om han givit ett exempel där dessa kvantiteter skiljer sig åt.

3) Detta givetvis sagt med reservation för att jag inte vet vad "bevisvärde" egentligen är, då ju Lambertz inte förklarat saken.

4) Följande stycke i Lambertz korrigerade text tyder på att han faktiskt tagit visst intryck av Fotnot 7 i Quickologisk sannolikhetskalkyl:
    Man måste dock vara försiktig med denna metod och inte tro att den ger några exakta, eller ens alltid rättvisande, besked. Det visar sig om man t.ex. adderar en mängd bevis som var för sig har ett relativt lågt bevisvärde. Kommer man då upp i 100 därför att bevisen är många (exempelvis en hel hop vittnen som alla är lite osäkra), måste man vara varsam.

5) I en recension av Liedmans bok Hets kan vi läsa att
    en pseudokvantitet har en kvantitets alla yttre kännetecken men saknar dess avgörande positiva egenskap, att exaktare än varje försök till beskrivning med enbart ord karakterisera ett objekt eller en relation mellan objekt.

6) Vi talar alltså här om det sannolikhetsteoriska obereondebegreppet. Jag vill å det bestämdaste avråda läsare på lambertzk kunskapsnivå från att ta för givet att händelser eller kvantiteter som är oberoende i logisk eller någon mer vardaglig mening automatiskt också är det i sannolikhetsteoretisk mening - don't try this at home!

7) Sådan förväxling kan leda till hur felaktiga sannolikhetsuppskattningar som helst; se t.ex. Fotnot 3 i min bloggpost från den 27 februari i år. För ytterligare diskussion om the fallacy of the transposed conditional rekommenderar jag min populärvetenskapliga framställning i Nämnaren 1/2013.

Edit 4 augusti 2015 kl 21:35: Göran Lambertz har skrivit ett utförligt svar [WebCite] till denna bloggpost.

Edit 8 augusti 2015: Nu har Göran Lambertz gjort en omfattande revision [WebCite] av den korrigeringstext jag kritiserar i denna bloggpost. För att texten ovan skall bli begriplig är det därför nödvändigt att genomgående konsultera WebCite-versionen av den oreviderade korrigeringstexten snarare än "original-länken" till (den nu reviderade) korrigeringstexten.

I den nya revisionen har Lambertz återgått (om än inte helt konsekvent) i sin terminologi från "bevisvärde" till sannolikhet. Han har övergivit sitt additionsförfarande, till förmån för ett multiplikationsförfarande som han tycker är så förträffligt att han ser sig föranledd att proklamera att han genomfört sin analys "på ett matematiskt i huvudsak korrekt sätt", men dessa stolta ord är dessvärre alldeles ogrundade. Lambertz tycks mena att om A är händelsen att Quick är skyldig, och om Ei och Ej är två olika bevisomständigheter, så gäller det multiplikativa sambandet
    P(A|Ei, Ej) = 1-(1-P(A|Ei))(1-P(A|Ej))
förutsatt att Ei och Ej uppfyller något visst oberoendevillkor L som han dock dessvärre inte preciserar ordentligt. Jag går bet på att lista ut vilket detta villkor L skulle vara; såväl vanligt obetingat oberoende som betingat oberoende givet A eller betingat oberoende givet Quicks oskuld ¬A visar sig vara otillräckligt för att garantera den önskade multiplikativiteten. Saken blir inte bättre av hans besynnerliga ad hoc-hantering av de negativa "sannolikheter" som redan från början är mäkta besynnerliga, och texten innehåller därtill en del ytterligare underligheter. Jag vet inte riktigt hur jag skall kunna sammanfatta denna nya version av den quickologiska sannolikhetskalkylen utan att jag riskerar att få nya ebrev från Lambertz med uppläxning rörande vad som är lämpligt språkbruk för en "professor och representant för Chalmers, med de anspråk på seriositet som samhället ställer på en sådan person" (citat ur ebrev från Lambertz till mig den 6 augusti i år), men "rena rappakaljan" vore helt klart ett i sammanhanget träffande uttryck.