torsdag 31 mars 2016

Aaronson om Newcombs paradox

Igår berättade jag om Scott Aaronsons underbara bok Quantum Computing since Democritus, och om hans charmerande tendens att bjuda läsaren på spännande små utvikningar. En av dessa utvikningar rör det fantasieggande filosofiska tankeexperiment som bär namnet Newcombs paradox. Jag sammanfattade själv häromåret tankeexperimentet med följande ord:
    An incredibly intelligent donor, perhaps from outer space, has prepared two boxes for you: a big one and a small one. The small one (which might as well be transparent) contains $1,000. The big one contains either $1,000,000 or nothing. You have a choice between accepting both boxes or just the big box. It seems obvious that you should accept both boxes (because that gives you an extra $1,000 irrespective of the content of the big box), but here’s the catch: The donor has tried to predict whether you will pick one box or two boxes. If the prediction is that you pick just the big box, then it contains $1,000,000, whereas if the prediction is that you pick both boxes, then the big box is empty. The donor has exposed a large number of people before you to the same experiment and predicted correctly [every] time, regardless of whether subjects chose one box or two.1
Så vad väljer du, att ta den stora lådan, eller båda lådorna? Är du en så kallad one-boxer, eller en two-boxer? I en av de tidiga artiklarna om paradoxen, från 1969, skriver Robert Nozick så här:
    To almost everyone, it is perfectly clear and obvious what should be done. The difficulty is that these people seem to divide almost evenly on the problem, with large numbers thinking that the opposing half is just being silly.2
Jag har själv (fram tills nu) inte riktigt kunnat ta ställning inför den spänning mellan å ena sidan kausalt och å andra sidan statistiskt-prediktivt tänkande som problemställningen lyfter fram, och därmed inte kunnat svara på om jag är en one-boxer eller en two-boxer. Därför triggades min nyfikenhet rejält av följande löfte från Aaronson:
    I can give you my own attempt at a resolution, which has helped me to be an intellectually fulfilled one-boxer. [Quantum Computing since Democritus, s 296]
Och när jag ser hans argument så sliter jag mitt hår över att inte ha kommit på det själv, för argumentet föreslår ju praktiskt taget sig självt för den som är bekant med antingen Nick Bostroms simuleringsargument (vilket jag är) eller Stuart Armstrongs tankeexperiment med den aggressivt förhandlande nyblivet superintelligenta AI:n (vilket jag också är).
    Now let's get back to the earlier question of how powerful a computer the Predictor has. Here's you, and here's the Predictor's computer. Now, you could base your decision to pick one or two boxes on anything you want. You could just dredge up some childhood memory and count the letters in the name of your first-grade teacher or something and based on that, choose whether to take one or two boxes. In order to make its prediction, therefore, the Predictor has to know absolutely everything about you. It's not possible to state a priori what aspects of you are going to be relevant in making the decision. To me, that seems to indicate that the Predictor has to solve what one might call a "you-complete" problem. In other words, it seems the Predictor needs to run a simulation of you that's so accurate it would essentially bring into existence another copy of you.

    Let's play with that assumption. Suppose that's the case, and that now you're pondering whether to take one box or two boxes. You say, "all right, two boxes sounds really good to me because that's another $1,000." But here's the problem: when you're pondering this, you have no way of knowing whether you're the "real" you, or just a simulation running in the Predictor's computer. If you're the simulation, and you choose both boxes, then that actually is going to affect the box contents: it will cause the Predictor not to put the million dollars in the box. And that's why you should take just the one box. [Quantum Computing since Democritus, s 296-297]

I ljuset av detta argument ansluter jag mig härmed till lägret av one-boxers.

Fotnoter

1) Jag har här förvrängt mitt eget citat en smula genom att ändra "90% of the time" till "every time", för att bättre ansluta mig till hur tankeexperimentet vanligtvis (och så även i Aaronsons bok) framställs. För den centrala problematiken gör detta inte någon större skillnad. Skälet till att jag i mitt ursprungliga citat talar om 90% är att stycket är hämtat från min recension av William Eckhardts bok Paradoxes in Probability Theory, där författaren insisterar på 90%-formuleringen.

2) Nozicks påstående om "almost evenly" kan jämföras med David Chalmers opinionsundersökning 40 år senare om filosofers inställning till filosofiska spörsmål, där (bland 931 svarande) 21% säger sig vara one-boxers, mot 31% two-boxers (medan återstående 47% kategoriseras under det mer svårtolkade svaret "others").

onsdag 30 mars 2016

Scott Aaronsons underbara bok om kvantdatorberäkningar

Jag har nyss läst ut den unge briljante datalogen Scott Aaronsons bok Quantum Computing since Democritus från 2013, och jag rekommenderar den å det varmaste. Utöver att behandla teorin för kvantdatorberäkningar är den i minst lika hög grad en introduktion för den gren av teotetisk datalogi som benämns komplexitetsteori, och som studerar hur resurskrävande (i termer av exempelvis antal beräkningssteg eller mängden minnesutrymme) olika beräkningsproblem är, vanligtvis asymptotiskt då problemstorleken växer mot oändligheten. Komplexitetsteorin kan sägas handla om vilka problem som kan lösas effektivt, och till väldigt stor del är den uppbyggd kring den viktiga men infernaliskt svåra matematiska frågeställningen P kontra NP.1 Till bokens rikedom bidrar de många utvikningar författaren gör till angränsande områden, som kvantmekanik, relativitetsteori (inklusive avsnitt om huruvida tidsresor är möjliga och vad det i så fall kan väntas ha för konsekvenser för komplexitetsteorin), sannolikhetsteori, kryptologi, antropiska resonemang à la Nick Bostrom, mänskligt medvetande (med precisa och lätt lustfyllda sågningar av John Searles och Roger Penroses respektive bidrag till området), kreationism, och det fantasieggande tankeexperiment som benämns Newcombs paradox och som jag skall återkomma till i morgondagens bloggpost. Mer än en gång ser sig Aaronson manad att leverera disclaimern att han inom fysiken blott är en amatör, men det står klart att i den mån detta överhuvudtaget är sant så är han en extraordinärt bildad sådan. Referensen till Demokritos - den grekiske filosof som verkade under 400- och 300-talen före Kristus och som införde atomteorin - är givetvis en anakronism av rang, men Aaronson begår den av goda skäl.

Genremässigt är boken, som ett slags lite egensinnigt mellanting mellan lärobok och populärvetenskap, en smula svårkategoriserad. Såsom akademiker med min huvudsakliga utbildning inte i datalogi men i ett annat matematiktungt STEM-ämne tror jag att jag har precis rätt sorts bakgrund för att få maximalt utbyte av boken. Det jag framför allt tar med mig från boken är vilket fantastiskt rikt tankebygge komplexitetsteorin utgör, med alla dess intrikata samband i den djungel av olika komplexitetsklasser (jämte ovan nämnda P och NP) som definierats. För mig fungerar också bokens originella stil utmärkt, men jag kan föreställa mig att en och annan läsare kan komma att reta sig på Aaronsons drivna jargong, där ironin sällan är långt borta. Smaka t.ex. på följande inledningsmening på det kapitel i vilket komplexitetsteorin först introduceras:
    By any objective standard, the theory of computational complexity ranks as one of the greatest intellectual achievements of humankind - along with fire, the wheel, and computability theory. That it isn't taught in high schools is really just an accident of history. [s 44]
Eller följande inledning till kapitlet om kvantmekanik:
    There are two ways to teach quantum mechanics. The first way - which for most physicists today is still the only way - follows the historical order in which the ideas were discovered. So, you start with classical mechanics and electrodynamics, solving lots of grueling differential equations at every step. Then you learn about the "blackbody paradox" and various strange experimental results, and the great crisis these things posed for physics. Next you learn a complicated patchwork of ideas that physicists invented between 1900 and 1926 to try to make the crisis go away. Then, if you're lucky, after years of study you finally get around to the central conceptual point: that nature is described not by probabilities (which are always nonnegative), but by numbers called amplitudes that can be positive, negative, or even complex.

    Look, obviously the physicists had their reasons for teaching quantum mechanics this way, and it works great for a certain kind of student. But the "historical" approach also has disadvantages, which in the quantum information age becomes increasingly apparent. For example, I've had experts in quantum field theory - people who've spent years calculating path integrals of mind-boggling complexity - ask me to explain the Bell inequality to them, or other simple conceptual things like Grover's algorithm. I felt as if Andrew Wiles had asked me to explain the Pythagorean Theorem.

    As a direct result of this "QWERTY" approach to explaining quantum mechanics - which you can see reflected in almost every popular book and article, down to the present - the subject acquired an unnecessary reputation for being complicated and hard. Educated people memorized the slogans - "light is both a wave and a particle," "the cat is neither dead nor alive until you look," "you can ask about the position or the momentum, but not both," "one particle instantly learns the spin of the other through spooky action-at-a-distance," etc. But they also learned that they shouldn't even try to understand such things without years of painstaking work.

    The second way to teach quantum mechanics eschews a blow-by-blow account of its discovery, and instead starts directly from the conceptual core - namely, a certain generalization of probability theory to allow minus signs (and more generally, complex numbers). Once you understand that core, you can then sprinkle in physics to taste, and calculate the spectrum of whatever atom you want. This second approach is the one I'll be following here. [s 109-110]

Fotnot

1) Det som gör sambandet mellan komplexitetsteori och kvantdatorberäkningar särskilt hett är att ett kvantdatorgenombrott kan komma att utöka klassen av problem som vi kan lösa effektivt. Här finns dock utbredda vanföreställningar om hur radikal denna utökning kan väntas bli. Aaronson plockar ned dessa:
    From reading newspapers, magazines, and so on, one would think a quantum computer could "solve NP-complete problems in a heartbeat" by "trying every possible solution in parallell," and then instantly picking the correct one.

    Well, arguably that's the central misconception about quantum computing among laypeople. [s 145]

Och vad som kraftigt bidrar till denna "central misconception" är missförståndet att primtalsfaktorisering av stora heltal skulle vara ett NP-komplett problem. Det är visserligen sant att problemet tillhör NP, och att de snabbast kända klassiska (dvs icke-kvant) algoritmerna tar exponentiell tid på sig (något som, tack vare Shors algoritm, ett kvantdatorgenombrott skulle ändra på), men detta gör inte primtalsfaktorisering NP-komplett. Aaronson igen:
    Over the course of my life, I must've met at least two dozen people who "knew" that factoring is NP-complete, and therefore that Shor's algorithm - since it lets us factor on a quantum computer - also lets us solve NP-complete problems on a quantum computer. Often these people were supremely confident of their "knowledge". [s 64-65]

torsdag 24 mars 2016

Framtidsforskare

Jag har nyligen förärats status som Forskare knuten till Institutet för Framtidsstudier i Stockholm. Exakt vilken omfattning och vilka former mitt arbete med Iffs kommer att ta är inte klart, men jag ser hur som helst fram emot det.1 Som trogna läsare av denna blogg vet så är mitt intresse för framtidsforskning stort, och bland institutets forskare finns många framstående och spännande namn, inklusive (och nu nöjer jag mig med att nämna dem som tidigare figurerat här på bloggen) Gustaf Arrhenius, Kimmo Eriksson, Arne Jarrick, Karim Jebari, Klas Markström, Anders Sandberg, Stefan Schubert, Stefan Svallfors, Folke Tersman och Åsa Wikforss.

Fotnot

1) Visst samarbete har vi redan haft, varav måhända det mest synliga var då institutet stod som medarrangör för mitt seminarium Vetenskap, teknologi och mänsklighetens framtid (med min bok Here Be Dragons som utgångspunkt) i förra månaden.

fredag 18 mars 2016

On the fallacy of the transposed conditional

To all my colleagues in the academic discipline of mathematical statistics

We all know about the fallacy of the transposed conditional: to confuse P(A|B) with P(B|A), for instance by mistaking the probability of the obtained data given the null hypothesis for the probability of the null hypothesis given the data. And of course we know better than to fall for that fallacy. But not all of our colleagues who represent other academic disciplines, and who need to do statistics in their daily dealings with empirical data, are as sophisticated statistical thinkers as we are. Many of them are prone to slip into that very fallacy. So can we please please agree to avoid language that encourages them to do so? In particular, can we agree to never ever use ``θ is likely to be 0.7´´ as shorthand for ``the likelihood function L(θ) takes a relatively large value for θ=0.7´´? Please?

söndag 13 mars 2016

Sagan om den stora datamaskinen 50 år

I år är det 50 år sedan den svenske fysikern (och sedemera Noblepristagaren) Hannes Alfvén lät publicera sin kortroman (eller långnovell) Sagan om den stora datamaskinen - en vision. Han gjorde det under pseudonymen Olof Johannesson, men författarens verkliga identitet blev snart känd, och när boken återpublicerades 1987 var det under hans riktiga namn. Boken verkar idag inte gå att få tag i via de vanliga nätbokhandlarna, men väl via antikvariat eller bibliotek, liksom i digital fulltext, utan betalvägg eller andra irriterande hinder.

Sagan är ett muntert stycke samhällssatir, som tar formen av en extrapolation av datorutvecklingen ända fram till (och något förbi) den tidpunkt i framtiden då datorerna tar över vår roll som planetens härskare. Utvecklingen beskrivs torrt och sakligt av den fiktive berättare vars identitet aldrig avslöjas, och det framgår inte ens med någon bestämdhet om denne är människa eller dator. Den satiriska udd Alfvén riktar mot sin samtid slår ofta lika hårt mot vår egen tid 50 år senare. Ett typiskt exempel finner vi i redogörelsen för det (ur berättarens perspektiv) mäkta underliga och sedan länge övergivna fenomenet storstad:
    Gatorna var [...] normalt packade med bilar. Man tycks ha skilt mellan bilar som stod parkerade och dem som stod i bilkö, men vari skillnaden bestod är oklart.

    Vi skall inte underskatta svårigheterna att i våra dagar få en verklig uppfattning av det normala livet i en storstad. Det öronbedövande larmet och den fruktansvärda stanken från de giftgaser som bilarna utspydde, har vi inga förutsättningar att föreställa oss. Försök har gjorts att reproducera dessa förhållanden. Vid ett tillfälle snart efter storstädernas avfolkning reparerade man alla bilarna på en stor gata och fyllde deras tankar med bensin. Folk fick sätta sig i dem och vrida på rattarna. Mellanrummet mellan bilarna packades med turister som strömmat till för att uppleva "en dag i storstaden". Men när bilarna började sitt öronbedövande larm och deras giftgaser strömmade ut, råkade turisterna i panik. Medicinska prov visade att normala människor endast kan uthärda en kort tid i sådan miljö utan allvarliga psykiska men. Vissa förgiftningsfaktorer av avgaserna har också fastställts. Föreställningen har därför aldrig upprepats. Det mesta av vad som förut varit bilar har nu förvandlats till rostbruna avlagringar i de igenslammade kloakerna.

Det mest imponerande med Sagan är emellertid den träffsäkerhet med vilken Alfvén på punkt efter punkt förutsäger den tekniska och sociala utvecklingen fram till våra dagar. Ett exempel är den apparat han kallar teletotalen, vilken han introducerar som "i princip [...] en kombination av automattelefon, radio och TV" och som har slående likheter med dagens smartphones, bl.a. genom att den sätter användaren i ständig kontakt med gigantiska kunskapsbanker, och genom tendensen att bygga in allt fler användningar under ett och samma skal. Den nedvärdering av faktakunskaper i utbildningssystemet som går hand i hand med uppkoppling mot dessa kunskapsbanker förutses också.

Även mycket av senare tids futurologiska diskussion förutsägs träffsäkert av Alfvén. Följande perspektiv på evolutionshistorien är detsamma som den populäre AI-evangelisten Ray Kurzweil1 nära fyra årtionden senare förfäktar i sin bok The Singularity is Near; observera Alfvéns idag föråldrade terminologi i vilken han benämner dator (i singularis) "data" och datorer (i pluralis) "dator":
    Det skulle föra för långt att i detalj följa den biologiska utvecklingen. Vi skall endast dröja något vid den epokgörande mutation - eller serie av mutationer - som markerar utvecklingen från apa till människa. Man kan fråga sig om detta verkligen var ett så betydelsefullt steg. Skillnaden mellan apa och människa är ju liten jämfört med skillnaden mellan människa och en modern data. Trots detta måste vi nog betrakta människans uppkomst som en av de verkligt viktiga händelserna i den historiska utvecklingen. Det var nämligen endast genom människan som det blev möjligt för datorna att uppkomma. I motsats till apor, hundar och andra djur kunde nämligen människan göra uppfinningar och därmed skapa en för datornas uppkomst lämplig miljö. Hennes verkliga storhet ligger i att hon är den enda levande varelse som var intelligent nog att begripa att utvecklingens mål var datan. Vidare behövde datorna en lång tid av symbios med människorna för att kunna utvecklas till vad de är idag. Inga andra levande varelser hade varit användbara för detta ändamål.
En skillnad mellan Alfvéns framställning och Kurzweils är emellertid att medan den teleologi vi skymtar i det citerade styckets tredje mening från slutet med säkerhet är ironiskt avsedd från Alfvéns sida (och med udden riktad mot den utbredda men redan på hans tid antikverade och lite löjliga föreställningen om människan som skapelsens krona), så verkar den teleologi som skiner igenom hos Kurzweil vara helt befriad från ironisk glimt.

Sammanfattningsvis kan om Sagan om den stora datamaskinen sägas dels att den är en litterär liten pärla med icke oävet underhållningsvärde, dels att den förtjänar att ingå som obligatorisk läsning för var och en som vill skaffa sig ett idéhistoriskt perspektiv på dagens så viktiga diskussion om den artificiella intelligensens framtid.

Fotnot

1) Sedan 2012 är Kurzweil utvecklingschef på Google, något jag finner både spännande och (till följd av den obekymrade och deterministiska syn på framtiden han i bl.a. The Singularity is Near ger uttryck för) en smula skrämmande.

onsdag 9 mars 2016

Drakar under strecket

I en understreckare i gårdagens (8 mars) Svenska Dagbladet, rubricerad Teknikens löften ett växande hot, skriver författaren och fysikern Helena Granström om eventuella globala katastrofrisker härrörande från framtida teknikutveckling.1 Som utgångspunkt för sin diskussion tar hon min nyutkomna bok Here Be Dragons: Science, Technology and the Future of Humanity. Så här börjar hon:
    I takt med utvecklingen av bioteknik, nanoteknik och artificiell intelligens ökar även riskerna för att tekniken på ett eller annat sätt kommer att vända sig mot oss. Och även om så inte sker, är frågan om vi verkligen vill leva i en värld där visionerna istället besannats.

    Av alla de förmågor som tekniken har vunnit åt mänskligheten är det en som utmärker sig: vår förmåga att tillintetgöra oss själva. Denna tvivelaktiga färdighet kan först sägas ha förvärvats i och med atomvapnets tillkomst, men är numera också en konsekvens av tekniker som vi normalt uppfattar som konstruktiva: nanoteknologi, bioteknologi och robotik.

    [...]

    Till [litteraturen om detta] kan även Olle Häggströms nyutkomna bok "Here be dragons. Science, technology and the future of humanity" (Oxford University Press) räknas; en appell för att medvetandegöra riskerna med ny teknik, och därigenom kunna fatta informerade beslut om en önskvärd riktning för den teknologiska utvecklingen.

Granström håller med mig om mycket, men anmäler avvikande uppfattning på några punkter, inklusive synen på begreppet mänsklig värdighet2 (human dignity) och det hon kallar "den fysiska verklighetens prioritet över den virtuella":
    Häggström diskuterar som hastigast mänsklig värdighet som grund för en argumentation kring ny teknik, men finner att begreppet är för vagt för att vara meningsfullt: om vi är överens om betydelsen av att värna mänsklig autonomi, menar Häggström, tillför det ingenting. Problemet med en sådan hållning är att den riskerar att leda till att även begreppet mänsklighet i sig börjar luckras upp.

    Föreställ dig en framtid där omhändertagandet om såväl barn som äldre och sjuka sedan länge ­automatiserats; där vår grundläggande försörjning i än högre grad än idag gjorts beroende av maskiner, eftersom de nu också har förmågan att självständigt besluta om produktionsnivåer och transportkedjor; där genuppsättningen hos varje barn som föds är medvetet vald för att eliminera ärftliga sjukdomar, och optimera begåvning, utseende och fysisk hälsa.

    Eller, för att följa den transhumanistiska visionen till dess slutpunkt: en framtid där vi kan leva för evigt i en virtuell verklighet, genom att ladda upp våra medvetanden på datorer. En framtid där vi så väl behärskar den mänskliga kroppens biokemi att vi inte längre behöver vara lyckliga för att kunna få känna lycka.

    Samtliga dessa ting skulle mycket väl kunna vara resultatet av en serie fullt autonoma mänskliga beslut, som alla i sin enskildhet måste uppfattas som oproblematiska - men som icke desto mindre skulle summera till en allvarlig inskränkning av det vi idag förstår som mänsklighet. Om vi inte är beredda att tala om mänsklig värdighet - eller om den fysiska verklighetens prioritet över den virtuella - har vi slutligen ingenting att sätta emot sådana ­visioner. Men oavsett hur vi ställer oss till dem, bör vi vara överens om att det för ingen av dem är värt att riskera det biologiska livets fortsatta existens.

Läs hela Granströms understreckare här!

Fotnot

1) Snabbast av alla med att uppmärksamma mig på Granströms text var Arne Söderqvist, en av denna bloggs trognaste kommentatorer. Redan så tidigt på morgonen som 04:16, dagen för understreckarens publicering, hörde han av sig.

2) För den som vill förstå hur jag ser på detta begrepp rekommenderar jag i första hand Avsnitt 3.2 i Here Be Dragons, och i andra hand Steven Pinkers essä The Stupidity of Dignity som påverkat mitt tänkande på denna punkt.

måndag 7 mars 2016

Försök till nyansering i debatten om statistisk signifikans

När tidskriften Basic and Applied Social Psychology för ett år sedan annonserade den drastiska åtgärden att från sina spalter bannlysa p-värden och statistisk signifikans valde jag att inte skräda orden: den bloggpost i vilken jag kommenterade åtgärden fick rubriken Intellectual suicide by the journal Basic and Applied Social Psychology. Den bloggposten (liksom möjligen också mina båda uppföljande inlägg Geoff Cummings dansande p-värden och I skottlinjen för rättshaveristiska utgjutelser) bidrog till att jag fick en inbjudan från en annan psykologitidskrift, Educational and Psychological Measurement, om att medverka i ett temanummer om den på senare år intensifierade debatten kring bruket av signifikanstest och relaterade statistiska metoder. Jag såg utmaningen som en chans att fördjupa och nyansera några av mina tankar från förra årets diskussion, så jag antog den naturligtvis, och efter ett par refereegranskningsrundor har nu mitt manuskript accepterats för publicering. Varsågoda: Min förhoppning med uppsatsen är att den skall erbjuda intressant och viktig läsning för var och en som bryr sig om frågan om vad som är bra (respektive dålig) statistisk praxis i de empiriska vetenskaperna.

torsdag 3 mars 2016

Bornemark fantiserar

Vad är det med ateismen som är så provocerande? Den kan uppenbarligen få även personer som inte bekänner sig till någon religion och därför inte behöver känna sig angripna (påfallande ofta rör det sig om akademiskt välmeriterade debattörer) att gå så i taket att de tillgriper rent hittepå i sina försök att framställa ateismen i negativ dager. Jag kan inte påstå att jag förstår psykologin i detta fenomen, men om jag ändå skall våga mig på en gissning så tror jag att xkcd-teckningen ovan bär på en stor del av sanningen: att de här debattörerna smickrar sina egon genom att inta en position som de uppfattar som mer sofistikerad än den skäligen enkla ateismen.

Case in point: gårdagens Understreckare i SvD, rubricerad Scientismen tolererar bara sin egen tro, av Jonna Bornemark, docent i filosofi vid Södertörns högskola.1,2 Bland många andra mer eller mindre fria fantasier bjuder hon på följande:
    Nyateisterna menar sig [...] stå för ett universellt och tidlöst förnuft som alla en dag kommer att omfatta. De strävar inte bara mot sekularisering utan mot en "scientifiering" av all politik och kultur, och missionerar för en scientistisk världsbild. I denna världsbild är det inte heller bara religionen som är problematisk, utan även humaniora och samhällsvetenskap anses antingen över­flödiga eller som outvecklade grenar av evolutionsbiologin.
Jag kan inte på rak arm komma på någon som står för det åsiktsknippe som Bornemark här svepande tillskriver "nyateisterna", men för all del, låt oss anta att någon sådan person faktiskt finns. Det hör då enligt min mening till god ton, när man som Bornemark refererar så här pass bisarra ståndpunkter, att vara mer konkret med vem man avser, samt belägga sina påståenden med källhänvisningar och/eller citat. Hennes metod här påminner om den som söker upp en muslimsk fundamentalist och islamist, lockar ur denne några riktigt gräsliga och antidemokratiska yttranden, och sedan tillskriver dennes uppfattningar muslimer i största allmänhet.

För en mer utförlig genomgång av dumheterna i Bornemarks text rekommenderar jag en bloggpost av Patrik Lindenfors, som redan i rubriken ställer en i sammanhanget befogad fråga: Flest fel i en understreckare någonsin?

Fotnoter

1) Jag hade i höstas det något blandade nöjet att sitta i samma panel som Bornemark, för en publik diskussion över temat "Är ateism en religiös tro?".

2) Just Södertörns högskola har dragit på sig ett rykte som ett näste för antivetenskapliga och postmoderna flummerier. Huruvida det ligger något i detta (utöver att de sedan 2010 har en rektor med klart vetenskapsfientliga böjelser) har jag inte haft någon bestämd uppfattning om, men de senaste dagarnas flöde av debattinlägg med avsändaradress Södertörn ger onekligen en antydan om att så är fallet. Förutom Jonna Bornemarks artikel syftar jag här på en DN-artikel av Hans Ruin (professor i filosofi vid samma högskola) som under rubriken Den praktiska filosofins elände levererar ett budskap som (utöver att han vantrivs i nutiden) verkar koka ned till att att filosofin borde ge upp alla försök att resonera rationellt. Ruin har fått välriktade svar från i tur och ordning Per Kraulis, PC Jersild och Per Sandin, och i en replik i dagens DN understryker Ruin på nytt sitt avståndstagande från analytiskt resonerande.

tisdag 1 mars 2016

Om Löbs sats och dess eventuella betydelse inom AI-forskning

Matematisk logik är långt ifrån det område av matematiken som jag har störst håg och fallenhet för, men jag blev för en tid sedan uppmärksammad på Löbs sats - en intressant släkting till Gödels båda ofullständighetssatser. På sidan 26 i sin bok Quantum Computing since Democritus (som jag rekommenderar mycket varmt och som jag alldeles säkert kommer att återkomma till här på bloggen) förklarar datalogen Scott Aaronson i omisskännlig stil vad satsen går ut på:
    If a statement can be proved by using as an axiom that it's provable, then it can also be proved without using that axiom. This result is known as Löb's Theorem [...], though personally I think that a better name would be the "You-Had-the-Mojo-All-Along Theorem".

Förutom att vara ett fantasieggande och förbluffande resultat i sig självt, så verkar det som om Löbs sats eventuellt kan vara av betydelse inom AI (artificiell intelligens), och mer specifikt ett potentiellt hinder för det slags AI-självförbättringsspiral som annars eventuellt kan väntas ge upphov till en intelligensexpolsion, även kallad Singulariteten. Åtminstone är det något man funderar intensivt över på MIRI - Machine Intelligence Research Institute, som är (den här på bloggen ofta citerade) Eliezer Yudkowskys skötebarn. MIRI-matematikern Patrick LaVictoire behandlar Löbs sats och dess eventuella AI-relevans i sin välskrivna översiktsuppsats An introduction to Löb's Theorem in MIRI research.