torsdag 31 mars 2016

Aaronson om Newcombs paradox

Igår berättade jag om Scott Aaronsons underbara bok Quantum Computing since Democritus, och om hans charmerande tendens att bjuda läsaren på spännande små utvikningar. En av dessa utvikningar rör det fantasieggande filosofiska tankeexperiment som bär namnet Newcombs paradox. Jag sammanfattade själv häromåret tankeexperimentet med följande ord:
    An incredibly intelligent donor, perhaps from outer space, has prepared two boxes for you: a big one and a small one. The small one (which might as well be transparent) contains $1,000. The big one contains either $1,000,000 or nothing. You have a choice between accepting both boxes or just the big box. It seems obvious that you should accept both boxes (because that gives you an extra $1,000 irrespective of the content of the big box), but here’s the catch: The donor has tried to predict whether you will pick one box or two boxes. If the prediction is that you pick just the big box, then it contains $1,000,000, whereas if the prediction is that you pick both boxes, then the big box is empty. The donor has exposed a large number of people before you to the same experiment and predicted correctly [every] time, regardless of whether subjects chose one box or two.1
Så vad väljer du, att ta den stora lådan, eller båda lådorna? Är du en så kallad one-boxer, eller en two-boxer? I en av de tidiga artiklarna om paradoxen, från 1969, skriver Robert Nozick så här:
    To almost everyone, it is perfectly clear and obvious what should be done. The difficulty is that these people seem to divide almost evenly on the problem, with large numbers thinking that the opposing half is just being silly.2
Jag har själv (fram tills nu) inte riktigt kunnat ta ställning inför den spänning mellan å ena sidan kausalt och å andra sidan statistiskt-prediktivt tänkande som problemställningen lyfter fram, och därmed inte kunnat svara på om jag är en one-boxer eller en two-boxer. Därför triggades min nyfikenhet rejält av följande löfte från Aaronson:
    I can give you my own attempt at a resolution, which has helped me to be an intellectually fulfilled one-boxer. [Quantum Computing since Democritus, s 296]
Och när jag ser hans argument så sliter jag mitt hår över att inte ha kommit på det själv, för argumentet föreslår ju praktiskt taget sig självt för den som är bekant med antingen Nick Bostroms simuleringsargument (vilket jag är) eller Stuart Armstrongs tankeexperiment med den aggressivt förhandlande nyblivet superintelligenta AI:n (vilket jag också är).
    Now let's get back to the earlier question of how powerful a computer the Predictor has. Here's you, and here's the Predictor's computer. Now, you could base your decision to pick one or two boxes on anything you want. You could just dredge up some childhood memory and count the letters in the name of your first-grade teacher or something and based on that, choose whether to take one or two boxes. In order to make its prediction, therefore, the Predictor has to know absolutely everything about you. It's not possible to state a priori what aspects of you are going to be relevant in making the decision. To me, that seems to indicate that the Predictor has to solve what one might call a "you-complete" problem. In other words, it seems the Predictor needs to run a simulation of you that's so accurate it would essentially bring into existence another copy of you.

    Let's play with that assumption. Suppose that's the case, and that now you're pondering whether to take one box or two boxes. You say, "all right, two boxes sounds really good to me because that's another $1,000." But here's the problem: when you're pondering this, you have no way of knowing whether you're the "real" you, or just a simulation running in the Predictor's computer. If you're the simulation, and you choose both boxes, then that actually is going to affect the box contents: it will cause the Predictor not to put the million dollars in the box. And that's why you should take just the one box. [Quantum Computing since Democritus, s 296-297]

I ljuset av detta argument ansluter jag mig härmed till lägret av one-boxers.

Fotnoter

1) Jag har här förvrängt mitt eget citat en smula genom att ändra "90% of the time" till "every time", för att bättre ansluta mig till hur tankeexperimentet vanligtvis (och så även i Aaronsons bok) framställs. För den centrala problematiken gör detta inte någon större skillnad. Skälet till att jag i mitt ursprungliga citat talar om 90% är att stycket är hämtat från min recension av William Eckhardts bok Paradoxes in Probability Theory, där författaren insisterar på 90%-formuleringen.

2) Nozicks påstående om "almost evenly" kan jämföras med David Chalmers opinionsundersökning 40 år senare om filosofers inställning till filosofiska spörsmål, där (bland 931 svarande) 21% säger sig vara one-boxers, mot 31% two-boxers (medan återstående 47% kategoriseras under det mer svårtolkade svaret "others").

18 kommentarer:

  1. Det var smart formulerat. Själv läste jag första gången om den igår, och tänkte lite sådär grovt praktiskt, att om förutsägelsen är korrekt så finns inget val och man kan då aldrig lura donatorn. Alltså kan man aldrig få de där extra tusen utan får nöja sig med en miljon.

    SvaraRadera
  2. Jag förstår inte riktigt var paradoxen ligger; som problemet är formulerat (i 100%-fallet, och med extrapolation till oändligt antal "mätningar") är det ekvivalent med kvantmekanikens "ihopslingrade" system -- valet påverkar innehållet i stora lådan.

    Själv skulle jag nog hamna i "Others" efter att ha svarat "Nej tack; och jag har NIX telefon" -- mitt standardsvar till alla som lovar guld och gröna skogar utan synbarlig anledning...

    SvaraRadera
  3. Aaronson ändrar problemet med följande sats "In order to make its prediction, therefore, the Predictor has to know absolutely everything about you." Detta är inget antagande i det ursprungliga problemet, vilket inte förutsätter någonting om hur det kommer sig att förutsägaren hittills alltid/nästan alltid har haft rätt. Allt du har är serien av tidigare förutsägelser. Det är då du får den intressanta konflikten mellan förväntad nytta kalkylering baserat på frekvenser och dominansprincipen för rationella val. Lägger du till att förutsägaren besitter någon särskild sorts mekanism som "tracks truth" (exempelvis en enorm databas och infernaliska algoritmer) börjar det mer likna en situation där en kausal beslutsteoretiker skulle börja bry sig, i alla fall om databasen och algoritmerna kan göras troligt att spåra en kausal mekanism. Införandet av simuleringsantagandena verkar också ändra på problemet - under dessa får du ju inga pengar oavsett hur du väljer, bara simulerade pengar? - och det är utfall som inte finns med i problemets ursprungsbeskrivning.

    SvaraRadera
    Svar
    1. Nej, Aaronson ändrar inte på problemet, han löser problemet genom att fråga sig: om jag hamnar i den angivna situationen, vad skulle jag då dra för slutsatser om Prediktorns beskaffenhet?

      Angående simulerade pengar så blir det nog inte ens några sådana, eftersom Prediktorn rimligtvis terminerar simuleringen så snart jag gjort mitt beslut. Men det gör ingenting, för även om jag blott är en simulerad Olle, så bryr jag mig lika mycket om den fysiske Olles ekonomiska väl och ve, som en följd av min parfitianska syn på personlig identitet som Susan Blackmore så vackert har beskrivit.

      PS
      Det där talet om "bara" simulerade pengar ställer jag inte upp på. Om jag bor i en simulering så har jag lika stor nytta av simulerade pengar som en i den fysiska verkligheten boende varelse har av fysiska pengar.

      Radera
    2. Jag anser att det är en fundamental skillnad mellan att Prediktorn har en sannolikhet på 100% att förutsäga ens val och att Prediktorn har en sannolikhet att förutsäga ens val som är mindre än 100% och över 0%. Andra fallet är verklighetsförankrad, och går därför att utföra i verkligheten, och det första fallet är inte det. Men det ville jag bara flika in.

      Jag vill att du i svarar på vad som händer i den angivna situationen att får ta med dig en nära vän när det är din tur att spela, som innan du gör ditt val får gå och kika i den stora lådan och signalera till dig om den innehåller pengar eller inte. Vilket val gör du då?

      Jag föredrar beteckningarna den svarta lådan för den med $0 eller $1,000,000 och den genomskinliga lådan för den andra, men stora och lilla lådan går bra.

      Radera
    3. Anders, jag har aldrig uppfattat problemställningen som att den specificerar någon sannolikhet att Prediktorn skall lyckas denna gång. Allt som uppges är Prediktorns tidigare track record, av vilken man är fri att dra sina egna slutsatser.

      Jag förstår av ditt modifierade tankeexperimentet där man får lov att skicka fram en "nära vän" att kika i den stora lådan att du vill plädera för two-boxing. Men modifieringen hjälper inte för att lösa det ursprungliga problemet eftersom den beskriver en annan situation, med andra premisser, än den man då faktiskt står inför.

      Radera
    4. Sant, då är vi överens! Jag tolkade beskrivningen fel. Mitt misstag. Tack för klargörandet!

      Argumentet är för two-boxing, själv är jag intellektuellt övertygad one-boxer.

      Argumentet är att oavsett vad vänner signalerar så väljer man normalt att ta båda lådorna (fast jag är inte säker på att så är fallet i lösningen som du presenterar här, så du får gärna svara på frågan vilket val du gör och varför.) och det betyder att vännen är onödig och då är man tillbaka i original problemet. Detta är alltså ett logiskt argument för two-boxing och man måste visa vad som är fel med det. Jag ser inte hur denna lösning ger ett tillfredsställande svar på detta.

      Radera
    5. Jag tycker som sagt inte att "nära vän"-argumentet tillför något, men efter som du insisterar: Argumentet verkar bygga på tanken att man vet att man befinner sig i den fysiska verkligheten (där den stora boxens innehåll är på förhand bestämt av Prediktorn) och inte i Prediktorns simulering (där så inte är fallet). Aaronson (och numera även jag) bestrider denna tanke och därmed "nära vän"-argumentets giltighet.

      Radera
    6. Det känns som att jag börjar förstå lösningen mer och mer, men tyvärr verkar det endast leda till att jag känner mindre och mindre tillfredställelse.

      Vän-argumentet håller såklart inte i de situationer då innehållet i lådan inte är bestämt, som t.ex. i simulationen, men du verkar argumentera för att man inte vet om man befinner sig i simulationen eller inte, vilket såklart man inte gör med absolut säkerhet. Man bör dock kunna uttala sig om sannolikheten för att man befinner sig i simulationen. Om Prediktorn har lyckats förutsäga alla tidigare spelares val korrekt så känns sannolikheten för att jag skulle befinna mig i en simulation betydligt högre än om Prediktorn endast gjort en korrekt förutsägelse i 60% av de tidigare fallen, paradoxen kvarstår i ett sådant fall. I den situationen har man väl ändå en större anledning att tro att man inte befinner sig i en simulation? Om så är fallet så blir väl vän-argumentet aktuellt igen? Även "$1,000 mer"-argumentet verkar relevant.

      Inte heller kan man väl argumentera för att sannolikheten att man befinner sig i simulationen kontra verkligheten är 50-50? För man kan väl tänka sig att man skulle kunna befinna sig i en simulation av simulationen och vad skulle i sådana fall sannolikheten för att befinna sig i den vara?

      Radera
    7. Jag är även intresserad av hur lösningen praktiseras i scenariot med vännen, alltså som ett helt annat spel, väljer man båda lådorna oavsett vad vännen signalerar eller väljer man bara den stora lådan?

      Jag tänker mig att om jag tror att jag är i simuleringen ska jag ta bara den stora lådan oavsett vad vännen signalerar och hur korkad hen tycker att jag är, som inte tar alla pengarna. Men om jag tror jag är i verkligheten ska jag väl ta båda?

      Radera
    8. Olle, om simulerade pengar: Mitt intresse i Newcomb-problemet gäller ju pengar, inte simulerade pengar. Här är det du som lägger till ett villkor i problemets beskrivning.

      Men viktigare det första. Om allt Aaronson gör att säga "så här skulle jag tänka om jag ställdes inför problemet", så har han inte löst det, bara redovisat sin benägenhet att lägga till antaganden som inte ingår i problemets ursprungliga beskrivning.

      Radera
    9. Christian, du kanske uppfattar problemet som Newcombs paradox reser på ett annat sätt, men så här ser jag det:

      Paradoxen ställer två mycket starka intuitioner mot varandra, en om kausalitet (självklart skall man två-boxa) och en om statistisk prediktion (självklart skall man en-boxa).

      De flesta som ställs inför problemet nöjer sig med att konstatera att den ena intuitionen är starkare än den andra, och att därför ignorera den andra. Det finner jag ytterst otillfredsställande. Vad Aaronson gör är att han visar ett sätt att resonera i den stipulerade beslutssituationen som leder till ett beslut som respekterar både kausala och statistisk-prediktiva principer. Därmed har han, i mina ögon, löst problemet elegant och tillfredsställande.

      Ditt klagomål om att hans resonemang i den stipulerade beslutssituationen inbegriper antaganden finner jag orimligt: i verkligheten är vi ju alltid, i alla beslutssituationer vi ställs inför, tvungna att göra antaganden. Att ogiltigförklara sådant i paradoxens stipulerade beslutssituation blir därför ungefär liktydigt med att säga "Hur gör du i följande beslutssituation om du inte får lov att använda din fulla kapacitet att tänka och resonera?", vilket ger en i mitt tycke ointresant problemställning.

      Radera
  4. Själv är jag också one-boxer. Men Aaronsons argument verkar inte helt OK. Eftersom jag är one-boxer, så räcker det väl att Prediktorn vet det; han behöver inte veta allt annat om mig. Men om jag i stället singlar slant om hur jag ska välja (efter att Prediktorn har gjort sitt), så måste väl Prediktorn simulera hela universum (om det nu är möjligt),
    Lars Bergström

    SvaraRadera
    Svar
    1. Du må vara one-boxer, men de flesta människor är inte vare sig one-boxers eller two-boxers (helt enkelt för att de aldrig hört talas om Newcombs paradox), och kan därför tänkas resonera lite hur som helst (t.ex. låta antalet bokstäver modulo två i första lågstadielärarens efternamn avgöra beslutet). Så för att Prediktorn skall kunna uppnå sitt goda track record behöver denne ha en i princip uttömmande inblick i dessa människors själsliv.

      Så tänker Aaronson i den givna valsituationen. Han kan givetvis ta miste om Prediktorn, det kan ju t.ex. vara så att Prediktorn använder magi. Men han kan ju också tänkas ha rätt, och det räcker att det finns en hygglig chans att han har rätt för att hans val att one-boxa skall vara rationellt.

      Radera
    2. Jag tänker mig att Prediktorn helt enkelt använder en tillräckligt avancerad teknologi.

      Radera
    3. Så tänker sig även Aaronson (och jag). Och då inställer sig frågan: vad för slags teknologi? Eftersom uppgiften består i att prediktera utfallet av ett komplext system, så synes datorsimulering vara det mest uppenbara svaret.

      Radera
  5. En kvant-baserad slumpgenerator skulle välja låda åt mig, lyckas även det förutspås har vi bra mycket mer nytta av denna alien än bara 1M :)

    SvaraRadera
  6. Jag tar åt mig äran av att med ovanstående bloggpost ha inspirerat vännen Johan Wästlund att skriva en egen bloggpost om Newcombs paradox. Han tar upp en sida av saken som jag själv märkligt nog förbisett, nämligen dess implikationer för hen-debatten och HBTQ-frågan.

    SvaraRadera