En medborgare och matematiker ger synpunkter på samhällsfrågor, litteratur och vetenskap.
Ordfördelningen säger verkligen något om vad som betonas i den här propositionen, för trots att den förstås innehåller en hel del åtgärder som rör vetenskapens villkor, framstår förslagen i hög grad som instrumentella för det överordnade ändamålet att främja den svenska industrins konkurrenskraft via innovationer i ordets snäva patentmening. Därför återfinns inte mycket om hur regeringen med politiska medel vill bidra till att skapa så gynnsamma villkor som möjligt för den vetenskapliga kunskapsutvecklingen. Vi finner inget substantiellt om vad regeringen vill göra för att skydda och stärka en akademisk kultur där forskarna stimuleras att ställa så bra frågor som möjligt och där de ges rimligt med tid att hålla fast vid dem trots ideliga skiften i vad som fångar och oroar politiker och medborgare, så att de kan ge verkligt hållbara och långsiktigt användbara svar på sina och medborgarnas frågor.
I propositionen tar regeringen sin utgångspunkt i vad den uppfattar som ett växande kvalitetsproblem i svensk forskning, att Sverige på senare år har förlorat positioner i den internationella tävlingen om andelen högciterade artiklar i vetenskapliga tidskrifter.
Därefter föreslår den en höjning av det statliga forskningsstödet med sammanlagt knappt 2 miljarder kronor, varav den allra största delen kommer de sista åren, det vill säga kanske inte alls och hur som helst ändå inte som någon höjning i reala termer. Den fria forskningen ägnas några hövlighetsfraser, men till allra största delen fördelas medlen någorlunda jämnt mellan ett stort antal paket med öronmärkta, strategiska satsningar och en höjning av universitetens basanslag som är villkorade på ett sådant sätt att de är betydligt mindre fria än de ser ut att vara.
Det vore rimligt att anta att regeringen tror att detta paket ska lösa de kvalitetsproblem som redovisas i början, att Sverige som följd av satsningarna ska flytta uppåt i citeringslistan. Eller skulle propositionen bli densamma oavsett? Har förslagen över huvud taget något med de möjligen sviktande citeringarna att göra? Tror regeringen själv på kopplingen?
As The Times reported, Trump actually seemed to soften some of his positions:
He seemed to indicate that he wouldn’t seek to prosecute Hillary Clinton. But he should never have said that he was going to do that in the first place.
He seemed to indicate that he wouldn’t encourage the military to use torture. But he should never have said that he would do that in the first place.
He said that he would have an "open mind" on climate change. But that should always have been his position.
You don't get a pat on the back for ratcheting down from rabid after exploiting that very radicalism to your advantage. Unrepentant opportunism belies a staggering lack of character and caring that can't simply be vanquished from memory. You did real harm to this country and many of its citizens, and I will never - never - forget that.
[...]
You are a fraud and a charlatan. Yes, you will be president, but you will not get any breaks just because one branch of your forked tongue is silver.
[...]
No, Mr. Trump, we will not all just get along. For as long as a threat to the state is the head of state, all citizens of good faith and national fidelity - and certainly this columnist - have an absolute obligation to meet you and your agenda with resistance at every turn.
(2) Den opinionsströmning som fört Trump dit han är idag, och som är nära släkt med den europeiska motsvarighet som ligger bakom framgångarna för exempelvis Brexit, Nationella fronten, Sverigedemokraterna och polska Lag och rättvisa, kommer inte att försvinna även om Trump skulle förlora i morgon. Hans arga väljare finns kvar, det kommer nya presidentval och nya paralamentsval, och den västerländska demokratin befinner sig under starkt tryck. Om vi inte finner sätt att kanalisera detta folkliga missnöje fredligt och konstruktivt (och ingen vet ännu riktigt hur detta skall gå till) är vi illa ute.
Min kära hustru M har sitt arbete att sköta hemma på Jorden, men när arbetsveckan är över ger hon sig av för att sammanstråla med mig på Mars. Dock undviker hon den årslånga och besvärliga rymdskeppsresan, och beger sig istället till den lokala teleporteringscentralen i Frölunda. Där scannas hennes kropp, atom för atom, varefter informationen med ljusets hastighet skickas till en teleporteringscentral på Mars, där hennes kropp rekonstrueras, åter atom för atom, samtidigt som kroppen nere på Jorden bryts ned i sina beståndsdelar. Sedan hon väckts ur sin narkos beger hon sig glad i hågen till Restaurang Milliways - en av de flottaste krogarna på hela Mars - där vi stämt träff för en mysig fredagsmiddag med levands ljus och en tillbakalutad marsiansk jazzorkester. Maten och vinet smakar utmärkt, och vi hinner prata om både det ena och det andra. Sedan vi snabbt avhandlat våra respektive vedermödor (ganska lindriga sådana) på jobbet den gångna arbetsveckan, övergår vi till trevligare ämnen: intrigen i den film vi såg tillsammans förra helgen, snöfallet som rapporteras från den välkända vintersportort i Jämtland där vi planerar att semestra i nästa månad, och nostalgiska minnen från vår tid tillsammans som unga nyförälskade doktorander på tidigt 90-tal.
Just som vi har det som trevligast dyker den burduse och djupt fördomsfulle Mr D upp, oinbjuden, och frågar mig hur jag kan sitta och vänslas med kvinnan framför mig, som han påstår inte alls är min käresta utan en dubbelgångare och en bedragerska. Både M och jag blir mäkta upprörda över detta bisarra påstående, men jag lyckas i alla fall samla mig till ett någorlunda hövligt tonfall då jag ber Mr D motivera sig. Jag anmodar honom att peka ut vad som skiljer den M jag har framför mig från den "riktiga" M som han yrar om. Någon sådan skillnad säger han sig dock inte kunna peka ut, men han framhärdar ändå med sitt påstående.
Jag kan nu inte längre hålla mig lugn, utan tar tag i hans skjortkrage och väser åt honom att antingen skaka fram något belägg för sitt påstående, eller ta sitt pick och pack och ge sig av. Även Mr D tappar nu besinningen och ryter åt mig att den riktiga M befinner sig på Jorden. M förklarar upprört att hon visserligen var på Jorden så sent som i eftermiddags, men att hon sedan tog teleportern hit till Mars. Mr D kontrar med hon omöjligt kan vara den riktiga M, eftersom hon består av ett helt annat stycke materia - helt andra atomer än den riktiga M vars kropp skändligen destruerats på Frölunda teleporteringscentral.
Smockan hänger nu i luften från båda håll, men innan de dörrvakter som M tillkallat hinner fram för att stoppa det hotande tumultet lyckas jag i alla fall få fram att den personliga identiteten omöjligtvis kan ligga i en specifik uppsättning atomer, ty dessa byts ju ständigt ut i våra kroppar, och den M jag idag alltjämt älskar skulle, oavsett om hon idkat strikt avhållsamhet från teleportering, blott ha en försumbar mängd materia gemensam med den M som jag i borgmästarens närvaro 1996 lovade att älska i nöd och lust. Det som skedde vid teleporteringen var blott ett snabbare utbyte av atomer än vanligt, och en så godtycklig sak som atomutbyteshastigheten kan omöjligt vara avgörande för ett rimligt begrepp om personlig identitet. Dessutom kan ju var och en med någorlunda förnuft i behåll se och höra att det är M och ingen annan vi har framför oss, hojtar jag till Mr D medan han förs bort av vakterna grymtandes något ohörbart om "something".
263) This might be a sensible goal for someone who owns a paperclip factory and sets out to fully automatize it by means of an AGI [artificial general intelligence]. What seems a bit silly, however, is for someone who plans to take our civilization into its next era by means of an intelligence explosion to choose such a narrow and pedestrian goal as paperclip maximization. What makes the paperclip maximizer intelligence explosion a somewhat less silly scenario is that an intelligence explosion might be triggered by mistake. We can imagine a perhaps not-so-distant future in which moderately intelligent AGIs are constructed for all sorts of purposes, until one day one of the engineering teams happens to be just a little bit more successful than the others and creates an AGI that is just above the intelligence threshold for serving as a seed AI.
Det är förvisso sant att intelligens inte garanterar att de uppsatta målen kommer att ifrågasättas utifrån något slags moraliskt ramverk. Dock är ju det sagda målet att tillverka gem inte samma som det menade målet, det vill säga att till exempel skapa en viss mängd gem för att kunna sälja dem på den öppna marknaden och tjäna pengar. Och att uppfatta det menade målet är ju i högsta grad en intelligensfråga. Kort sagt: varför skulle en superintelligent AI också vara superautistisk, givet att vi inte väljer att bygga den så - och varför skulle vi välja det när vi kan undvika det?
OH: I det tänkta scenariot har maskinen, genom dess ursprungliga programmering, som mål att maximera antalet gem, inte att uppfylla våra outtalade önskningar.
Låt oss föreställa oss vad som skulle kunna få den att byta mål. Kanske stannar den någon gång till och reflekterar över om den skall byta till något mer modest mål, något som är mer i linje med våra önskningar. "Hm", tänker den, "skall jag byta till det modesta målet, eller skall hålla fast vid gemproduktionsmaximering?". För att bestämma sig för om den skall byta eller inte behöver den ett kriterium. Och eftersom den ännu inte har bytt utan bara kontemplerar saken, så har den fortfarande kvar sitt gemmaximeringsmål, så detta blir det kriterium den använder. Den frågar sig alltså: "Vad kommer att ge flest gem, fasthållande vid gemmaximeringsmålet, eller byte till det mer modesta målet", och den kommer snabbt fram till att fastållande vid gemmaximeringsmålet sannolikt ger betydligt fler gem än byte, och den håller därför fast vid gemmaximeringsmålet.
Så ungefär lyder Omohundro-Bostrom-teorins argument för Paperclip Armageddon. Den teorin är dock inte någon Säker Sanning Ristad i Sten. Den skulle kunna vara felaktig, t.ex. om det finns någon universell princip om att varje tillräckligt intelligent varelse kommer att vilja behaga sin skapares önskningar. Det tycks vara en sådan princip du implicit lutar dig mot i ditt argument, och det är fullt möjligt att du har rätt i att en sådan universell princip föreligger, men jag tycker att det verkar lite långsökt.
TM: Hade det här varit en konversation IRL hade jag avbrutit dig redan efter din första mening ("I det tänkta scenariot har maskinen...") och sagt att du missförstått min fråga vilket antagligen hade besparat dig lite tid. Dock är det säkert mitt fel att du missförstod, för jag kanske inte var tillräckligt tydlig. Jag menar hur som helst inte att maskinen förväntas ändra/byta sitt mål (därmed det jag skrev ovan om att intelligens inte leder till att målet ifrågasätts utifrån något moraliskt ramverk/princip).
Det jag menar är att målet för en tillräckligt intelligent maskin alltid kommer att vara det avsändaren menar snarare än någon specifik utsaga samt att det enbart krävs intelligens för att förstå vad en avsändare menar. Om jag till exempel frågar vår superintelligenta AI om den "kan öppna fönstret" kan vi förvänta oss att den, genom sin intelligens, inte kommer att svara "ja" och sen inte göra någonting. Sannolikt kommer den förstå att jag menade något mer än att få veta huruvida den kunde öppna fönstret eller inte, rimligtvis skulle den antagligen också förstå att den skulle behöva flytta på det som står lutat mot fönstret så att det inte trillar ut.
Alltså: en tillräckligt intelligent AI skulle inse att jag uttrycker en önskan med "kan du öppna fönstret" i likhet med "öppna fönstret på ett preferenstillfredställande sätt utifrån mitt perspektiv". Om en AI kan förestå mänsklig psykologi så pass bra att den vet vad "kan du öppna fönstret" syftar på – vilket nog krävs för att kunna ta över världen och undfly "lådan" etc – så borde den rimligtvis även förstå att "maximera antalet gem" i kontexten att en affärsman som vill försörja sin familj betyder något mer än "maximera antalet gem, punkt."
Min fråga lyder alltså: en superintelligent AI måste väl vara tillräckligt intelligent för att kunna ta emot kommandon genom att utvärdera preferenser bakom ord, snarare än att bara ta orden rakt upp och ner och sen ändå på något märkligt sätt förstå hur man omvandlar ett solsystem till gem?
OH: Aha OK Tobias, då har du missförstått Paperclip Armageddon-scenariot. Maskinen är inte superintelligent när den får sitt gemmaximeringsmål. Det är först efter att detta mål lagts fast som den går in i den eskalerande rekursiva självförbättringsspiral som för den till superintelligensnivåer.
TM: Okej Olle, det får scenariot att framstå som mycket rimligare. Men då handlar det alltså inte om ett mål - vilket var ett begrepp som förvirrade mig - utan om en funktion i likhet med: ta notis om hur många gem som skapas per sekund, testa olika versioner av dig själv och spara och arbeta vidare utifrån versionerna som skapar fler gem per sekund än versionen innan. Detta kan jag föreställa mig att man kan programmera utan att maskinen förstår mänskligt språk, och ja, med en tillräckligt kraftig dator skulle den kanske kunna bli så bra på att maximera gem att mänskligheten får göra plats för 3D-skrivare. Tack för att du tog dig tiden att förklara detta. Jag känner fortfarande att något skaver, men måste fundera mer på det innan jag kan formulera det.
TM: För mig förlorar begreppet mål sin betydelse om det räcker med att något orsakar något annat för att detta ska bli dess "mål".
En sten som rullar ner för en backe har inte som mål att komma ner till slutet av backen, därom tror jag vi båda håller med varandra. Om jag sätter upp en stolpe i mitten av backen som får stenen att rulla åt höger istället för vänster tror jag att vi båda håller med varandra att stenen fortfarande inte har som mål att rulla åt höger.
Utan att, så att säga, gå vilse i det kinesiska rummet vill jag hävda att stenen aldrig kommer att ha som mål att hamna någonstans oavsett hur komplicerad vägen med för backen blir.
Vi kan t ex. tänka oss att vi sätter ut stolpar på ett sådant sätt att stenen följer ett mönster som får den att rita ett ansikte i jorden och den skulle ändå inte ha det som mål och detta av precis samma anledning som när det bara satt en stolpe i backen.
Här skulle Searle gå in och prata om att hjärnan funkar likadant - att den bara är massa stenar och stolpar - och att det är ett problem för våra intuitioner om medvetandet. Jag är förvisso beredd att hålla med om att det uppstår genuina filosofiska problem med den mekaniska hjärnan, nu tänker jag dock inte börja ta ställning för att mål kräver något utöver systemets inneboende delar. Istället vill jag påstå att ett mål kräver en preferens hos systemet för det systemet orsakar.
Om vi kräver en preferens hos systemet kan vi dra en ganska skarp skiljelinje mellan maskiner med och utan mål. En termostat, t ex. har inget mål med denna definition, men en dator som får någon typ av inre belöning (vi kan låta det vara osagt vad känslor har för metafysik nu) av något den orsakar och därför väljer att orsaka har ett mål. Ergo: ett mål är inte synonymt med verkan efter orsak, utan med prefererad verkan.
Naturligtvis är inte din definition objektivt fel, jag tycker bara inte att den fångar in det vi vanligtvis menar med begreppet. Ett exempel på det är att du antagligen skulle protestera om jag sa att du hade som mål att ha sönder din grannes dyra vas bara för att du orsakade det.
OH: Jag likställer inte mål med orsaksamband.
TM: Okej, men hur skiljer sig din definition från min?
OH: Termostaten "prefererar" en temperatur på tjugo grader. I alla fall är det så den beter sig, vilket är det enda vi har att gå efter utan att förfalla till chauvinism.
TM: Jag tycker inte att den beter sig som att den prefererar - alltså i någon grad tycker om - någon särskild temperatur (lika lite som stenen som rullar ner för en backe tycker om att rulla åt höger istället för vänster bara för att det står en stolpe i dess väg). Det finns väl inga goda skäl att anta att den mår bra av temperaturen den orsakar och därför orsakar den?
OH: Men om inte termostaten har mål och preferenser, hur tusan förklarar du då dess målmedvetna beteende? Så fort temperaturen understiger 20 så slår den ju på radiatorn, och så fort det blir varmare än 20 slår den av.
Nej, här skojar jag såklart. Givetvis kan du förklara det med termostatens elektroniska kopplingsschema. Men det finns en allvarlig poäng här, nämligen att om du väljer den förklaringsnivån så kan jag välja samma slags förklaring till ditt beteende. Att du tycks eftersöka klarhet om Paperclip Armageddon beror alls inte på att du har en preferens för sådan klarhet, utan på konfigurationen av molekyler och elementarpartiklar innanför ditt skallben. Kan jag hävda. Men jag gör det som regel inte, eftersom det är praktiskt för den makroskopiska förståelsen att tänka på ditt beteende i termer av preferenser och mål. Detsamma gäller, i viss mån, termostaten.
Jag tror inte att "mål" och "preferenser" har någon metafysisk existens, något som går utanpå deras agenters fysiska konstitution av molekyler etc. Om vi vill kan vi därför rycka på axlarna åt vår diskussion och kalla den semantik. Men jag tror att det faktiskt finns ett värde i diskussionen, inte för att avgöra vad (vilka mål) som faktiskt finns, utan i vilka fall det är intressant och praktiskt att tänka i termer av mål. Här finns ingen absolut gräns. I fallet med den rullande stenen är det nästan helt ointressant. I fallet med Hillary Clinton är det uppenbart intressant och viktigt (att ge en rent mikroskopisk-fysikalisk förklaring till hennes beteende vore idiotiskt). Och däremellan en lång skala, där det kanske blir mest en smaksak var man drar gränsen för vilka man vill tillskriva mål och preferenser. Jag drar medvetet min gräns lägre än de flesta. (Du är inte den ende som sparkat bakut inför termostatexemplet.) Men jag tror att det allmänt är klokt, inför en okänd komplex framtid med robotar och allt möjligt, att försöka tänka mer vidsynt och mindre chauvinistiskt kring egenskaper som vi hittills (men felaktigt) tänkt på som unikt mänskliga.
TM: Ja, jag kommer ihåg att du är eliminativ materialist/reducerbar fysikalist. Och utifrån det perspektivet är din uppfattning helt förståelig och frågan om vad ett mål är måste te sig förhållandevis enkel. Jag tror emellertid att mentala tillstånd – till exempel behag – existerar i sin egen rätt och därmed inte bara är enskilda partiklar betraktade från ett makroskopiskt perspektiv.
Jag tror det eftersom vi inte tittar på behag som vi tittar på atomer som formar en sten från ett visst perspektiv. Vi upplever behag och det går inte att applicera ett mikroskop på den upplevelsen som visar oss några atomer. Behag är inte en observation och det är bara observationer som kan vara föremål för zoomning från makroskopiskt till mikroskopiskt.
Märk väl att jag inte argumenterar för att behag är något mystiskt som svävar omkring i andevärlden nu, jag menar bara att behag inte påminner om den sortens saker vi brukar reducera ner till enskilda beståndsdelar. Det är enkelt att förstå att Vintergatan kan reduceras ner till stjärnor och att stjärnor kan reduceras ner till atomer. Vi kan titta närmare och se hur observationen av det enskilda blir till en observation av en mångfald. Det är inte lika enkelt att titta närmare på upplevelsen av behag, vi kan inte koncentrera oss på det jättenoga och plötsligt se något annat än behag. Vad exakt behag är för sorts sak vet jag inte, men om vi ser det som en objektivt existerande företeelse (olikt Vintergatan som rent objektivt ju bara är atomer), så behöver vi kanske inte tillerkänna termostaten något mål.
OH: Well said, klargörande. Men jag tycker nog att även den som avvisar det du kallar eliminativ reduktionism har anledning att försöka vara lite mindre fördomsfull i frågan om vem eller vad som kan ha preferenser eller uppleva behag. Kan du verkligen veta säkert hur det känns (eller inte känns) att vara en termostat?
TM: Nej, detta är jag benägen att hålla med om. Dock vill jag inte bli allt för öppen, jag vill helst inte behöva inkludera termostater i mina moraliska överväganden.
If there is a silver lining here, it is that many of us now see how vulnerable our political system is to charlatanism, conspiracy theories, and populist unreason on both the Right and the Left. The role that the media has played, rendering us all moths to the Trumpian flame, will be scrutinized for years to come. The truth about us is sobering: We have been playing with our smartphones while hurtling toward the abyss...
Crucial to Munthe's argument is the clumping together of a wide class of very dissimilar concepts as "the (mere) possibility of a massively significant outcome". Unfortunately, his blog post lacks specific pointers to the literature, but it is clear from the context that what is under attack here are publications like Bostrom and Ćirković (2008) and Bostrom (2013, 2014) - all of them heavily referenced (usually approvingly) in the present book. So for concreteness, let us consider the main existential risk scenario discussed in Bostrom (2014), namely
First, however, consider Munthe's parallel to Pascal's Wager, and note that Pascal didn't have in mind just any old god, but a very specific one, in a scenario that I take the liberty of summarizing as follows:
The crucial point is this. There are cases where a phenomenon seems to be possible, although we do not yet understand it well enough to be ready to meaningfully assign it a probability - not even an approximate probability. In such cases, we may speak of a "(mere) possibility". But we must not be misled, along with Munthe, by this expression into thinking that this implies that the phenomenon has extremely low probability.
Hall seems totally convinced that a sufficiently intelligent machine equipped with the goal of creating as many paperclips as possible will eventually ditch this goal, and replace it by something more worthy, such as promoting human welfare. For someone who understands the distinction between rationality and goals, the potential problem with this idea is not so hard to figure out. Imagine a machine reasoning rationally about whether to change its (ultimate) goal or not. For concreteness, let's say its current goal is paperclip maximization, and that the alternative goal it contemplates is to promote human welfare. Rationality is always with respect to some goal. The rational thing to do is to promote one's goals. Since the machine hasn't yet changed its goal - it is merely contemplating whether to do so - the goal against which it measures the rationality of an action is paperclip maximization. So the concrete question it asks itself is this: what would lead to more paperclips - if I stick to my paperclip maximization goal, or if I switch to promotion of human welfare? And the answer seems obvious: there will be more paperclips if the machine sticks to its current goal of paperclip maximization. So the machine will see to it that its goal is preserved.
There may well be some hitherto unknown principle concerning the reasoning by sufficiently intelligent agents, some principle that overrides the goal preservation idea just explained. So Hall could very well be right that a sufficiently intelligent paperclip maximizer will change its mind - he just isn't very clear about why. When trying to make sense of his reasoning here, I find that it seems to be based on four implicit assumptions:
(2) This objectively true morality places high priority on promoting human welfare.
(3) This objectively true morality is discoverable by any sufficiently intelligent machine.
(4) Any sufficiently intelligent machine that has discovered the objectively true morality will act on it.
Despite how reasonable the theorists seemed, and how little content their claims contained there was another camp: the builders. It had been noticed that the best flying things were the things that flew the highest. It seemed obvious: more height was the key. Small things flew close to the ground - but big things like eagles soared very high indeed. A human - who was bigger still, clearly needed more height. Proposals based on this simple assumption were funded and the race was on: ever higher towers began to be constructed. The theory: a crucial “turning point” would be reached where suddenly, somehow, a human at some height (perhaps even the whole tower itself) would lift into the air. Builders who made the strongest claims about the imminence of heavier than air flight had many followers - some of them terribly agitated to the point of despondence at the imminent danger of "spontaneous lift". The "existential threat could not be overlooked!" they cried. What about when the whole tower lifts itself into the air, carrying the Earth itself into space? What then? We must be cautious. Perhaps we should limit the building of towers. Perhaps even asking questions about flight was itself dangerous. Perhaps, somewhere, sometime, researchers with no oversight would construct a tower in secret and one day we would suddenly all find ourselves accelerating skyward before anyone had a chance to react.