torsdag 12 september 2019

Om intelligensen hos Stefan Livh i P4

Nu var det visserligen ett halvår sedan sist, men jag ändå börjat känna mig som en stammis hos Stefan Livh i hans förmiddagsprogram i P4 Göteborg. I dagens program pratade vi om olika aspekter på intelligens - både mänsklig sådan och AI. I vanlig ordning kan det höras i efterhand via nätet och vårt samtal pågår från cirka 1:02:50 in i sändningen till cirka 1:44:40 (med diverse avbrott för musik och annat). Vi passade också på att i våra kalendrar boka in både nästa torsdag (19 september) och torsdagen efter (26 september)1 för fortsatta samtal, så stay tuned!

Fotnot

1) Ni som känner mig någorlunda väl (eller som följt denna blogg noggrant) kanske anar något om vad jag kommer att vilja ta upp just den dagen.

måndag 19 augusti 2019

Diverse AI-prat i Göteborg den närmaste tiden

Min hemstad Göteborg kommer att vara någorlunda privilegierad den närmaste tiden vad gäller publika evenemang där jag resonerar om utvecklingen inom artificiell intelligens (AI) och vad den kan föra med sig för oss i framtiden. Se här, och observera i samtliga fall kravet om förhandsanmälan (och i ett par av fallen dessvärre också en avgift för att få delta):
  • Redan i nästa vecka, den 28-30 augusti, äger ett samarrangemang av Chalmers och Göteborgs universitet rum, med rubriken AI for Health and Healthy AI. Onsdageftermiddagen den 28:e ägnas åt AI-risk och AI-etik, inklusive kl 15.00 ett panelsamtal rubricerat Catastrophic AI risk där jag medverkar tillsammans med Chalmerskollegan Marina Axelson-Fisk och den Thore Husfeldt från Lunds universitet och ITU i Köpenhamn som jag tidigare uppträtt tillsammans med en handfull gånger med oftast lyckat resultat (se t.ex. här, här och här). Lokal är Konferenscentrum Wallenberg, Medicinaregatan 20.
  • Onsdagen den 25 september på Chalmersska huset, Södra Hamngatan 11, anordnar Chalmers bibliotek sin årliga ChALS-konferens, i år med temat Artificiell intelligens & bibliotek. Kl 15.50 samtalar jag med Chalmerskollegan Ann-Sofie Axelsson i en programpunkt som kort och gott bär rubriken Ett samtal om AI.
  • Den 1-2 oktober äger ett näringslivsdominerat evenemang rubricerat Telematics Valley Annual Conference 2019: AI in Automotive - REALITY CHECK rum i Volvohallen på Hisingen. Andra dagens förmiddag ägnas åt AI-etik, inklusive mitt föredrag AI risk, AI safety, AI ethics.
  • På eftermiddagen onsdagen den 16 oktober arrangerar Rotary, Göteborgs universitet och MedTech West halvdagsmötet Artificiell Intelligens - möjligheter och hot i universitetets huvudbyggnad vid Vasaplatsen, och jag medverkar med föredraget Vår framtid med AI innebär stora möjligheter och stora risker.

tisdag 30 juli 2019

Ubbhultskt yttrandefrihetsgnäll

Detta är en uppföljare till min bloggpost Ubbhultska dumheter tidigare denna månad, om den moderate riksdagsledamoten och klimatförnekaren1 Jan "Ubbhult" Ericson. Den förra bloggposten avslutades med en redogörelse för hur Ericson den 10 juli avböjde min invit att ta en öl tillsammans, och i samband med det stämplade mig som "respektlös", en beskrivning jag hade vissa invändningar emot. Föga anade jag att Ericson bara några dagar senare skulle eskalera baktaleriet genom att (i diskussion med tredje part den 16 juli) hävda att jag "visat mycket aggressiva tendenser". Detta ogrundade påhopp reagerade jag på i en snabb serie om fyra tweets den 17 juli. Ericson svarade inte på detta, så en vecka senare påminde jag honom om saken via Twitters meddelandefunktion, varpå följande meningsutbyte utspelade sig, där Ericson ventilerade sin önskan om att få bedriva sin klimatförnekarpropaganda oemotsagd, och därvid förföll till patetiskt yttrandefrihetsgnäll:

OH, 24 juli:

I en tweet den 16 juli skrev du att jag "visat mycket aggressiva tendenser". Jag svarade dig, men du reagerade inte, så nu skriver jag igen.

Jag finner det ytterst obehagligt att en ledamot av Sveriges högsta folkvalda församling gör den sortens ogrundade utfall mot en universitetsprofessor som kommer med ovälkomna besked. I själva verket är jag en ytterst fridsam person, och jag kan inte påminna mig att jag uppträtt aggressivt i vare sig ord eller handling sedan jag var typ 14.

På ett psykologiskt plan finner jag ditt utfall förståeligt. Jag kritiserar dig obamhärtigt för ditt spridande av desinformation i klimatfrågan och för bristande källkritik, och det är då begripligt [att du] känner en lust att ge igen. Om jag har rätt i denna förklaring behöver du dock förstå att sådan lust att ge igen inte legitimerar anklagelser gripna ur luften.

Eller är det så att jag missuppfattat våra mellanhavanden, och faktiskt uppträtt (oavsiktligt och omedvetet) på ett sätt som rimligen kan uppfattas som aggressivt? I så fall skulle jag sätta väldigt värde på om du kunde peka ut vari denna upplevda aggression består, så att jag kan bättra mig.

JE, 24 juli:

Du skrev bla en kommentar om en forskarkollega som gick långt över vad som är rimligt.2 Du vet själv vad du skrev.

I övrigt tycker jag du har en allmänt nedlåtande ton mot både mig och andra som inte delar din syn. Och du vet att det ändå finns ett inte obetydligt antal forskare som ser annorlunda på saken. Respektera att jag då känner viss skepsis till att bara följa strömmen.

Jag kan ju samtidigt säga att jag tycker det är minst lika obehagligt att en professor angriper en riksdagsledamot på det sätt du gör. Du måste respektera att vi har yttrandefrihet och åsiktsfrihet i Sverige. Jag är jurist med dubbel examen, jag har 13 år bakom mig som riksdagsledamot och tror få betraktar mig som korkad. Det du kallar ”desinformation” anser jag tvärtom vara mycket intressant för debatten. Jag anser mig mer påläst i frågan än flertalet riksdagskolleger som bara följer strömmen. Och jag har en kritisk ingång när det gäller all slags alarmism och domedagsteorier. Att sedan en del av det jag säger och skriver övertolkas medvetet av media och politiska motståndare är en annan sak. Jag är faktiskt vare sig klimatförnekare eller motståndare till vettiga åtgärder.

OH, 25 juli:

Jaha OK, så om jag nu förstår dig rätt så är ditt belägg för att jag ”visat mycket aggressiva tendenser” att jag omnämnt professorskollegan Ingemar Nordin som ”ett av det svenska universitetsväsendets allra värsta rötägg”. Om detta mitt yttrande kan mycket sägas, och om du skulle stämpla det som ”onödigt rättframt” eller ”burdust” eller ”oartigt” eller rentav ”tölpaktigt” så skulle jag inte protestera. Men ”aggressivt”? Knappast. Med vad jag bara kan tolka som en avsiktligt vilseledande formulering får du det att låta som om jag hotat någon med stryk eller så. Jag finner det uppriktigt sagt hårresande att en riksdagsledamot tillåter sig den sortens ogrundade angrepp på en varmt samhällsengagerad medborgare.

Ditt ordval ter sig omöjligt att försvara. Skulle det automatiskt vara ”aggressivt” att omnämna någon med ett så starkt negativt värdeladdat ord som ”rötägg”? Det vore orimligt, ty både ”terrorist” och ”diktator” bär på starkare negativ värdeladdning än ”rötägg”, och om vi dömde ut yttrandet ”Nordin är ett rötägg” (vilket han ju faktiskt är) som aggressivitet så skulle vi på samma sätt behöva döma ut yttranden som t.ex. ”Rakhmat Akilov är terrorist” (viket han ju är) eller ”Kim Jong-un är diktator” (vilket han ju är). Och du skulle väl knappast komma på tanken att anklaga en forskare eller politikerkollega som fäller något av de båda senare yttrandena för att ”visa mycket aggressiva tendenser”?

Ovanstående om kärnpunkten i vår diskussion, men du lyckas säga en hel del annat i ditt svar. På en punkt i din lista över negativa karaktäriseringar av mig kan jag faktiskt ge dig rätt: det här med att jag emellanåt uppvisar en nedlåtande ton. Jag har ägnat ofantlig tid de senaste 10-15 åren åt att förklara felen i olika slags pseudovetenskap och vanföreställningar om forskningsläget på olika områden. Ganska ofta möts jag då av bjäbb och ett totalt ointresse för att ta till sig ny kunskap, och då händer det att jag tappar tålamodet, varvid en nedlåtande ton lätt smyger sig in i mina yttranden. Denna karaktärsbrist erkänner jag utan omsvep.

I övrigt är det inte mycket bevänt med ditt svar. Jag finner det särskilt beklämmande att du återfaller i den martyrroll som jag tidigare noterat (se första stycket i den bloggpost http://haggstrom.blogspot.com/2019/07/ubbhultska-dumheter.html som jag för ett par veckor [sedan] tillägnade dig) att du är förtjust i. När du blir emotsagd tolkar du det som ett angrepp på din lagstadgade åsikts- och yttrandefrihet, vilket ju ärligt talat är löjligt. Yttrandefriheten ger dig ingen rätt att stå oemotsagd. Jag är, som jag skrev i nämnda bloggpost,
    en varm vän av yttrandefriheten, som omfattar både Ericsons rätt att yttra dumheter och min rätt att påpeka att dessa är just dumheter.
Vidare ditt självförhärligande tal om hur ”påläst” du är i klimatfrågan. Rent kvantitativt är du kanske det, men genom det skeva urval du verkar tillämpa i vad du skall läsa – du föredrar uppenbarligen klimatförnekarbloggar och andra obskyra källor med minimal grad av trovärdighet framför seriösa forskarrapporter – så står det kvalitativt sämre till med din ”pålästhet”, och du har på detta vis kommit att få en vrångbild av det klimatvetenskapliga kunskapsläget. Där du tycker dig se två likvärdiga sidor kan en person som jag (som till skillnad från dig har arbetat med klimatvetenskap och behärskar såväl dess fysikaliska elementa som allmänna kunskaper både om naturvetenskapens metoder och om källkritik) konstatera att på det hela taget så är bara den ena sidan är uppbackad av solida vetenskapliga argument, medan den andra genomsyras av struntprat. Du får ursäkta, men när en riksdagsman drabbats av en sådan vrångbild i en vetenskaplig fråga där jag har sakkunskap så ser jag det som min medborgerliga plikt att försöka förklara hur det faktiskt ligger till med det vetenskapliga kunskapsläget – tvärtemot den etikettsregel du verkar förespråka, om att jag av något slags respekt för yttrandefriheten bör avhålla mig från sådana tillrättalägganden.3

Fotnoter

1) För den händelse någon läsare känner sig osäker på exakt vad detta ord betyder rekommenderar jag min bloggpost Om ordet klimatförnekare från 2014.

2) Första gången jag läste Ericsons meddelande gladde jag mig åt att han med sina ord om "gick långt över vad som är rimligt" tycktes ge mig i någon mån rätt angående Ingemar Nordins rötäggsbeteende. Sedan insåg jag emellertid att det rörde sig om ett enkelt syftningsfel och att det var min rättframma karaktärisering av Nordin han egentligen avsåg.

3) Här blev det tyst, vilket är synd, ty det hade kunnat vara intressant att höra hur Ericson ställer sig till mina synpunkter på hans uttalade önskan att som folkvald riksdagsledamot få ha sina missuppfattningar ifred från kritik från forskare och medborgare.

fredag 19 juli 2019

Finns information? Ett meningsutbyte med Ulf Danielsson

För några veckor sedan hade jag ett meningsutbyte med fysikern Ulf Danielsson1 på Patrik Lindenfors Facebooksida om begreppet information och huruvida information verkligen existerar. Jag fann det tillräckligt intressant för att förtjäna publicering har på bloggen, och med Ulfs tillåtelse gör jag det här nedan.

Det hela började med att Patrik läste en intervju med Ulf, rubricerad Tro inte på spöken, i senaste Axess, och blev provocerad, något han uttryckte i sin Facebookpost. Jag hade själv blivit provocerad2 på ungefär samma sätt när jag läste samma intervju någon vecka tidigare. Hur som helst, Ulf svarade Patrik, jag hakade på, och resultatet blev som följer.

* * *

UD: Det som är märkligt är att det jag hävdar inte ses som en självklarhet för den med en naturvetenskaplig grundsyn. Att säga ”information är en egenskap hos materien” är snömos. Låt mig ta ett exempel. En vägskylt med talet 70. Skylten informerar oss om att här får man inte köra fortare än 70 km/h (åtminstone om skylten befinner sig i Sverige). Denna information är inte alls en egenskap hos själva skylten. Det finns inte ens något ”70” hos den materia som bygger upp skylten. Om en symbolreform genomfördes där siffrorna 3 och 7 bytte betydelse skulle detta inte på något sätt förändra karaktären hos den materia som skylten består av. Isolerat innehåller skylten ingen som helst information om en hastighetsbegränsning. För att det som skylten avses förmedla skall ha någon mening krävs att ett annat materiellt system, vanligen den biologiska hjärnan hos en bilförare, gör en tolkning av skylten och förhoppningsvis justerar sitt beteende. Den aktuella informationen existerar inte oberoende av denna växelverkan utan enbart i relation till en uttolkare.

Mitt enkla budskap är att allt är materia och att alla de modeller vi gör av världen, inklusive de begrepp vi använder oss av, inte existerar på annat sätt än i sin materiella form. Vi är begränsade biologiska varelser, fångna i och delar av samma fysiska värld som den vi vill beskriva. Det finns en objektiv fysisk värld (detta är förövrigt det enda som finns) som vi med viss framgång lyckas beskriva med hjälp av vetenskapliga modeller som gör bruk av begrepp som matematik, information och naturlagar. Dessa begrepp utgör en karta som sitter rent fysiskt i våra huvuden och liksom alla kartor inte är identisk med den objektiva verklighet den försöker spegla.

I det dagliga livet behöver man inte vara så noga med åtskillnaden. Man kan många gånger handskas med begreppen som om de var identiska med verkligheten. Det är just det som är så fiffigt med riktigt bra modeller. Men när man vill gå lite djupare är det helt centralt att upprätthålla distinktionen. Begreppet information har i vissa kretsar getts en betydelse som går långt utöver den väldefinierade roll den spelar i vetenskapligt modellbygge (inklusive inom den esoteriska fysik som jag sysslar med rörande kvantgravitation och svarta hål.) Den ges i populärkulturella sammanhang en obeorende existens som inbjuder till spekulationer som gränsar till det rent religiösa när man inbillar sig att mänskliga medvetanden kan reduceras till ettor och nollor och via något som liknar själavandring laddas upp på datorer. Det är detta larv jag vänder mig emot.

OH: Om medvetandet kan man ha olika uppfattning, Ulf, vilket du och jag har (se gärna Avsnitt 3 i http://www.math.chalmers.se/~olleh/UploadingPaper.pdf), vilket i sin tur är helt i sin ordning. Men din tvärsäkerhet förvånar mig en smula, och om jag hade varit en upload hade jag blivit förnärmad och förgrymmad över den flagranta kol-chauvinism du ger uttryck för!

Att döma av ditt exempel med 70-skylten verkar du ha en Searliansk syn på informationsinnehåll och medvetande - en syn jag personligen har svårt att acceptera. Låt mig utmana med att i ditt exempel byta ut 70-skylten mot plåten ombord på Pioneer 10 och 11 - eller för den delen en sekvens av N1*N2 ettor och nollor, där N1 och N2 är hyfsat stora primtal med ungefär samma kvot N1/N2 som höjd/längd hos plåten, och där ettorna och nollorna svarar mot svarta och vita pixlar i en digital bild av plåten. Anser du att även denna plåt, och dess digitala motsvarighet, saknar informationsinnehåll? Jag gissar (men rätta mig gärna om jag har fel!) att du i konsekvensens namn svarar nej på det, och därmed hamnar i en ståndpunkt jag finner orimlig.

UD: Om du inte har någon slug baktanke tillför dina exempel ingenting nytt. Min inställning är konsekvent densamma. Att symboler och ord i sig själva och oberoende av sitt sammanhang skulle kunna bära på en absolut mening jämställer jag med magi vilket är för mig fullständigt främmande. Det vore intressant om du gav din tolkning av exemplet med 70-skylten. Jag är särskilt intresserad av på vilket sätt en symbolreform (där betydelsen av symbolerna 3 och 7 byts ut) registreras av den materia som bygger upp skylten.

OH: En enda bit ger ingen information utan kontext. Knappast 10 bitar heller, men någonstans kring uppskattningsvis 100 eller 1000 bitar börjar det bli möjligt att förmedla något utan att mottagaren behöver känna till kontexten.

70-skylten är helt enkelt för torftig för att förmedla information till den som inte har relevant kodbok. Pioneer-plåten är det inte. Den bär på information som varje tillräckligt avancerad civilisation i vårt universum åtminstone till del kommer att (trots avsaknad av med oss gemensamt kulturell historia) kunna avkoda och på så vis begripa vår avsikt.

Måhända går det här att invända att det bara är genom den kontext som vårt universum och dess fysik ger som Pioneer-plåten blir begriplig, och att plåten därmed i sig inte bär på någon information. Den tankegången, om än en smula sökt, kan jag ändå ha en viss förståelse för, och jag blir i så fall tvungen att korrigera mitt exempel ett snäpp till:

Låt oss sända meddelandet

    1101110111110111111101111111111101111111111111011111111111111111011111111111111111110111111111111111111111110...
Om vi utsträcker det till säg 1000 bitar så vågar jag lova att varje tillräckligt avancerad civilisation (i vårt universum med vår fysik, eller i något helt annat) som läser meddelandet kommer att tänka "aha, primtalssekvensen!". Denna information ligger i själva meddelandet och kräver ingen kontext överhuvudtaget. Eller om vi skickar en tillräckligt stor 3D-realisering (två rumsdimensioner och en tidsdimension) av Game of Life, så kommer reaktionen att bli "Oh wow, vilken cool cellulär automat, kolla de har upptäckt hur man riggar en fabrik som tillverkar gliders!". Denna information ligger i meddelandet och kräver ingen kontext överhuvudtaget. Och från Game of Life-exemplet är det lätt att gå vidare och inse att vi med tillräcklig ansträngning kan berätta i stort sett vad vi vill om livet här på jorden utan att mottagaren behöver ha någon med oss gemensam kodbok eller kontext överhuvudtaget.

Allt detta kan man förstås förneka om man ditchar den matematiska platonismen och hävdar att matematiken blott är en kulturell konstruktion, men då har man verkligen irrat bort sig. Primtalssekvensen finns, oavsett oss människor, eller något fysiskt överhuvudtaget.3

UD: Jag tror vi gjort framsteg. Du tillstår att
    det bara är genom den kontext som vårt universum och dess fysik ger som Pioneer-plåten blir begriplig, och att plåten därmed i sig inte bär på någon information.
Du ser det visserligen som lite sökt men ändå som varande en möjlig ståndpunkt. I mer lättviktiga sammanhang behöver man inte vara så petig men när det gäller det vi nu avhandlar är det centralt. Utan ett yttre kontext bär alltså inte ens Pioneerplåten på någon information.

Vi skulle kunna lämna allt vid denna bräckliga enlighet och ta sommarlov, men jag kan inte låta bli att dra det ett varv till. Precis som du indikerat kopplar detta över till Searle och gör enligt min mening teorin om medvetande baserat på beräkningar ohållbar. En räknande dator är inte mer medveten än en 70-skylt. Oavsett om någon tittar på den eller ej.

Jag gissar att din utväg blir en platonsk syn på matematiken – vilket jag förstår är vad du förespråkar. För egen del finner jag en utanför materien existerande idévärld full med matematik lika orimlig som en religiöst motiverad andevärld. Lyckligtvis finns andra alternativ till platonismen än kulturell konstruktion. Som motståndare till allt vad dualism heter ser jag det som betydligt rimligare att matematiken till en del är biologiskt konstruerad och djupt rotad i våra evolverade hjärnor baserad på en rent fysisk erfarenhet av världen. För mig är fysiken och materien mer fundamental än matematiken. Om detta är vi nog knappast överens.

OH: Tack Ulf för i någon mån klargörande svar! Om vi här har närmat oss roten till våra divergerande ståndpunkter är det helt klart ett framsteg. Att fysiken skulle utgöra ett fundament för matematiken är mig mycket riktigt främmande, men är kanske inte så lätt att motbevisa (bortom i intuitiva upplevelser grundade utrop typ "hur i hela fridens namn skulle ett stycke materia kunna ha betydelse för huruvida antalet primtal är oändligt?"). Vi kanske får anledning att återkomma i ämnet?

Tills dess, tillåter du att jag återpublicerar vårt replikskifte på min blogg?

UD: Så många gånger du vill!

Fotnoter

1) Jag har känt Ulf sedan 2006 (tror jag det är), jag tycker bra om honom, och vi har oftast (om än inte alltid, vilket väl framgår av denna bloggpost) utmärkt harmonierande uppfattningar om livet, universum och allting.

Bland mina möten med Ulf är det jag kanske allra helst drar mig till minnes vårt gemensamma uttåg från klimatmötet i Engelsberg den 6 maj 2010. Själva mötet var ganska gräsligt, och (i efterhand) uppenbart riggat för att framställa klimatvetenskap och klimatförnekeri som två lika legitima utgångspunkter. Ulf och jag var där för att, jämte Johan Rockström, försvara vetenskapen och det vetenskapliga förhållningssättet mot attacker från klimatförnekare som Peter Stilbs och Maggie Thauersköld Crusell. Innan det avslutande eftermiddagspasset var över reste Ulf och jag oss för att lämna lokalen. Detta bottnade inte i något slags protest mot hur mötet utvecklats (även om en sådan protest helt klart hade varit befogad), utan helt enkelt i att vi behövde gå för att hinna med ett tåg. Medan vi var på väg ut ur lokalen hojtade den ökände klimatförnekaren och pseudovetenskapsivraren Nils-Axel Mörner att "nu lämnar råttorna det sjunkande skeppet!", varpå mötets moderator Lotta Gröning svarade att "så skall man väl inte säga om denna vackra byggnad". Att på detta sätt bli förolämpad av en fullblodsstolle som Mörner har jag inget emot, men jag hade mycket väl kunnat känna mig illa till mods av Grönings implicita instämmande i Mörners zoologiska kategorisering, om det inte vore för (och detta är poängen med att jag återger detta minne) att förolämpningen riktades inte bara mot mig utan även mot Ulf, vars insatser som fysiker och intellektuell är tillräckligt beundransvärda för att min känsla av att ha blivit förolämpad klart skulle övereskuggas av den smickrande upplevelsen av att ha buntats ihop med en riktigt framstående professorskollega.

2) Rubrikens "spöken" syftar på datorer med medvetande. Ofta med en så braskande rubrik kan man misstänka att någon redigerare gått över styr, men i detta fall är den grundad i Ulfs intervjusvar, som innehåller en passage med ordalydelsen
    att det skulle kunna finnas något slags medvetande, någon subjektiv närvaro inuti datorn, det är lika dumt som att tro på spöken.
Frågan om medvetandets natur hör till de största olösta problem som överhuvudtaget finns, och att uttrycka sig så kategoriskt som Ulf gör här tycker jag uppriktigt talat tyder på en illa kalibrerad grad av epistemisk ödmjukhet.

En ledtråd till hur Ulf tänker i denna fråga finns i ingressens "Det finns inga som helst belägg för att datorer skulle ha ett medvetande". Det kan man förstås hävda, men man kan med samma kraft hävda att det heller inte finns några belägg för att datorer inte skulle (kunna) ha ett medvetande, och Ulf lägger inte fram något argument som förmår bryta denna symmetri. Exakt vad som får honom att likväl vara så tvärsäker vet jag inte, men jag misstänker att han begår samma förhastade jump to conclusions som jag tillskriver Massimo Pigliucci i min uppsats Aspects of mind uploading:
    Pigliucci knows of exactly one conscious entity, namely himself, and he has some reasons to conjecture that most other humans are conscious as well, and furthermore that in all these cases the consciousness resides in the brain (at least to a large extent). Hence, since brains are neurobiological objects, consciousness must be a (neuro-)biological phenomenon. This is how I read Pigliucci’s argument. The problem with it is that brains have more in common than being neurobiological objects. For instance, they are also material objects, and they are computing devices. So rather than saying something like “brains are neurobiological objects, so a decent theory of consciousness is neurobiological”, Pigliucci could equally well say “brains are material objects, hence panpsychism”, or he could say “brains are computing devices, hence CTOM [computational theory of mind]”, or he might even admit the uncertain nature of his attributions of consciousness to others and say “the only case of consciousness I know of is my own, hence solipsism”. So what is the right level of generality? Any serious discussion of the pros and cons of CTOM ought to start with the admission that this is an open question. By simply postulating from the outset what the right answer is to this question, Pigliucci short-circuits the discussion, and we see that his argument is not so much an argument as a naked claim.

3) Progressionen i denna replik, från primtalssekvensen via Game of Life till vår fysiska värld, är ett pedagogiskt grepp jag lånat av vännen och matematikerkollegan Johan Wästlund.

Edit 22 juli 2019: Samma meningsutbyte finns nu, i annan (men ändå ganska lik) inramning på Ulfs blogg.

torsdag 11 juli 2019

Ubbhultska dumheter

Den moderate riksdagsmannen Jan "Ubbhult" Ericson är inne på sin fjärde mandatperiod, och har i åtminstone ett decennium lagt betydande kraft på klimatdebatt med inriktning på det slags klimatförnekeri som jag, bland annat i Uppsalainitiativet, lagt stor möda på att bemöta.1 Ericson verkar eftersträva ett slags martyrställning - den som besöker hans Twittersida finner överst en så kallad pinned tweet daterad den 16 april i år, med följande ordalydelse:
    Efter de hätska påhoppen mot mig i klimatfrågan drar jag slutsatsen att hade vi levt på medeltiden hade jag nog redan varit bränd på bål. Trots de extra koldioxidutsläpp detta hade medfört. :)
Jag överser här med hans oförmåga att hålla isär biobränsle och fossila bränslen, men hoppas innerligt att det inte är mig han anser ligga bakom några "hätska påhopp". Det är förvisso sant att jag i år (med start den 9 mars2) varit relativt energisk med att på Twitter bemöta Ericsons klimatförnekerier, men några "hätska påhopp" har det knappast handlat om,3 och jag hyser ingen som helst önskan om att se honom bränd på bål eller utsatt för någon annan bestraffning. Jag är en varm vän av yttrandefriheten, som omfattar både Ericsons rätt att yttra dumheter och min rätt att påpeka att dessa är just dumheter.

Trots att jag någorlunda hunnit vänja mig vid den veritabla störtflod av trams och desinformation Ericson häver ur sig i klimatfrågan, så blev jag lite besviken när, i en intervju med Ericson i Aftonbladet i förra veckan, denna störtflod fortsatte. Min besvikelse kom sig av att jag bara någon vecka tidigare lyckats (trots visst spontant motstånd från hans sida) övertyga Ericson om att läsa en gammal introduktion till istider och paleoklimatologi jag skrivit, och att denne efter att ha läst anlade en försonlig ton och betonade att vi nog ändå var överens om det viktigaste. Kanske hade han sent omsider börjat ta klimatvetenskapen på allvar? Så tänkte jag, men i Aftonbladet-intervjun var allt sådant sans som bortblåst, och vi får istället ta del av hur Ericson på typiskt klimatförnekarvis skjuter från höften åt alla möjliga håll, och levererar i okunskap grundade ifrågasättanden av såväl i vad mån en global uppvärmning faktiskt pågår som vad den är orsakad av, och därtill antydningar om att det nog trots allt bara är bra med lite uppvärmning. Jag ids inte här ta mig an alla dumheter (mestadels gamla klassiska klimatförnekarargument som vederlagts till leda) som Ericson bjuder på i intervjun, utan nöjer mig med följande intervjusvar:
    Det är väl känt att jordens klimat ändrats ofta och dramatiskt genom historien. Trots detta sätts i dag en bild av att alla klimatförändringar i dag enbart beror på människan. Att alla tidigare naturliga faktorer som påverkar klimatet plötsligt skulle ha försvunnit tycker jag är den allvarligaste formen av klimatförnekelse.
Detta är en mycket primitiv halmgubbe. Rent hittepå faktiskt. Varken IPCC eller någon annan rimlig företrädare för klimatvetenskapen hävdar att "alla tidigare naturliga faktorer som påverkar klimatet plötsligt skulle ha försvunnit". Det vet egentligen Ericson, exempelvis sedan han sett det IPCC-diagram över klimatdivande faktorer under 1900-talet som jag visade honom i våra Twitter-diskussioner i våras. Ericson upprepar ofta och gärna att han eftersträvar "god ton" i debatten, men jag tycker rakt inte att det gynnar vare sig ton eller något annat att komma dragandes med så fåniga karikatyrer av meningsmotståndares ståndpunkter. Möjligen kan hans yttrande bottna i något slags föreställning om att så snart man medgivit att såväl naturliga som mänskliga klimatdrivande faktorer föreligger i dagens klimatsystem så är man automatiskt clueless rörande vilka av dessa som dominerar den nu pågående uppvärmningen. Det är i så fall ett allvarligt missförstånd, och det finns en omfattande forskning med syfte att avgöra hur mycket var och en av dem bidrar med; ett sätt att börja orientera sig i denna i klimatvetenskapen så centrala fråga kan (för den som inte orkar med vare sig IPCC-rapporter eller David Archers ypperligt pedagogiska bok Global Warming: Understanding the Forecast) vara att läsa mina gamla bloggposter Om istider, klimatförändringar och återkopplingar och Koldioxid och procentsiffror.

Låt mig som avslutning berätta om de senaste dagarnas Twitter-växling Ericson och mig emellan, som inte egentligen behandlar klimatvetenskap utan mer klimatetik och klimatideologi. Det började med att Ericson tagit del av en nyhet om hur svenskars bokningar av sista minuten-resor de senaste veckorna ökat till följd av dåligt väder här hemma. Som den varma vän av ohämmade växthusgasutsläpp han är valde han att kommentera detta med ett hånfullt "Kom flygskammen av sig?". Detta gjorde mig tillräckligt irriterad när jag fick se det för att få mig att retweeta med den förklarande kommentaren "Skadeglädjen vissa - inklusive en och annan riksdagsledamot - känner när utvecklingen mot vidgade varma cirklar (inklusion av folk i fjärran länder och framtida generationer) i vårt moraliska tänkande för ett ögonblick verkar ha kommit av sig". Det meningsutbyte som därpå inträffade ser ut som följer: Detta är betydelsemässigt liktydigt med att säga "Jag ger blanka fan i dina synpunkter", vilket ju inte är särskilt trevligt, men kanske menar Ericson att omskrivningen i termer av kylda maltdrycker gör att hans ideal om "god ton" likväl är uppfyllt. Jag är tveksam till den bedömningen, men valde att vända andra kinden till:
    OH: Sagt och gjort. Det gav mycket riktigt viss lindring. Skulle till och med kunna tänka mig att ta en öl (och/eller gå och se Di Gule) med dig vid tillfälle, och försöka förstå vad som driver dig att sprida antivetenskap i klimatfrågan.
Denna inbjudan till samkväm och allsvensk fotboll möttes dock med inemot ett dygns tystnad, varför jag valde att upprepa och förklara:
    OH: Jag menar allvar, @Ericson_ubbhult - skall vi inte göra slag i saken? Jag tror både på vikten av att möta människor utanför den egna bubblan, och på värdet av att ses IRL utan att behöva tänka på ev publik.
Nu vaknade Ericson till liv, dock dessvärre med ett negativt besked:
    JE: Tyvärr känns du lite för respektlös. Du vet att ett inte obetydligt antal forskare delar min mer skeptiska hållning. Att då kalla den antivetenskap är ovetenskapligt. Du borde veta att vetenskap handlar just om att bryta åsikter mot varandra.
Detta gjorde mig faktiskt en gnutta arg - inte över den avböjda inviten, men över tillmälet "respektlös" - tillräckligt arg för att jag skulle brista ut i följande måhända inte alltför eleganta svada:
    OH: Som du vill, @Ericson_ubbhult. Men låt mig kommentera det där med respekt vs respektlöshet. Jag har den allra största respekt för vetenskapen som idé och metod. Sedan barnsben har jag sett vetenskapens fria sanningssökande som bland de högsta värden som finns. Men...

    OH: ...fritt sanningssökande är inte detsamma som att varje argument duger. En del argument är helt enkelt strunt. Jag har genom lång utbildning tillägnat mig viss kompetens i att se skillnaden. Och jag kan inte respektera struntargument som kläs i vetenskaplig förklädnad, eller...

    OH: ...de (vanligtvis emeriterade) professorskollegor som drar vetenskapen i smutsen genom att torgföra desinformation och charlataneri. Hit hör dessvärre några av dina favoriter, folk som Ingemar Nordin och Lennart Bengtsson. Om jag valde att stå och bocka och artigt säga att...

    OH: ...deras argument väger lika tungt som andra forskares, det skulle innebära att jag uppträdde respektlöst mot de vetenskapsideal jag håller så högt. Ja det skulle faktiskt innebära att jag trampade på vetenskapen. Det vägrar jag göra. Av respekt för vetenskapen.

Att Ericson tar sådant intryck av detta att han börjar ta vetenskapen på allvar och ger upp sitt klimatförnekeri är nog för mycket att hoppas på. Men om han läser detta skulle jag vilja be honom följande:

Kan du inte åtminstone försöka undvika de allra mest uttjatade och grundligt vederlagda klimatförnekarargumenten? Det blir så gräsligt långrandigt annars. Min Uppsalainitiativet-kamrat Lars Karlsson har en aktuell bloggpost-trilogi rubricerad Samma gamla visa (första versen, andra versen, tredje versen), och om du tar del av den och avstår från att upprepa de klimatförnekarargument som där vederläggs, så kanske åtmistone lite av monotonin och tjatigheten i ditt klimatförnekeri kan undvikas.

Fotnoter

1) Min första kontakt med honom var då vi båda deltog i ett beklämmande dåligt klimatseminarium i Riksdagshuset den 13 maj 2009. Seminariet var uppenbart riggat för att försöka skapa tvivel kring existensesn av ett klimathot. Ericson var där som medarrangör, medan jag fick nöja mig med rollen som kritisk röst i publiken.

2) Detta föranleddes av att Ericson med stöd i de divergerande ståndpunkter mellan mig och klimatforskaren Lennart Bengtsson som framkommit i en Expressen-artikel några dagar tidigare konstaterat att stor oenighet om klimatfrågan förekommer bland forskare, något han (med det slags logisk kullerbytta som är något av ett Ericsonskt signum) verkar ta som intäkt för att det går an att påstå lite vad som helst om klimatet.

3) Ericson blev arg över en tweet jag skrev när vi kommit in på behovet av källkritisk kompetens, men han missförstod min avsikt: jag menade den inte som ett påhopp utan som en välmenande litteraturhänvisning.

måndag 24 juni 2019

Nu höjer jag ett bekymrat pekfinger mot två professorskollegor på ekonomsidan

I en debattartikel rubricerad Dags att skrota flygskammen i Dagens Industri häromdagen meddelar ekonomprofessorerna Per-Olov Johansson och Bengt Kriström att "ur klimatsynpunkt är en flygresa mellan Umeå och Stockholm inget problem". Jag kan bara konstatera att för att påstå något sådant behöver man virra bort sig så totalt i sofistikerade marginaleffektsresonemang, i kombination med en statisk samhällssyn, att man inte längre kan se det enkla faktum att ett utsläpp är ett utsläpp är ett utsläpp.

Ack ändå om författarna hade landat (no pun intended) i något i stil med att...
    vi finner det överraskande och en smula perverterat att den som önskar hålla nere CO2-utsläppen med rådande system inte verkar ha anledning att undvika inrikesflygandet, varför andra sätt att minska detta flygande (med vidhängande utsläpp som ju trots allt finns där) snarast bör utformas.
Men något sådant säger de dessvärre inte, utan de stannar vid budskapet att vi glatt kan flyga vidare utan att bekymra oss. Den sortens lättsinne bekymrar mig. Överhuvudtaget skulle jag vilja råda mina professorskollegor på ekonomsidan att vara lite mer vaksamma mot marginaleffektsresonemang1 av typen...
    oj, en rullatorburen gammal pensionär har irrat sig in i de ruffiga hamnkvarteren, då är det oproblematiskt om jag rånar honom, för annars kommer garanterat någon annan att göra det.

Fotnot

1) Härmed inte sagt att jag kategoriskt skulle vara emot marginaleffektsresonemang, vilka ju bland annat har kommit att bli ett centralt analysverktyg i den effektiv altruism-rörelse jag har ett gott öga till. Jag vill absolut inte fördöma resonemang av typen "om jag drar i spaken så att spårvagnen växlas in på ett sidospår blir nettoeffekten fyra sparade människoliv", men vill varna för att i praktiska situationer (där det som regel går att lyfta sig ur den snävaste problemformuleringen och överväga en korrigering av förutsättningarna) betrakta resonemanget som oproblematiskt och upphöja det till sista ordet.

söndag 16 juni 2019

Överraskad av bilradion

Vid 17.30-tiden igår hände något lite märkligt. Min fru och jag hade just tagit plats i vår hyrbil, och när jag vred om tändningsnyckeln gick radion automatiskt igång, som vanligt med något pratprogram eftersom vi nästan alltid har den inställd på P1. Så långt inget konstigt, men efter några sekunder såg jag mig föranledd att ställa en fråga:
    Hörde du vad det allra första ord som kom ur radion var, visst lät det som Häggström, är inte det lustigt?
Efter ytterligare några sekunder hördes samma ord igen, denna gång omedelbart föregått av Olle, och strax framkom att ämnet för diskussionen verkade vara artificiell intelligens. Senare kunde konstateras att det var en repris av torsdagens avsnitt av Människor och tro, och att programmet innehöll långa stycken ur en intervju med mig gjord i samband med ett framträdande på Vetenskapsfestivalen den 7 april i år.

Avsnittet bär rubriken Artificiell intelligens och religion och bjuder också på samtal med bland andra ett par kollegor på mina båda nuvarande arbetsplatser - Karim Jebari på Institutet för Framtidsstudier och Ann-Sofie Axelsson på Chalmers. De delar där jag är med börjar cirka 24:50 in i ljudfilen.

torsdag 16 maj 2019

Två Göteborgsframträdanden den närmaste veckan

Tillåt mig flagga för ett par framträdanden jag gör i hemstaden Göteborg den närmaste veckan, med fokus på olika aspekter av den snabbt framväxande digitala tekniken:

tisdag 9 april 2019

The European Commission's Ethics Guidelines for Trustworthy AI

In January I commented on a draft version of the Ethics Guidelines for Trustworthy AI prepared by the European Commission's High Level Expert Group (HLEG) on AI. The final version of the Guidelines was officially released yesterday.

I strongly recommend the candid and sincere reflections on the Guidelines by HLEG member Thomas Metzinger in an op-ed in Der Tagesspiegel. Thomas and I collaborated a bit on preparing some writings in the Guidelines (albeit unsuccessfully as regards what actually ended up in the final version) towards the end of HLEG's work on them. I share his disappointment about how the Guidelines turned out, and I agree with his remarks about "ethical white-washing" and how "industry organizes and cultivates ethical debates to buy time – to distract the public and to prevent or at least delay effective regulation and policy-making", as well as with his balanced statements that the Guidelines are "a compromise of which I am not proud, but which is nevertheless the best in the world on the subject. The United States and China have nothing comparable" and that
    their legal anchoring in European fundamental values is excellent, and the first selection of abstract ethical principles is at least acceptable. Only the genuine normative substance at the level of long-term risks, concrete applications, and case studies has been destroyed.
In the final paragraphs of the op-ed Thomas emphasizes the urgency of the situation:
    The first step is good. But it is high time that universities and civil society recapture the process and take the self-organized discussion out of the hands of industry.

    Everyone is feeling it: We are in a rapid historical transition that is taking place at many levels simultaneously. The window of opportunity within which we can at least partially control the future of AI and effectively defend the philosophical and ethical foundations of European culture will close in a few years' time. We must act now.

torsdag 4 april 2019

Några videor i vilka jag pratar AI

Sedan en kort tid tillbaka är jag ordförande i den AI-etikkommitté som Chalmers Artificial Intelligence Research Centre (CHAIR) inrättat. Här en kort videosnutt där jag säger några ord om vad det hela går ut på:

När jag ändå håller på och visar videor med mig själv i huvudrollen kan jag passa på att bjuda på en lika kort intervjusnutt inspelad i samband med det heldagsmöte rubricerat Ansvarsfull teknisk utveckling – AI, robotik och etik som Vetenskapsrådet (VR) anordnade i Stockholm den 8 mars i år:

Här mitt föredrag från samma möte:

Och här den paneldiskussion som avslutade VR:s möte och som jag också medverkade i:

måndag 25 mars 2019

Min medverkan i 2019 års Vetenskapsfestival: tre paneldiskussioner och ett föredrag

Nästa vecka är det dags för 2019 års upplaga av Vetenskapsfestivalen i Göteborg, och jag kommer i vanlig ordning att medverka i ett antal programpunkter:

  • I anslutning till ett föredrag av Michael Burdett, söndagen den 7 april klockan 13:00, med rubriken God, technology and artificial intelligence deltar jag i ett panelsamtal, där förutom Burdett även Ann-Sofie Axelsson, Martin Westerholm och Pontus Nilsen är med. Det hela äger rum i Kjell Härnqvistsalen, i Hus A, Pedagogen, vid Grönsakstorget.

torsdag 14 mars 2019

Hårt angripen i Humanisten

Igår fick jag hem det nya numret 1/2019 av Humanisternas medlemstidning Humanisten i brevlådan. Bland mycket annat bjuder det på ett rasande angrepp på mig av en medlem vid namn Ernst Herslow, som är så upprörd över vad jag i det föregående numret 4/2018 skriver om klimatfrågan och hur jag tycker att Humanisterna bör förhålla sig, att han villkorar sitt fortsatta medlemskap med att styrelsen tar avstånd från mina ståndpunkter. Med anledning av det utmärkta svaret till Herslow från styrelseledamoten Patrik Lindenfors förmodar jag att han (Herslow) nu lämnar Humanisterna.

Jag har ingen anledning att tro att Ernst Herslow läser denna blogg, men om någon läsare råkar känna honom undrar jag om ni kan hälsa honom följande.

Herslow är givetvis i sin fulla rätt att ha vilka (miss-)uppfattningar i klimatfrågan han vill, att torgföra dessa, och att gå till storms mot mig. Men jag skulle önska att, om han nu känner ett så trängande behov av att göra det sistnämnda, han höll sig till att angripa ståndpunkter jag faktiskt har och yttranden jag faktiskt gjort, istället för att fabulera och fantisera. Det irriterar mig en smula när han tillskriver mig ordvalet "avfälling"1 och den gravt felaktiga uppfattningen att "ett så komplext och kaotiskt system [som klimatet], med så många okända faktorer, styrs av en enda komponent, nämligen koldioxid"2.

Fotnoter

1) Såpass språkkänsla har jag att jag uppfattar det ordets sektmentalitetskonnotationer, och jag kan inte minnas att jag någonsin skulle ha tagit det i min mun.

2) Atmosfärens koldioxidhalt har stor betydelse för klimatet, men är givetvis inte den enda faktor som påverkar. Se t.ex. min gamla Uppsalainitiativet-bloggpost Koldioxid och procentsiffror för en närmare diskussion.

onsdag 13 mars 2019

Köpenhamnsapokalypsen

Torsdagen den 25 april uppträder jag på ITU (IT-universitetet i Köpenhamn) tillsammans med datalogen Thore Husfeldt med en debatt rubricerad "AI: Are we heading for the apocalypse?" (eller på ett annat språk "Kunstig intelligens: På vej mod apokalypsen?"). Kom och ta del av (och i) vår diskussion, om inte annat så för att äntligen få veta vad Thore och jag egentligen menade när vi i en gemensam debattartikel i Sydsvenska Dagbladet den 19 november förra året framhöll att "vi två som skriver denna text är djupt oeniga".

Skälet till att jag meddelar detta redan nu är att förhandsanmälan är obligatorisk och att mer än hälften av platserna till föreställningen redan gått åt. Så skynda fynda!

måndag 11 mars 2019

Our special issue on existential risk to humanity is now published

Regular visitors to this blog may recall the GoCAS guest resarcher program on existential risk to humanity that Anders Sandberg and I co-organized at Chalmers and the University of Gothenburg in September-October 2017; see, e.g., this blog post, and this one, and the one with links to talks from the two-day public workshop on September 7-8. The program featured daily discussion seminars that tended to be very creative and fruitful, and to go on for hours. After a long editorial process, a special issue of the journal Foresight has now been published, where ten papers outlining work discussed at these seminars are collected under the joint heading Existential risk to humanity. While the set of topics considered in this collection of papers is far from exhausting the set of topics discussed at our seminars, it nevertheless does offer a reasonably representative sample. From the guest editorial by Catherine Rhodes and myself:
    Existential risks are those that threaten the extinction of humanity or, somewhat more broadly, those “where an adverse outcome would either annihilate Earth-originating intelligent life or permanently and drastically curtail its potential” (Bostrom, 2002). While it has long been widely recognized that global nuclear war and catastrophic climate change have potentially civilization-threatening consequences, it is only in the last decade or two that scholars have begun, in work that is typically highly interdisciplinary, to systematically investigate a broader range of existential risks. A landmark event was a conference on global catastrophic risks in Oxford in 2008, and the accompanying book edited by Bostrom and Cirkovic (2008). Subsequent research has tended to confirm the impression from that event that, in the time frame of a century or so, natural risks (such as asteroid impacts) are out shadowed by anthropogenic ones. In addition, while much work remains to be done in identifying and understanding the various risks, there is at present an increasing focus also on how to avoid or mitigate them.

    We are not yet at a stage where the study of existential risk is established as an academic discipline in its own right. Attempts to move in that direction are warranted by the importance of such research (considering the magnitude of what is at stake). One such attempt took place in Gothenburg, Sweden, during the fall of 2017: an international guest researcher program on existential risk at Chalmers University of Technology and the University of Gothenburg, featuring daily seminars and other research activities over the course of two months, with Anders Sandberg serving as scientific leader of the program and Olle Häggström as chief local organizer, and with participants from a broad range of academic disciplines. The nature of this program brought substantial benefits in community building and in building momentum for further work in the field: of which the contributions here are one reflection. The present special issue of Foresight is devoted to research carried out and/or discussed in detail at that program. All in all, the issue collects ten papers that have made it through the peer review process.

Read the full editorial here. The ten papers:

måndag 4 mars 2019

Vår framtid med AI innebär stora möjligheter och stora risker

"Vår framtid med AI innebär stora möjligheter och stora risker" är rubriken dels på min artikel i senaste numret av Fysikatuellt, dels på mitt föredrag på det heldagsseminarium betitlat "Ansvarsfull teknisk utveckling - AI, robotik och etik" som Vetenskapsrådet arrangerar i Stockholm nu på fredag den 8 mars. Seminariet är fullbokat, så ni som inte redan är anmälda dit får hålla till godo med artikeln.

måndag 25 februari 2019

Om djurförsök och etik i Göteborgs-Posten

Idag skriver jag i GP, tillsammans med Bengt Brülde, Fredrik Hedenus, Therese Hellberg, Olof Johansson Stenman, Martin Persson, Frances Sprei, Joakim Sandberg och Per-Anders Tengland, under rubriken "Hur mycket ska djur få lida för att människor ska få det lite bättre?". Här några passager ur artikeln:
    Enligt svensk lagstiftning är det tillåtet att utsätta djur för svåra lidanden om den förväntade nyttan för människan är tillräckligt stor. Vad gäller forskning på människor gör man avvägningar mellan risker och förväntad nytta, men man inhämtar alltid informerat samtycke och det finns dessutom en lågt satt gräns för maximalt acceptabel risk som man aldrig får överskrida, inte ens om den förväntade nyttan är stor.

    Är det moraliskt försvarbart att behandla djur och människor så olika? Bör det inte finnas ett största acceptabelt lidande även för djuren, oavsett den förväntade nyttan för människor? Detta är svåra och viktiga frågor, där inte ens vi som skriver under denna artikel är helt eniga. Vi är dock eniga om att dessa frågor måste ges större utrymme i samhällsdebatten.

    En fråga som nog är ännu viktigare i praktiken handlar om lagstiftningens tillämpning, där de djuretiska nämndernas bedömningar spelar en avgörande roll. [...]

    Det är [...] mycket svårt att bedöma lidandet i praktiken, för att inte tala om forskningens potentiella nytta. Frågan är om dagens nämnder klarar av att göra dessa bedömningar. En av oss [...] har fem års erfarenhet som ledamot i Göteborgs djurförsöksetiska nämnd. Under dessa år upplevde han aldrig att någon meningsfull diskussion fördes kring avvägningen mellan djurens lidande och försökets nytta.

    [...]

    De beskrivningar som finns av hur avvägningarna mellan lidande och nytta görs i praktiken [...] tyder på att de är mycket rudimentära, och att de enbart fokuserar på om någon nämnvärd nytta för människor alls föreligger eller om det går att minska djurens lidande på något uppenbart sätt. Någon seriös diskussion kring hur nämnderna bör arbeta i de viktiga fall där djurens lidande är uppenbart samtidigt som nyttan för människor är begränsad [...] förs egentligen aldrig.

tisdag 19 februari 2019

I P4 om det allra senaste på AI-fronten

I höstas besökte jag P4 Göteborgs förmiddagsprogram tre gånger inom loppet av en månad. Därefter följde några månaders radiotystnad1 för min del, men idag var jag tillbaka i studion hos Stefan Livh; vårt samtal börjar vid pass 1:44:50 in i programmet och pågår till cirka 2:10:05.

Ämnet för dagen var AI (artificiell intelligens), och mer specifikt den AI-programvara kallad GPT-2 som i torsdags offentliggjordes av det San Francisco-baserade icke-kommersiella företaget OpenAI, vilket drogs igång 2015 med pengar från bl.a. Elon Musk, och har som uttalat mål att driva AI-utvecklingen i en riktning som gynnar mänskligheten som helhet. I huvudsak är GPT-2 ett generellt textgenereringsprogram som, givet en eller ett par korta inledningsfraser från användaren, fortsätter texten på egen hand. Dess häpnadsväckande förmåga att ansluta till genre, tonfall och sakinnehåll framgår av en rad konkreta exempel.

Lite på tvärs mot hur de tidigare brukat göra har OpenAI valt att inte släppa GPT-2 fri, av oro för hur den skulle kunna komma att användas för dåliga syften: den förefaller idealisk för massproduktion av fake news, och det är lätt att föreställa sig hur dess teknik kan kombineras med något i stil med Google Duplex för att skapa allt bedrägligare imitationer av människor. Genom att ändå offentliggöra sitt framsteg säger sig OpenAI skänka samhället åtminstone ett visst mått av förvarning och handlingsutrymme innan det troligtvis oundvikliga sker - att andra AI-utvecklare lanserar liknande program med motsvarande eller bättre prestanda. För min del tror jag att det är viktigt att inte stanna vid att diskutera vad dessa programvaror förmår göra idag. Vi bör försöka blicka lite längre än så, för det är knappast troligt att teknikutvecklingen nu hux flux skulle ha kommit till vägs ände.

Mer om GPT-2 kan läsas bland annat i Wired och The Guardian, men överlag är mediarapporteringen tunnare än väntat. I Sverige är det ännu så vitt jag kunnat finna bara Ny Teknik (och nu som sagt P4 Göteborg) som uppmärksammat genombrottet.

Fontot

1) I P4 alltså. I P1:s Vetandets värld gick det ju att höra mig den 7 januari.

torsdag 7 februari 2019

Samtal i Ängelholm

Rubriken Inspirational People gjorde mig tillräckligt smickrad för att ställa upp, och oavsett om jag egentligen förtjänar att platsa eller inte så är det inte någon dum idé att försöka skänka inspiration och råg i ryggen åt ungdomar genom att visa upp intervjuer med vuxna människor som gjort något intressant av sina liv. Den 19 september förra året begav jag mig till Ängelholm för att samtala framför en videokamera med Daniel Swärd som driver detta projekt. Det 70 minuter långa samtalet blev lite vindlande och ostrukturerat, men till slut kom vi i alla fall in på vad jag trodde var det jag kommit dit för att tala om: existentiell risk.

onsdag 6 februari 2019

I Curie om etik, forskning och framtida teknikutveckling

Vetenskapsrådets nättidning Curie publicerade idag en artikel rubricerad Forskning på gott och ont. Artikeln bygger på intervjuer med mig och med Uppsalafilosofen Jessica Nihlén Fahlquist, och våra svar på de forskningsetiska spörsmålen sammanfaller till ganska stor del med vad som kom fram i den paneldiskussion på Formas i november förra året som vi båda deltog i. För egen del lutar jag mig dessutom till stor del mot den argumentation jag lade fram tidigare under 2018 i min essä Vetenskap på gott och ont - en argumentation som kretsar kring den moralregel jag formulerat och som citeras i Curie-artikeln:
    Det kan aldrig vara acceptabelt att bedriva forskning vars risk att störta mänskligheten i fördärv och utplåning inte uppvägs av dess potential att skapa mänsklig blomstring och välfärd. Ej heller går det an att inleda ett forskningsprojekt utan att noggrant och uppriktigt ha övervägt denna aspekt.

onsdag 30 januari 2019

Some notes on Pinker's response to Phil Torres

The day before yesterday I published my blog post Steven Pinker misleads systematically about existential risk, whose main purpose was to direct the reader to my friend and collaborator Phil Torres' essay Steven Pinker's fake enlightenment. Pinker has now written a response to Phil's essay, and had it published on Jerry Coyne's blog Why Evolution is True. The response is feeble. Let me expand a little bit on that.

After a highly undignified opening paragraph with an uncharitable and unfounded speculation about Phil's motives for writing the essay,1 Pinker goes on throughout most of his response to explain, regarding all of the quotes that he exibits in his book Enlightenment Now and that Phil points out are taken out of context and misrepresent the various authors' intentions, that... well, that it doesn't matter that they are misrepresentations, because what he (Pinker) needed was words to illustrate his ideas, and for that it doesn't matter what the original authors meant. He suggests that "Torres misunderstands the nature of quotation". So why, then, doesn't Pinker use his own words (he is, after all, one of the most eloquent science writers of our time)? Why does he take this cumbersome detour via other authors? If he doesn't actually care what these authors mean, then the only reason I can see for including all these quotes and citations is that Pinker wants to convey to his readers the misleading impression that he is familiar with the existential risk literature and that this literature gives support to his views.

The most interesting case discussed in Phil's essay and Pinker's response concerns AI researcher Stuart Russell. In Enlightenment Now, Pinker places Russell in the category of "AI experts who are publicly skeptical" that "high-level AI pose[s] the threat of 'an existential catastrophe'." Everyone who has actually read Russell knows that this characterization is plain wrong, and that he in fact takes the risk for an existential catastrophe caused by an AI breakthrough extremely seriously. Phil points this out in his essay, but Pinker insists. In his response, Pinker quotes Russell as saying that "there are reasons for optimism", as if that quote were a demonstration of Russell's skepticism. The quote is taken from Russell's answer to the 2015 Edge question - an eight-paragraph answer that, if one reads it from the beginning to the end rather than merely zooming in on the phrase "there are reasons for optimism", makes it abundantly clear that to Russell, existential AI risk is a real concern. What, then, does "there are reasons for optimism" mean? It introduces a list of ideas for things we could do to avert the existential risk that AI poses. Proposing such ideas is not the same thing as denying the risk.

It seems to me that this discussion is driven by two fundamental misunderstandings on Pinker's part. First, he has this straw man image in his head of an existential risk researcher as someone proclaiming "we're doomed", whereas in fact what existential risk researchers say is nearly always more along the lines of "there are risks, and we need to work out ways to avoid them". When Pinker actually notices that Russell says something in line with the latter, it does not fit the straw man, leading him to the erroneous conclusion that Russell is "publicly skeptical" about existential AI risk.

Second, by shielding himself from the AI risk literature, Pinker is able to stick to his intuition that avoiding the type of catastrophe illustrated by Paperclip Armageddon is easy. In his response to Phil, he says that
    if we built a system that was designed only to make paperclips without taking into account that people don’t want to be turned into paperclips, it might wreak havoc, but that’s exactly why no one would ever implement a machine with the single goal of making paperclips,
continuing his light-hearted discourse from our encounter in Brussells 2017 where he said (as quoted on p 24 of the proceedings from the meeting) that
    the way to avoid this is: don’t build such stupid systems!
The literature on AI risk suggests that, on the contrary, the project of aligning the AI's goals with ours to an extent that suffices to avoid catastrophe is a difficult task, filled with subtle obstacles and traps. I could direct Pinker to some basic references such as Yudkowsky (2008, 2011), Bostrom (2014) or Häggström (2016), but given his plateau-shaped learning curve on this topic since 2014, I fear that he would either just ignore the references, or see them as sources to mine for misleading quotes.

Footnote

1) Borrowing from the standard climate denialist's discourse about what actually drives climate scientists, Pinker says this:
    Phil Torres is trying to make a career out of warning people about the existential threat that AI poses to humanity. Since [Enlightenment Now] evaluates and dismisses that threat, it poses an existential threat to Phil Torres’s career. Perhaps not surprisingly, Torres is obsessed with trying to discredit the book [...].

måndag 28 januari 2019

Steven Pinker misleads systematically about existential risk

The main purpose of this blog post is to direct the reader to existential risk scholar Phil Torres' important and brand-new essay Steven Pinker's fake enlightenment.1 First, however, some background.

Steven Pinker has written some of the most enlightening and enjoyable popular science that I've come across in the last couple of decades, and in particular I love his books How the Mind Works (1997) and The Blank Slate (2002) which offer wonderful insights into human psychology and its evolutionary background. Unfortunately, not everything he does is equally good, and in recent years the number of examples I've come across of misleading rhetoric and unacceptably bad scholarship on his part has piled up to a disturbing extent. This is especially clear in his engagement (so to speak) with the intertwined fields of existential risk and AI (artificial intelligence) risk. When commenting on these fields, his judgement is badly tainted by his wish to paint a rosy picture of the world.

As an early example, consider Pinker's assertion at the end of Chapter 1 in his 2011 book The Better Angels of Our Nature, that we "no longer have to worry about [a long list of barbaric kinds of violence ending with] the prospect of a nuclear world war that would put an end to civilization or to human life itseslf". This is simply unfounded. There was ample reason during the cold war to worry about nuclear annihilation, and from about 2014 we have been reminded of those reasons again through Putin's aggressive geopolitical rhetoric and action and (later) the inauguration of a madman as president of the United States, but the fact of the matter is that the reasons for concern never disappeared - they were just a bit less present in our minds during 1990-2014.

A second example is a comment Pinker wrote at Edge.org in 2014 on how a "problem with AI dystopias is that they project a parochial alpha-male psychology onto the concept of intelligence". See p 116-117 of my 2016 book Here Be Dragons for a longer quote from that comment, along with a discussion of how badly misinformed and confused Pinker is about contemporary AI futurology; the same discussion is reproduced in my 2016 blog post Pinker yttrar sig om AI-risk men vet inte vad han talar om.

Pinker has kept on repeating the same misunderstandings he made in 2014. The big shocker to me was to meet Pinker face-to-face in a panel discussion in Brussels in October 2017, and hear him make the same falsehoods and non sequiturs again and to add some more, including one that I had preempted just minutes earlier by explaining the relevant parts of Omohundro-Bostrom theory for instrumental vs final AI goals. For more about this encounter, see the blog post I wrote a few days later, and the paper I wrote for the proceedings of the event.

Soon thereafter, in early 2018, Pinker published his much-praised book Enlightenment Now: The Case for Reason, Science, Humanism, and Progress. Mostly it is an extended argument about how much better the world has become in many respects, economically and otherwise. It also contains a chapter named Existential threats which is jam-packed with bad scholarship and claims ranging from the misleading to outright falsehoods, all of it pointing in the same direction: existential risk research is silly, and we have no reason to pay attention to such concerns. Later that year, Phil Torres wrote a crushing and amazingly detailed but slightly dry rebuttal of that chapter. I've been meaning to blog about that, but other tasks kept coming in the way. Now, however, when Phil's Salon essay... ...is available, is the time. In the essay he presents some of the central themes from the rebuttal in more polished and reader-friendly form. If there is anyone out there who still thinks (as I used to) that Pinker is an honest and trustworthy scholar, Phil's essay is a must-read.

Footnote

1) It is not without a bit of pride that I can inform my readers that Phil took part in the GoCAS guest researcher program on existential risk to humanity that Anders Sandberg and I organized in September-October 2017, and that we are coauthors of the paper Long-term trajectories of human civilization which emanates from that program.

fredag 11 januari 2019

Recognized by the BBC for our work on the long-term future of humanity

Yesterday (January 10), BBC and their features editor Richard Fisher published a long but highly comprehensible and easy-to-read article on The perils of short-termism: Civilisation's greatest threat. It focuses on the central human predicament of needing to weigh short-term versus long-term concerns, and highlights work we did at the GoCAS guest researcher program on existential risk to humanity during September-October 2017 which Anders Sandberg and I organized at Chalmers and the University of Gothenburg. That particular piece of work was turned into the paper Long-term trajectories of human civilization,1 which I've reported on before on this blog.2 Here's an extract from the BBC piece:
    In early September 2017, the world’s attention was focused on various pieces of salient news: Hurricane Irma was brewing in the Caribbean, Donald Trump’s administration had announced plans to dismantle an Obama-era immigration policy, and photographers captured Prince George’s first day at school.

    Around the same time, a small, little-known group of researchers were meeting at a workshop in Gothenburg, Sweden with a goal to look much, much further ahead – far beyond this latest news cycle. Motivated by a moral concern for our descendants, their goal was to discuss the existential risks facing humanity.

    The meeting would lead to an intriguing and readable co-authored paper called Long-term Trajectories of Human Civilisation, which attempts to “formalise a scientific and ethical field of study” for thousands of years hence. As they write: “To restrict attention to near-term decades may be akin to the drunk searching for his keys under the streetlight: it may be where empirical study is more robust, but the important part lies elsewhere.”

    The Trajectories group began with the assumption that, while the future is uncertain, it is not unknown. We can predict many things with reasonable confidence, via observed patterns, repeating events, and established behaviours throughout human history. For example: biology suggests that each mammalian species exists, on average, for roughly 1 million years before it becomes extinct; history shows that humanity has continually colonised new lands and strived to transform our abilities with technology; and the fossil record demonstrates that global extinction events can and do happen.

    Extrapolating these patterns and behaviours into the future allowed them to map out four possible long-term trajectories for our species:

    • Status quo trajectories, in which human civilisation persists in a broadly similar state into the distant future.

    • Catastrophe trajectories, in which one or more events cause significant harm to human civilisation.

    • Technological transformation trajectories, in which radical technological breakthroughs put human civilisation on a fundamentally different course.

    • Astronomical trajectories, in which human civilisation expands beyond its home planet and into the accessible portions of the cosmos.
    Following their discussions in Sweden and afterwards, the Trajectories group concluded that the ‘status quo’ path would be a pretty unlikely scenario once you get to longer-term timescales. “Instead, civilisation is likely to either end catastrophically or expand dramatically,” they write.

    So on the optimistic path, merging with some as-yet-unimagined technology or colonising the stars are two scenarios that are entirely possible with the passage of enough time, they suggest. Both paths could lead to our descendants thriving for millions if not billions of years, spreading out into the Universe or evolving into a more advanced species.

    But we also are almost certain to face serious existential risks along the way. Natural disasters have pruned life on Earth continually – this much we know. What worries the Trajectories researchers more is that in the 20th and early 21st Century we've added a whole host of additional human-made risks into the mix too – from nuclear armageddon to AI apocalypse to anthropogenic climate change.

    In their paper, they lay out a variety of chilling scenarios where civilisation is rewound back to pre-industrial times, or wiped out altogether. [...]

    The researchers can't predict which order any of this will play out. They can predict, though, that it’s our trajectory to shape – for better or worse, the decisions we make this century could shape the next one and far beyond. “The stakes are extremely large, and there may be a lot that people today can do to have a positive impact,” they write.

    The question is: will we?

"The Trajectories group" - well, why not, it has a nice ring to it. Read the entire BBC article here!

Footnotes

1) Seth D. Baum, Stuart Armstrong, Timoteus Ekenstedt, Olle Häggström, Robin Hanson, Karin Kuhlemann, Matthijs M. Maas, James D. Miller, Markus Salmela, Anders Sandberg, Kaj Sotala, Phil Torres, Alexey Turchin and Roman V. Yampolskiy (2019) Long-term trajectories of human civilization, Foresight, to appear.

2) The same paper recently also caught the attention of Swedish public radio.

måndag 7 januari 2019

Om existentiell risk och mänsklighetens framtid i P1:s Vetandets värld idag

Jag vill varmt rekommendera dagens avsnitt av P1:s Vetandets värld, trots att dess rubrik Så räknar man ut mänsklighetens framtid lovar något mer än avsnittet och dess medverkande kan leverera. Jag kommer utförligt till tals, jämte en rad andra forskare: Anders Sandberg, Simon Beard, Luke Kemp och Lauren Holt, samt David Sumpter1 vars korta inhopp på slutet tjänar att illustrera hur kontroversiell det slags radikal och långsiktig framtidsforskning är som avsnittet behandlar.

Det gästforskarprogram om existentiell risk som Anders och jag organiserade på Chalmers och Göteborgs universitet hösten 2017 omnämns, med särskilt fokus på den artikel rubricerad Long-term trajectories of human civilization som en rad av de medverkande gästforskarna, med Seth Baum i spetsen, bidrog till. Även den ökända gemapokalypsen behandlas kort, liksom min artikel Challenges to the Omohundro—Bostrom framework for AI motivations.

Fotnot

1) Jag uppskattar varmt matematikerkollegan David Sumpters och mina återkommande diskussioner om vetenskap och futurologi, trots (eller tack vare!) vår djupa meningsskiljaktighet i synen på vetenskap, som läsaren kan få en partiell inblick i genom Davids gästinlägg här på bloggen i oktober 2013 och mitt svar.

fredag 4 januari 2019

A draft on ethical guidlines from the European Commission's High-Level Expert Group on Artificial Intelligence

On December 18 last year, the European Commission's High-Level Expert Group on Artificial Intelligence released a draft for their Ethics Guidlines for Trustworthy AI. They are now inviting stakeholders to submit comments on the draft, with a deadline on January 18. As a world citizen and a human being, I consider myself very much a stakeholder (and perhaps one or two of the readers of this blog will feel the same?), so I took the time to submit some comments (see this pdf) on a few of the central sections of the report.

torsdag 3 januari 2019

Debattörer som irriterat mig i julhelgen, del 2: Ruin

Det här handlar inte om Hans Ruin personligen. Det är visserligen sant att jag tidigare haft starkt kritiska synpunkter på denne professor i filosofi vid Södertörns högskola, vad gäller såväl hans syn på sitt ämne1 som hans privatmoral2, men det jag skriver här har lite eller inget alls med de diskussionerna att göra, utan är snarare att betrakta som en brandkårsutryckning för att rätta till en del av dumheterna i hans understreckare i SvD häromdagen, rubricerad Den envisa myten om intelligenta maskiner.

Större delen av texten utgörs av en visserligen summarisk och starkt förenklad, men givet det någorlunda godtagbar, redogörelse för delar av den artificiella intelligensens (AI:ns) idéhistoria.3 Det är när Ruin mot slutet av texten lämnar idéhistorien bakom sig och ger sig i kast med att förutsäga hur AI kommer att vidareutvecklas i framtiden som problemen hopar sig. Han låtsas ha läst Nick Bostroms Superintelligence från 2014 och Max Tegmarks Life 3.0 från 2017, men avslöjar omdelebart sin bluff genom att påstå att båda utgår "från premissen att dagens självlärande maskiner inom en nära framtid kan alstra en 'intelligensexplosion'". Nej, detta är inte en premiss i någon av böckerna. Såväl Bostrom som Tegmark diskuterar intelligensexplosionsscenarier, men i båda fallen handlar det blott om ett bland flera möjliga scenarier, och i synnerhet Bostrom diskuterar noggrant och med en väl tilltagen dos epistemisk ödmjukhet vad som talar för respektive emot en intelligensexplosion.

Redan i påföljande mening kommer nästa ruinska felaktighet, då han påstår att "genom att hänvisa till hjärnans oerhört komplexa uppbyggnad av neuroner och synapser menar [såväl Bostrom som Tegmark] att superintelligens endast är en fråga om när maskinerna närmar sig en jämförbar komplexitet i beräkningskapacitet". Helt fel igen. Vad Ruin här gör är att (till synes blint och oreflekterat) återge en av de vanligast förekommande och samtidigt fånigaste vanföreställningarna kring AI-futurologi. Sanningen är att varken Bostrom eller Tegmark eller någon annan seriös AI-futurolog hävdar att beräkningskapacitetsutveckling ensam skulle få sådana konsekvenser. Tvärtom: utan rätt slags mjukvara ingen superintelligens. Det närmaste ett korn av sanning som finns i den av Ruin återgivna missuppfattningen är att en utbredd (och rimlig) ståndpunkt bland experter på området är att ju mer beräkningskapacitet som hårdvaruutvecklingen leder fram till, desto bättre är utsikterna att skapa den mjukvara som krävs för så kallad AGI (artificiell generell intelligens) eller superintelligens.

Med stöd i sitt fria fabulerande kring vad som står i Bostroms och Tegmarks respektive böcker kommer Ruin fram till att skapandet av superintelligens är "varken tekniskt eller filosofiskt sannolikt". Inför denna fras blir jag en smula perplex, ty trots mina mer än 25 år som forskare i sannolikhetsteori har jag aldrig hört talas om den påstådda distinktionen mellan "teknisk" och "filosofisk" sannolikhet. Så vad menar Ruin här? Troligtvis inget annat än att han tyckte att det skulle låta fräsigare och mer kunnigt med "varken tekniskt eller filosofiskt sannolikt" än att kort och gott skriva "osannolikt".

Så hur står det i själva verket till med den sannolikhet som här diskuteras? Det vet vi inte. Frågan om huruvida och i så fall på vilken tidsskala som vi kan vänta oss att AI-utvecklingen når fram till AGI och superintelligens är vidöppen, något som framgår med all önskvärd tydlighet såväl av Bostroms bok som av Tegmarks, och som omvittnas ytterligare av de enkätundersökningar som gjorts bland AI-forskare (se t.ex. Dafoe och Russell, och Grace et al). Det förståndiga att göra i detta läge är att acceptera den stora osäkerheten, inklusive konstaterandet att möjligheten att superintelligens kan komma att utvecklas under innevarande århundrade förtjänar att tas på allvar, givet hur många experter som gör just det.

Ändå träder den ene efter den andre publike debattören, med en expertis (i Ruins fall en omfattande belästhet på den gamle kontinentalfilosofen Martin Heidegger) som är av i bästa fall oklar relevans för AI-futurologi, fram och meddelar att det där med superintelligens och AI-risk, det är minsann inget att bry sig om. För Ruin är långt ifrån ensam om att dra fram en sådan bedömning mer eller mindre ur röven, och med stöd i sin professorstitel eller annan vida accepterad kredibilitetsgrund basunera ut den för folket. För bara någon månad sedan gjorde den populäre nyliberale ideologen Johan Norberg samma sak. För att inte tala om kungen av AI-riskförnekeri, Steven Pinker. Och det finns många fler: se gärna den amerikanske futurologen Seth Baums studium av fenomenet.

Figurer som Ruin, Norberg och Pinker verkar dock komma mycket lindrigare undan med sitt AI-bullshitteri jämfört med motsvarande uttalanden från klimatförnekare om den globala uppvärmningen och dess orsaker. En trolig förklaring till detta är att kunskapsläget inom AI-futurologin är så väldigt mycket osäkrare än det inom klimatvetenskapen. Men att använda sin auktoritet i det offentliga rummet till att tvärsäkert torgföra grundlösa påståenden i vetenskapliga frågor, det är lika fel oavsett vilken grad av vetenskaplig osäkerhet som råder på det aktuella området.

Fotnoter

1) Min kritik på denna punkt handlar mest om hur Ruin positionerade sig i debatter med Torbjörn Tännsjö under 2016. Det är knappast någon större överdrift att hävda att han uttryckte en önskan att reducera filosofiämnet till läsandet av gamla klassiker, och dömde ut alla försök att tänka nya tankar. Det var också från denna förgrämda gammelmansposition han samma år yttrade sig om Macchiarini-skandalen.

2) Jag syftar här på Ruins åtgärder (som rapporterats om här och var) i syfte att tysta ned offer för sin gode vän Jean-Claude Arnaults sexuella övergrepp. Saken försatte mig i vissa smärre bryderier sedan jag anmält mig att delta i ett akademiskt symposium i Göteborg den 8 oktober förra året, och därefter fått klart för mig att Ruin fanns med bland talarna. Jag kände omedelbart att jag inte ville sitta tyst och utan minsta markering mot Ruin på mötet, då det skulle kunna förstås som en form av bekräftelse av att jag överser med hans illgärningar och välkomnar honom på mötet. Att utebli från mötet ville jag heller inte då mycket av intresse stod på programmet. Vidare skulle det ha varit alltför avigt och antisocialt att under frågestunden efter hans föredrag resa mig och säga något i stil med "Det här är måhända en smula off topic, men hur ser du på etiken kring nedtystandet av offer för sexuella övergrepp?". Den kompromiss jag till slut fastnade för, efter att först ha hört av mig till mötesarrangörerna med mina reservationer kring Ruins medverkan i symposiet (något som i alla fall förde det goda med sig att arrangörerna meddelade honom förekomsten av sådana synpunkter bland anmälda deltagare), var att under mötet bära den egenhändigt designade t-shirt som avbildas här intill. (Hashtagen på t-shirten kom till inom den amerikanska grenen av metoo, som stöd för Christine Blasey Ford (och protest mot den backlash som drabbade henne) när hon i september förra året vittnade mot den supreme court-nominerade domaren Brett Kavanaugh.)

3) Jag kan dock inte låta bli att påpeka att Ruin ger på tok för stor kredibilitet åt John Searles starkt suggestiva men i grunden feltänkta tankeexperiment Det kinesiska rummet. Se exempelvis Avsnitt 3 i min uppsats Aspects of mind uploading för en motivering till mitt stränga ordval "feltänkt".