Det här handlar inte om Hans Ruin personligen. Det är visserligen sant att jag tidigare haft starkt kritiska synpunkter på denne professor i filosofi vid Södertörns högskola, vad gäller såväl hans syn på sitt ämne1 som hans privatmoral2, men det jag skriver här har lite eller inget alls med de diskussionerna att göra, utan är snarare att betrakta som en brandkårsutryckning för att rätta till en del av dumheterna i hans understreckare i SvD häromdagen, rubricerad Den envisa myten om intelligenta maskiner.
Större delen av texten utgörs av en visserligen summarisk och starkt förenklad, men givet det någorlunda godtagbar, redogörelse för delar av den artificiella intelligensens (AI:ns) idéhistoria.3 Det är när Ruin mot slutet av texten lämnar idéhistorien bakom sig och ger sig i kast med att förutsäga hur AI kommer att vidareutvecklas i framtiden som problemen hopar sig. Han låtsas ha läst Nick Bostroms Superintelligence från 2014 och Max Tegmarks Life 3.0 från 2017, men avslöjar omdelebart sin bluff genom att påstå att båda utgår "från premissen att dagens självlärande maskiner inom en nära framtid kan alstra en 'intelligensexplosion'". Nej, detta är inte en premiss i någon av böckerna. Såväl Bostrom som Tegmark diskuterar intelligensexplosionsscenarier, men i båda fallen handlar det blott om ett bland flera möjliga scenarier, och i synnerhet Bostrom diskuterar noggrant och med en väl tilltagen dos epistemisk ödmjukhet vad som talar för respektive emot en intelligensexplosion.
Redan i påföljande mening kommer nästa ruinska felaktighet, då han påstår att "genom att hänvisa till hjärnans oerhört komplexa uppbyggnad av neuroner och synapser menar [såväl Bostrom som Tegmark] att superintelligens endast är en fråga om när maskinerna närmar sig en jämförbar komplexitet i beräkningskapacitet". Helt fel igen. Vad Ruin här gör är att (till synes blint och oreflekterat) återge en av de vanligast förekommande och samtidigt fånigaste vanföreställningarna kring AI-futurologi. Sanningen är att varken Bostrom eller Tegmark eller någon annan seriös AI-futurolog hävdar att beräkningskapacitetsutveckling ensam skulle få sådana konsekvenser. Tvärtom: utan rätt slags mjukvara ingen superintelligens. Det närmaste ett korn av sanning som finns i den av Ruin återgivna missuppfattningen är att en utbredd (och rimlig) ståndpunkt bland experter på området är att ju mer beräkningskapacitet som hårdvaruutvecklingen leder fram till, desto bättre är utsikterna att skapa den mjukvara som krävs för så kallad AGI (artificiell generell intelligens) eller superintelligens.
Med stöd i sitt fria fabulerande kring vad som står i Bostroms och Tegmarks respektive böcker kommer Ruin fram till att skapandet av superintelligens är "varken tekniskt eller filosofiskt sannolikt". Inför denna fras blir jag en smula perplex, ty trots mina mer än 25 år som forskare i sannolikhetsteori har jag aldrig hört talas om den påstådda distinktionen mellan "teknisk" och "filosofisk" sannolikhet. Så vad menar Ruin här? Troligtvis inget annat än att han tyckte att det skulle låta fräsigare och mer kunnigt med "varken tekniskt eller filosofiskt sannolikt" än att kort och gott skriva "osannolikt".
Så hur står det i själva verket till med den sannolikhet som här diskuteras? Det vet vi inte. Frågan om huruvida och i så fall på vilken tidsskala som vi kan vänta oss att AI-utvecklingen når fram till AGI och superintelligens är vidöppen, något som framgår med all önskvärd tydlighet såväl av Bostroms bok som av Tegmarks, och som omvittnas ytterligare av de enkätundersökningar som gjorts bland AI-forskare (se t.ex. Dafoe och Russell, och Grace et al). Det förståndiga att göra i detta läge är att acceptera den stora osäkerheten, inklusive konstaterandet att möjligheten att superintelligens kan komma att utvecklas under innevarande århundrade förtjänar att tas på allvar, givet hur många experter som gör just det.
Ändå träder den ene efter den andre publike debattören, med en expertis (i Ruins fall en omfattande belästhet på den gamle kontinentalfilosofen Martin Heidegger) som är av i bästa fall oklar relevans för AI-futurologi, fram och meddelar att det där med superintelligens och AI-risk, det är minsann inget att bry sig om. För Ruin är långt ifrån ensam om att dra fram en sådan bedömning mer eller mindre ur röven, och med stöd i sin professorstitel eller annan vida accepterad kredibilitetsgrund basunera ut den för folket. För bara någon månad sedan gjorde den populäre nyliberale ideologen Johan Norberg samma sak. För att inte tala om kungen av AI-riskförnekeri, Steven Pinker. Och det finns många fler: se gärna den amerikanske futurologen Seth Baums studium av fenomenet.
Figurer som Ruin, Norberg och Pinker verkar dock komma mycket lindrigare undan med sitt AI-bullshitteri jämfört med motsvarande uttalanden från klimatförnekare om den globala uppvärmningen och dess orsaker. En trolig förklaring till detta är att kunskapsläget inom AI-futurologin är så väldigt mycket osäkrare än det inom klimatvetenskapen. Men att använda sin auktoritet i det offentliga rummet till att tvärsäkert torgföra grundlösa påståenden i vetenskapliga frågor, det är lika fel oavsett vilken grad av vetenskaplig osäkerhet som råder på det aktuella området.
Fotnoter
1) Min kritik på denna punkt handlar mest om hur Ruin positionerade sig i debatter med Torbjörn Tännsjö under 2016. Det är knappast någon större överdrift att hävda att han uttryckte en önskan att reducera filosofiämnet till läsandet av gamla klassiker, och dömde ut alla försök att tänka nya tankar. Det var också från denna förgrämda gammelmansposition han samma år yttrade sig om Macchiarini-skandalen.
2) Jag syftar här på Ruins åtgärder (som rapporterats om här och var) i syfte att tysta ned offer för sin gode vän Jean-Claude Arnaults sexuella övergrepp. Saken försatte mig i vissa smärre bryderier sedan jag anmält mig att delta i ett akademiskt symposium i Göteborg den 8 oktober förra året, och därefter fått klart för mig att Ruin fanns med bland talarna. Jag kände omedelbart att jag inte ville sitta tyst och utan minsta markering mot Ruin på mötet, då det skulle kunna förstås som en form av bekräftelse av att jag överser med hans illgärningar och välkomnar honom på mötet. Att utebli från mötet ville jag heller inte då mycket av intresse stod på programmet. Vidare skulle det ha varit alltför avigt och antisocialt att under frågestunden efter hans föredrag resa mig och säga något i stil med "Det här är måhända en smula off topic, men hur ser du på etiken kring nedtystandet av offer för sexuella övergrepp?". Den kompromiss jag till slut fastnade för, efter att först ha hört av mig till mötesarrangörerna med mina reservationer kring Ruins medverkan i symposiet (något som i alla fall förde det goda med sig att arrangörerna meddelade honom förekomsten av sådana synpunkter bland anmälda deltagare), var att under mötet bära den egenhändigt designade t-shirt som avbildas här intill. (Hashtagen på t-shirten kom till inom den amerikanska grenen av metoo, som stöd för Christine Blasey Ford (och protest mot den backlash som drabbade henne) när hon i september förra året vittnade mot den supreme court-nominerade domaren Brett Kavanaugh.)
3) Jag kan dock inte låta bli att påpeka att Ruin ger på tok för stor kredibilitet åt John Searles starkt suggestiva men i grunden feltänkta tankeexperiment Det kinesiska rummet. Se exempelvis Avsnitt 3 i min uppsats Aspects of mind uploading för en motivering till mitt stränga ordval "feltänkt".
Typiskt att Ruin fick en helsida i SvD, medan du fick bemöta honom i din blogg.
SvaraRaderaDin kommentar antyder att någon skulle ha hindrat mig från att publicera min text i något mer prominent forum än denna blogg, men så är inte fallet: jag har inte gjort något sådant försök.
RaderaÄven din blogg är förvisso ett prominent forum!
RaderaMen jag föreslår att du vänder dig till SvD också.
Annars kanske du inte når alla dem som läst Ruins understreckare.
Bra idé! En lite mer väluppfostrad version av min text är nu inskickad till SvD.
RaderaJag håller tummarna!
RaderaHoppas bara att du inte gjort din text alltför välputsad.
Jag tror att du länkat till fel artikel. Den du länkat till är en gammal på samma tema som Ruin skrev 1983. Detta torde vara rätt länk: https://www.svd.se/ai-inget-att-oroa-sig-for--men-overtron-pa-teknik-ar-det
SvaraRaderaAha, så förargligt - men nu korrigerat. Tack för hjälpen Marcus!
RaderaAlla kan förstås ha åsikter om vad som kan hända i en framtid med utvecklad AGI. Det finns säkert många scenarier. Men är det i grunden en filosofisk fråga...? Borde de inte vara en fråga inom områden som Datalogi, programmering, fysik, matematik. Vem vet eg bäst hur en dator beter sig...?
SvaraRaderaKjell Eriksson
Det är en mycket svår fråga, och jag anser att vi tills vidare bör söka svaren brett och (åtminstone delvis) interdisciplinärt. Alla de områden du räknar upp hör till de mest uppenbart relevanta, men jag menar att även filosofer kan ha mycket att bidra med (såsom exempelvis Nick Bostrom gjort). Härmed är såklart inte sagt att alla filosofer har den rätta hågen och fallenheten för att konstruktivt kunna delta i detta viktiga projekt. Allt jag sett av Hans Ruin tyder på att han befinner sig utanför den kategorin.
RaderaSkalar man bort det (mer eller mindre inkorrekta) idéhistoriska fluff den mångordige professor Ruin blåst upp sin artikel över en helsida med finner jag följande:
SvaraRaderaDet eviga tjatandet om den gamla apokalypsvisionen från 50-talet om hotet från "Den intelligenta maskinen" avleder uppmärksamheten från var den borde vara riktad: på vad det senaste decenniets framsteg inom applicerade neurala nätverk kan resultera i när Kina lägger enorma resurser på att utveckla dem till grunden för en övervakningsdiktatur vars like världen aldrig skådat.
Och jag finner inget att invända mot den slutsatsen.
Att vi bör ta hotet AI-grundad kinesisk övervakningsdiktatur (AIGKÖ) på synnerligen stort allvar kan jag såklart bara hålla med om. Men härav följer inte att vi bör strunta i superintelligenshotet, lika litet som någon av följande slutledningar är korrekta.
Radera* AIGKÖ är ett allvarligt hot, och vi bör därför inte ödsla tid och uppmärksamhet på solcellsutveckling.
* AIGKÖ är ett allvarligt hot, och vi bör därför inte ödsla tid och uppmärksamhet på antibiotikaresistensforskning.
* AIGKÖ är ett allvarligt hot, och vi bör därför inte ödsla tid och uppmärksamhet på fotboll.
Eller för att ta Lomborgs favorit:
* Malariabekämpning är superjätteviktigt, så vi bör inte ödsla kraft på klimathotet.
Det finns tusen sinom tusen aktiviteter som vi kan ta uppmärksamhet och resurser ifrån för att lägga på AIGKÖ-hotet. Att ta det från just superintelligenshotet vore jättedumt, för om vi med stor möda räddar oss från AIGKÖ bara för att hanmna i käftarna på en superintelligensapokalyps så vore det mesta förgäves.
Möjligen kommer du att invända att just din variant...
* AIGKÖ är ett allvarligt hot, och vi bör därför inte ödsla tid och uppmärksamhet på superintelligenshotet
...är mer relevant än de övriga, då ju den totala mängden kraft vi kan lägga på olika AI-hot är fix, så att det som satsas på avvärjning av superintelligenshotet mer eller mindre automatiskt tas från AIGKÖ-avvärjning. Men det där att totala mängden kraft vi kan lägga på olika AI-hot skulle vara fix, det är ju rätt och slätt fel.
Kanske lite off topic, men flera av de som intervjuas (Sandberg undantagen) i SVT:s "År 1 miljon" verkar heller inte särskilt bekymrade om risken med AGI. Med en 9-årings naivitet fantiserar de om hur fantastiskt allt kommer att bli i framtiden.
SvaraRaderaMånga verkar ha svårt att förstå frågan om AGI, och vad det skulle innebära om vi förlorar kontrollen.