lördag 16 augusti 2025

Oenighet bland Chalmersforskare om AI-risk

För den som följt denna blogg noggrant i några år kommer förekomsten av djupa oenigheter mellan olika Chalmersforskare i frågor som rör AI-risk knappast som någon överraskning, men nu har de nått offentligheten igen. Lite förenklat kan det sägas föreligga två falanger, där den ena hävdar antingen att existentiella AI-risker (alltså sådana som handlar om eller är i nivå med utrotning av mänskligheten) är ett hjärnspöke eller att de av andra skäl bör förtigas, medan den andra (vilken jag tillhör) menar att dessa risker behöver tas på stort allvar, jämte de mer jordnära AI-risker som rör bias, deepfakes, havererande examination av studenter, etc. Det som nu hänt är att fyra företrädare för det första falangen skrivit en debattartikel med rubriken GPT-5 utplånade inte mänskligheten – dags att fokusera på verkliga risker och fått den publicerad i Ny Teknik i torsdags, den 14 augusti 2025. Artikeln är påfallande illa argumenterad - så till den grad att läsare lätt kan få intrycket att förmågan till strukturerat och logiskt tänkande inte är något krav för en forskartjänst på Chalmers - och för den som värnar om lärosätets goda rykte kan detta eventuellt ses som skäl till att ignorera den i hopp om att den skall tigas ihjäl.

En sådan taktik är dock vanligtvis inte min melodi, och jag finner frågor om AI-risk oerhört viktiga och är angelägen om att reda ut missförstånd och missuppfattningar på detta område. Dessutom råkar det vara så att de fyra artikelförfattarna - Henrik Berglund, Devdatt Dubhashi, Moa Johansson och Sandro Stucki - formuerar sitt debattinlägg som ett svar på en text jag skrev i samma tidning den 24 mars 2023 (alltså för nära två och ett halvt år sedan!), och att tidningsredaktionen omedelbart efter publiceringen bjöd in mig att skriva replik. Detta resulterade i en text som publicerades dagen efter (alltså igår) med rubriken Oansvarigt om AI-risker av de fyra Chalmerskollegerna, i vilken jag på ett förödande (om än inte uttömmande) vis pekar ut några av bristerna i Berglunds et al argumentation. Vi får se om detta blir sista ordet, men jag har en föraning om att så inte är fallet. Så här börjar mitt inlägg:
    Serietecknaren Zach Wienersmith ritade för några år sedan en teckning där man ser silhuetterna av två individer som diskuterar så kallad superintelligens. Den ena oroar sig för att en sådan varelse skulle kunna ta över världen, medan den andra avfärdar sådana tankar som paranoia. I nästa serieruta ser vi att de två individerna är apor, och att entiteten de talar om är en stenåldersmänniska.

    Det är naturligtvis en allegori för AI-utvecklingen. Ända sedan 1950-talet har AI-forskningen haft som vision att så småningom skapa övermänskligt kapabel AI. Lika långt tillbaka går varningarna för att mänskligheten om detta lyckas kan komma att förlora kontrollen. Alan Turing framhöll det i ett känt uttalande från 1951, och bland de många nutida experter som varnar för att det i värsta fall kan leda till slutet för Homo sapiens finns världens tre mest citerade AI-forskare Yoshua Bengio, Geoffrey Hinton och Ilya Sutskever, varav Hinton som bekant förra året belönades med Nobelpriset för att ha lagt en stor del av grunden till dagens rasande snabba AI-utveckling.

    Länge framstod superintelligent AI som något ganska avlägset, men vi står nu på randen till ett skifte i AI-utvecklingen där de skickligaste AI-utvecklarna inte längre är människor av kött och blod utan AI-systemen själva. Detta medför ett slags turbofeedback i utvecklingen som kan få den att skena bortom all kontroll, och det är till stor del denna mekanism som får ledande experter att varna för att livsfarlig superintelligens kan bli en realitet redan före 2030.

    Likt den andra apan i Wienersmiths teckning vill Henrik Berglund och tre andra Chalmersforskare i Ny Teknik den 14 augusti vifta undan den sortens varningsord. De uppmanar till att ”spekulera lite mindre” och att fokusera helt på de mer jordnära risker som redan existerande AI-system ger upphov till. Det finns naturligtvis gott om sådana problem vi bör hantera – deepfakes, maktkoncentration, med mera – men vad Berglund och hans medförfattare inte tycks inse är att deras förslag att ignorera de mer avancerade risker som framtida AI kan medföra i sig bygger på en tämligen avancerad spekulation, nämligen att AI-utvecklingen inom några månader skall komma att avstanna helt. Och visst, i princip skulle det kunna bli så, men att ta det för givet är oansvarigt på en nivå som riskerar mänsklighetens överlevnad.

Läs gärna fortsättningen här!

1 kommentar:

  1. Det är inte konstigt om folk försöker blunda för något som välter upp och ner på allt. Här har du min senaste analys, som har rubriken "Falsifiering av kristendom och ateism" men också kommer in på AI-utvecklingen:

    Såväl kristendomen som ateismen kan komma att falsifieras. Ateismen falsifieras tämligen kraftigt om Jesus kommer tillbaka på himmelens skyar och upprättar ett nytt Jerusalem och ett tusenårigt fridsrike.

    Kristendomens falsifiering skulle kunna bestå i att en stor meteorit träffar Jorden och utplånar allt liv. En mindre drastisk falsifiering förefaller ganska osannolik. Kristendomen kan förstås falsifieras om någon av de andra religionerna bevisas sann.

    En annan möjlighet är att det dyker upp aliens som meddelar att kristendomen är alldeles okänd i andra delar av galaxen/universum, vilket sannolikt skulle kännas jobbigt för de kristna. En del kristna skulle kanske förmoda att rymdvarelserna är utskickade av djävulen för att bedra de kristna med lögner. Man vill förstås gärna veta vad rymdvarelserna själva tror på. Kristendomen vore nog inte död förrän man fått en del info om detta.

    Alldeles troligt kommer ateismen eller kristendomen falsifieras i närtid. De som inte fattar hur apokalyptiska tider vi lever i kan inte hört talas om super-AIsar. Antingen räddar Gud oss från dem eller så kommer hela civilisationen snart köras genom en stor köttkvarn, utan att Gud kommer till räddning. Så falsifieringen torde komma i närtid, oavsett om det är kristendomen eller ateismen som falsifieras.

    Ganska sannolikt kommer falsifieringen redan före AI-apokalypsen. Jag menar nog att ateismen falsifierats och kristendomen bevisats redan genom James Web-teleskopets infrarödlutande bild på nebulosan Pillars of Creation https://www.facebook.com/share/p/1GQd1vDTGo/ mm, men jag kan stå ut med att en del vill invänta eventuella följder av den totala solförmörkelsen rakt över Mecka år 2027 och/eller super-AIsarnas ankomst och maktövertagande. Det fantastiska är att allt detta kan väntas hända inom de närmaste fem åren!

    SvaraRadera