måndag 29 maj 2023

I Kvartal om AI-utvecklingen och senatsförhören med Sam Altman

Idag skriver jag, under rubriken OpenAI:s vd talar med kluven tunga, i tidskriften Kvartal. Liksom så många andra texter jag skrivit detta nådens år 2023 handlar den om de ofantliga risker som dagens extremt snabba AI-utveckling för med sig, och denna gång tar jag avstamp i senatsförhören den 16 maj i denna fråga med bland andra Sam Altman. Följande passager i början av min artikel förklarar dess rubrik:
    AI-utvecklingen har de senaste åren – och ännu mer de senaste månaderna – gått så rasande snabbt att allt fler yrvaket inser att tekniken kan komma att transformera samhället på ett genomgripande sätt, och att riskerna är enorma. Uppvaknandet har nu även nått Washington DC, där senatsförhör hölls i förrförra veckan kring denna utveckling. Huvudperson i vittnesbåset var Sam Altman, vd för det San Francisco-baserade teknikföretaget OpenAI som i vintras tog världen med storm med chatboten ChatGPT, och som i nuläget leder den skenande AI-utvecklingen.

    Med inlevelse och allvar talade Altman om de radikala förändringar och stora risker vi har framför oss, och om hur ansvarsfullt OpenAI agerar för att hantera dessa risker och samtidigt se till att den ofantliga potential AI-tekniken har på bästa sätt kommer alla människor till godo. [...]

    [Han] hade uppenbarligen förberett sig minutiöst, men det kan vara värt att jämföra hans välavvägda ord i senaten med hur han uttryckt sig i mer avslappnade sammanhang. I en paneldiskussion 2015, kort före grundandet av OpenAI, undslapp han sig att ”AI troligast kommer att leda till världens undergång, men tills dess kommer vi att se ett antal fantastiska företag”.

    [...]

    Dessvärre är Altmans cynism från 2015 en minst lika bra beskrivning av den verksamhet OpenAI idag driver, jämfört med hans mer välartade ord i kongressen i förra veckan. De försöker tämja sina AI-modeller till att undvika exempelvis rasistiska uttalanden eller instruktioner om hur man genomför kriminella handlingar, och gång på gång misslyckas de men släpper ändå produkter som inte lever upp till denna standard. Som en drastisk illustration till [deras] ansvarslöshet [...] vill jag peka på...

Läs hela artikeln här!

fredag 12 maj 2023

Liten AI-turné i slutet av maj

Merparten av min tankekraft detta märkliga år 2023 går åt till frågor om den just nu skenande AI-utvecklingen, dess risker och vad vi kan göra åt dem. I slutet av denna månad gör jag (förutsatt att SJ sköter sina åtaganden) en liten Sverigeturné för att tala om detta ämne i olika sammanhang, varav följande är öppna för allmänheten: Vore kul om några av er som följer bloggen hade lust att dyka upp vid något av dessa tillfällen - väl mött!

torsdag 11 maj 2023

Meningsutbyte med Ulf Danielsson och Torbjörn Tännsjö i DN om AI-risk

Med fysikern Ulf Danielsson har jag, som trogna läsare av denna blogg redan vet, haft många spännande diskussioner genom åren (se t.ex. här och här). Utifrån en gemensam uppslutning kring en naturvetenskaplig världsbild har det gång på gång visat sig att våra respektive intuitioner likväl går isär när det gäller kniviga frågor om exempelvis metafysik, begreppet information, medvetande och AI.

I dagarna har vi på Dagens Nyheters kultursidor haft en diskussion om AI, och mer specifikt om AI-risk. Här är våra inlägg: Istället för att grotta ned mig i Ulfs slutreplik och exempelvis gå i polemik mot hans inte-så-subtila antydan att jag skulle ha föreställningar om att "de maskiner vi konstruerar på ett mystiskt sätt blir besatta av onda andar", nöjer jag mig här med ett par klargöranden om mitt bidrag den 9 maj.

För det första vill jag i efterhand beklaga att jag lät mig provoceras av Ulf att ge mig in i frågan den eventuella möjligheten till AI-medvetande. Jag borde ha undvikit det, eftersom alltför mycket kraft lagd på den frågan kan ge den oinitierade läsaren intrycket att all eventuell risk för AI-apokalyps förutsätter att AI uppnår medvetande, något som emellertid inte är fallet, eftersom sådan AI-risk är en fråga om vad AI:n gör medan medvetandet är en fråga om huruvida den har subjektiva upplevelser - två kategorier som inte bör förväxlas. Stuart Russell förklarar saken koncist i sin bok Human Compatible: Artificial Intelligence and the Problem of Control:
    Suppose I give you a program and ask, `Does this present a threat to humanity?'. You analyze the code and indeed, when run, the code will form and carry out a plan whose result is the destruction of the human race, just as a chess program will form and carry out a plan whose result will be the defeat of any human who faces it. Now suppose I tell you that the code, when run, also creates a form of machine consciousness. Will that change your predictions? Not at all. It makes absolutely no difference.

För det andra har jag ett sensationellt avslöjande: min DN-text är till allra största delen författad tillsammans med filosofen Torbjörn Tännsjö!

Ändå har den publicerade texten enbart mig som undertecknare. Hur kunde det bli så konstigt? Well, när DN Kultur tog emot texten tackade de glatt ja, men med villkoret att författarlistan bara skulle bestå av ett enda namn, vilket de motiverade med att det annars skulle kunna uppstå förvirring hos läsare om vem som egentligen stod för vad i texten. Ett konstigt och (kände jag först) oacceptabelt villkor, men sedan DN-redaktionen visat sig hårdnackad i frågan samtidigt som Torbjörn generöst erbjudit sig att stiga åt sidan gick jag till slut med på att skriva om texten i första person singularis och göra en lite större omskrivning av det avslutande stycket.

Lite synd, eftersom jag nu får fortsätta vänta på äran att även officiellt stå som medförfattare med Torbjörn på någon text, och då jag tycker att ursprungsversionens avslutning var betydligt spänstigare:
    Vad gäller sådan AI och utsikten att den kan ta över världen har författarna till denna artikel olika syn på saken. Den ene av oss (Tännsjö) ser det som hoppfullt. Det vore av godo om tänkande maskiner ersatte oss människor, gjorde bättre moraliska bedömningar än vi, levde i samverkan och uppnådde lycka i livet. Den andre (Häggström) är här mer bekymrad. Vad händer om en överlägsen intelligens rätt och slätt är likgiltig för andra varelsers väl och ve? Tänk om den tömmer atmosfären på syre som led i något experiment? Då är det ute med oss. I sin ordning säger Tännsjö. Beklagligt säger Häggström. Men vem man än håller med, kan man inte rimligen vara likgiltig för frågeställningen.

torsdag 4 maj 2023

Vi får väl se?

Bland alla omnämnanden i pressen den senaste månaden i samband med mitt undertecknande av Future of Life Institutes öppna brev och min allmänna frispråkighet i frågor om AI-risk, vill jag här bara nämna några korta rader i Sydsvenska Dagbladet av deras journalist Mattias Oscarsson. Så här skriver han: Det här var enligt min mening inte helt bra.

Citatet jag tillskrivs är korrekt återgivet och inte på minsta vis illvilligt trunkerat eller så, så detta har jag inget att invända emot. Ej heller har jag något särskilt emot att omnämnas i samma stycke som Sundar Pichai.

Nej, det jag vänder mig emot är de till synes oskyldiga orden ”Vi får väl se”. De signalerar en blott alltför vanligt förekommande passivitet, där framtiden uppfattas som något vi blott har att invänta.1 Men framtiden är inte ristad i sten, utan beror på vad vi väljer att göra idag. När jag säger att ”AI kan leda till slutet för mänskligheten” är det inte för skojs skull, eller för att informera om ett oundvikligt öde, utan för att mana till handling, så att vi tillsammans skall kunna förhindra att det scenario jag varnar för blir verklighet. Bland det viktigaste vi har att göra nu är att bygga en så bred opinion som möjligt kring ståndpunkten att de risker som exempelvis Google och OpenAI tar med allas vår framtid i potten är oacceptabla (en ståndpunkt jag ägnat mitt mesta krut här på bloggen de senaste månaderna åt att argumentera för), för att på så vis antingen påverka politiska makthavare att via reglering eller på annat vis vidta åtgärder mot dessa AI-bolag, eller sätta moralisk press på bolagen själva, deras chefer och deras AI-utvecklare att börja agera mer ansvarsfullt. Detta arbete har Mattias Oscarsson, som journalist på en av våra främsta landsortstidningar, goda förutsättningar att medverka i, istället för att passivt avvakta utvecklingen och vänta på att få se hur det hela slutar.2

Fotnoter

1) Utöver detta finns med utsagan ”Vi får väl se” ett annat problem, nämligen att vi kanske inte alls får se. Exempelvis är det fullt möjligt att den slutliga AI-apokalypsen går så snabbt att vi inte hinner märka vad som sker.

2) Måhända är jag sträng i överkant när jag här anklagar Oscarsson för passivitet - den artikel jag citerar är ju i själva verket en utmärkt kritisk diskussion av vissa aspekter av AI-utvecklingen. Så ok, helt passiv är han inte. Men läs gärna denna bloggpost som en försiktig påminnelse till honom om att det jämte de viktiga frågorna om bildkonstgenererande AI och dess arbetsmarknadseffekter finns den möjligen ännu viktigare frågan om vikten av att AI inte utplånar mänskligheten.