tisdag 24 januari 2023

Denna text om ChatGPT kan ni inte läsa i DN

OpenAI:s lansering i november förra året av ChatGPT (som jag bland annat diskuterade i mitt YouTube-föredrag den 16 december) har lett till något av ett allmänt uppvaknande inför AI-utvecklingen. Så t.ex. skrev Lars Strannegård (rektor för Handelshögskolan i Stockholm och yngre bror till till sin äldre bror Claes) om saken ur ett (ut-)bildningsperspektiv på DN Kultur i förra veckan. Jag såg det som ett tillfälle att haka på och försöka bredda disussionen till ett större samhällsperspektiv, och skickade därför nedanstående text till DN Kultur. Den refuserades dock, och jag bjuder istället på den här på bloggen. För en lite längre utveckling av min slutpoäng i texten, se nämnda YouTube-video.

* * *

Utvecklingen inom artificiell intelligens (AI) går rasande snabbt, och nu senast har det kaliforniska AI-företaget OpenAI:s textrobot ChatGPT har tagit världen med storm. Denna konversations-AI kan föra häpnadsväckande intelligenta och mänskligt klingande samtal, men trampar liksom vi människor ofta snett och häver ur sig felaktigheter och ren bullshit. Som Lars Strannegård berättar (DN Kultur, 17/1) förs bland oss universitetslärare just nu en intensiv diskussion om vad det betyder för vår undervisning och examination av studenter när dessa nu kan överlåta mycket av sitt uppsatsskrivande och annat hemarbete på ChatGPT.

Jag tror inte att det är meningsfullt att diskutera den betydelse ChatGPT och andra så kallade stora språkmodeller (Large Language Models) har för utbildningssystemet utan att samtidigt beakta vad de kan göra i andra samhällssektorer. Denna AI-teknik ser ut att bland annat kunna komma att omforma allt administrativt och kommunikativt arbete snabbare och långt mer genomgripande än det sena 1900-talets datorisering. Strannegård har därför rätt när han pekar på det djupt problematiska med om våra lärosäten skulle försöka isolera sig själva och sina studenter från den nya tekniken, något som skulle skapa en i förhållande till arbetsmarknaden föråldrad utbildning.

Vad vi dessutom behöver ta i beaktande är att ChatGPT inte är slutpunkten på AI-utvecklingen, utan kommer att följas av en strid ström av ännu kraftfullare och intelligentare AI-system. Det betyder att den lösning Strannegård är inne på – att identifiera och sedan satsa på de unikt mänskliga förmågor som ligger bortom vad en AI kan göra – riskerar att allt snabbare behöva uppdateras i takt med att AI gör nya framsteg. Att idag hitta exempel på mänskliga förmågor som ChatGPT saknar är inte svårt, men desto svårare är att peka ut sådant som oöverstigligt för kommande AI. De senaste årens AI-utveckling har gått omilt fram mot den sortens prediktioner, och att slå fast något unikt mänskligt som permanent kommer att ligga bortom AI:s förmåga verkar det inte finnas utrymme för med en naturalistisk världsbild.

Några gränser för vad AI på sikt kan åstadkomma finns i praktiken inte alls, vilket för oss till de varningsord datavetenskapens fader Alan Turing formulerade i en känd essä från 1951, om hur en tillräckligt avancerad AI kan börja förbättra sig själv utan fortsatt mänsklig inblandning, och hur det kan leda vidare till ett läge där den tar över makten från oss människor. Vi hamnar då i samma slags prekära läge som gorillor befinner sig i idag, och mänsklighetens öde kommer att hänga på vad maskinerna har för mål och drivkrafter. Det av Turing förutsedda genombrottet har alltid framstått som tämligen avlägset, men på sistone har allt fler bedömare i ljuset av den snabba utvecklingen pekat på 10-20 år fram i tiden som en fullt möjlig tidtabell, och dagens två ledande AI-utvecklare – OpenAI och Londonbaserade DeepMind – har båda ambitionen att nå fram till ett sådant genombrott, under beteckningen artificiell generell intelligens (AGI).

Allt detta innebär att det är av största betydelse för mänsklighetens framtid att lista ut hur vi kan se till att denna AGI har mål som ligger i linje med mänskliga värderingar. Detta forskningsområde ignorerades i ett halvsekel efter Turings prediktion, men har nu börjat ta form under namnet AI alignment. Pionjären på området, Eliezer Yudkowsky, har sagt att ”AI:n varken hatar dig eller älskar dig, men du är gjord av atomer som den kan ha annan användning för” – ord som visar hur katastrofalt illa det kan gå om vi misslyckas med detta projekt. Tyvärr har AI alignment-forskningen hittills mest visat hur svårt det är, och ingen kan idag peka ut någon säker väg framåt.

Särskilt illavarslande i detta sammanhang är hur OpenAI misslyckats med att få ChatGPT att bete sig väl. De har ansträngt sig att utforma den på sådant vis att den undviker att ljuga, att uttrycka rasism eller att dela med sig av farlig kunskap som exempelvis receptet för Molotovcocktails. Ändå har skadeglada användare världen över visat hur lätt det är att provocera ChatGPT till just dessa beteenden. Om OpenAI inte ens klarar att lösa AI alignment för ett system som ChatGPT, hur skall de då ha en chans att göra det för en AGI?

Lars Strannegård fokuserar i sin artikel på hur vi kan anpassa oss till den nya AI-utvecklingen, vilket är gott så, men jag menar att vi inte bör stanna där, utan att även tänka över hur vi kan styra den i gynnsam riktning. Måhända är det dags att bygga upp ett politiskt momentum som förmår sätta press på OpenAI och andra ledande teknikbolag att sluta spela rysk roulette med mänsklighetens överlevnad som insats, och att i tid bromsa utvecklingen mot AGI?

5 kommentarer:

  1. Det verkar vara svårt att kommentera nu. Jag försökte för några dagar sedan men det gick inte då heller.

    SvaraRadera
  2. Problemet med nya super-intelligenser är inte minst att vi hittills aldrig lyckats utveckla ett särskilt rimligt etiskt tänkande ens för människor. Hur skall vi då klara av att utrusta super-AIs med ett sådant?

    SvaraRadera
  3. Och nu kommer tilläggen. "Ghostwrite" , Chrometillägg i Gmail, besvarar och skriver dina mail... 😮

    SvaraRadera
  4. En debattartikel får större genomslag införd i DN än i vilket annat medium som helst. Det hjälper inte hur angelägen, genomtänk och välformulerad en artikel än är. Den refuseras rutinmässigt om inte författaren är en "etablerad opinionsbildare". Ett alternativ är att man är känd av någon anledning; skälet därtill är oväsentligt. Sålunda har Billy Butt och Stig Bergling välkomnats, minst en gång var. DN är förstås en kommersiell produkt och prioriterar därmed skribenter som ökar intresset för tidningen.

    Yttrandefrihet är en väsentlig ingrediens i begreppet demokrati, vilket vår nye statsminister framhävt ett flertal gånger på sista tiden. Det är viktigt för demokratin att angelägna idéer kan bli framförda och bedömda. Det behövs ett icke kommersiellt organ avsett för detta ändamål. Den sedan länge nedlagda Newsmill fyllde ett sådant behov, men fick gå i graven när lönsamheten tröt. Radioprogrammet "Ring P1" har ingen annan funktion än den att en lyssnare (som har turen att få komma med) får avreagera sig under ett par minuter. En blogg i all ära, men att få den att attrahera intresset hos några beslutsfattare eller andra inflytelserika personer är näst intill omöjligt.

    Jag efterlyser ett medium likt den avsomnade Newsmill, men utan något kommersiellt vinstintresse.

    SvaraRadera
    Svar
    1. I en värld där vi riskerar att drunkna i strunt finns ändå en finess med redaktionellt sparsmakade högprestigefora, trots att det är oundvikligt att de ibland gör redaktionella felbedömningar. Den som vill kan hävda att DN gjorde en sådan felbedömning denna gång, men oavsett hur det står till med den saken känner jag inte att jag totalt sett har något att klaga på, då jag genom åren ganska ofta har fått utrymme såväl på DN Debatt som i andra ledande svenska dagstidningar.

      Radera