måndag 24 februari 2020

Högt i tak på Institutet för framtidsstudier

Jag arbetar sedan några år tillbaka deltid på Institutet för framtidsstudier (IF) i Stockholm. Jag gillar dess kreativa och tvärvetenskapliga miljö. Det passsar mig också utmärkt att där är minst lika högt i tak som på universiteten, och jag tror inte att någon av forskarna där känner minsta press att be chefen om tillåtelse innan man gör eventuellt kontroversiella mediauttalanden. En IF-medarbetare som i helgen utnyttjat denna förträffliga takhöjd är Anders Ekholm, som i P1-programmet Godmorgon världen igår gav följande intervjusvar (med start cirka 1:02:50 in i sändningen), på tal om det utspel om europeisk AI-politik som EU-kommissionen levererade i onsdags.
    AE: Av de här tre [USA, Kina, Europa] ligger vi väl på femte plats eller så. Vi är otroligt långt efter, och det har ju flera olika orsaker, bland annat det som hon [EU-kommissionens digitaliseringskommissionär Margrethe Vestager] också pratade om. [...] För väldigt mycket av det är ju inte hur bra det var med AI, utan alla problem det var med att dela data och alla olika typer av metafrågor. Man skulle kunna jämföra [med] om vi var i ett riktigt krig, men alla hade svärd, och så plötsligt har [...] vår fiende börjat med skjutvapen. Och så tänker vi jävlar, det här måste vi också ha, vi är ju chanslösa med svärd. Men våra första frågor blir [istället] "är inte skjutvapen farliga, [...] de kan ju också användas till onda saker, skjuta våra egna medborgare och massmord och sådant [...]". Så vi börjar att fundera på alla bifrågorna och bivillkoren, som inte är oviktiga men som faktiskt inte är det viktigaste: hur tränar vi oss på att bli bättre och hur får vi nytta av den nya teknologin?

    Reportern: Så vad är det du säger, att EU är för ängsliga?

    AE: Ja, det är därför Europa kommer på femte plats av tre, för att vi är så änsgliga och vi börjar fundera på bivillkoren innan vi börjat ens [ohörbart] några nyttor.

Well, nu är det min tur att begagna mig av IF:s utmärkta takhöjd.

AE hävdar alltså att risköverväganden och AI-etik är en bisak, och att om vi skall sluta hamna på efterkälken behöver vi tagga ned det här tramsandet om att tänka proaktivt kring samhällskonsekvenser och risker. Han är knappast ensam om sin åsikt, men sällan eller aldrig har jag hört den uttalas så oförblommerat, och låt mig härmed anmäla avvikande uppfattning. Risk och etik är inte någon bisak man kan nöja sig med att tänka på efteråt när AI-tekniken väl utvecklats och rullat ut i samhället, utan det är fullkomligt centralt, och AE representerar inte någon entydig konsensus- eller partilinje på IF.

2 kommentarer:

  1. Olle, det är klart att det är en bisak, eftersom om Teknologin inte fanns skulle heller inte dessa överväganden kunna göras. Jag tycker givetvis inte att man helt ska ignorera dessa olika bisaker, men om det är dessa man börjar med, och lägger teknikutvecklingen och praktiska experimenten på is, så blir det endast ett akademiskt tankeexperiment. Inte illa, vi slipper risker, men får givetvis inte heller några nyttor. Är man riskaversiv är det en utmärkt hållning. Själv är jag en enkel praktisk man som föredrar nyttor, även om det - nästan aldrig - är kostnadsfritt.(se Paretooptimala åtgärder) För att utforma nya regelverk måste man kunna väga nyttor mot kostnader. Som nationalekonom anser jag att Cost-Benefit analys är den föredragna metoden. Då måste man ha data. För att få data måste man experimentera.

    SvaraRadera
  2. jaha, Olle, ska då ängsligheten vara huvudsaken eller vill vi ha ett samhälle som utvecklas? All utveckling och förändring medför risker. Dessa kan vi hantera genom snabba feedback loopar eller (kortsiktigt) genom att bromsa utveckling. Den grundläggande frågan är just den. Vill vi stanna tåget eller vill vi åka vidare. Att bara varna för risker med utveckling utan att peka på risker med status quo är ju hyfsat ointressant, kanske lite fegt eller i alla fall okreativt.. Är du Amish eller progressiv?

    SvaraRadera