Den svenska demokratins tillkomst är givetvis en successiv historia, men i
ett regeringsdirektiv från 2018 beslöts att ett 100-årsfirande av demokratin 2021 kunde vara på sin plats med tanke på att 1921 var det första år då både kvinnor och män kunde delta i allmänna val. En kommitté för detta firande instiftades, och ett av resultaten är en antologi i fyra volymer betitlad
100 år till. Den andra av dessa fyra volymer bär rubriken
Demokratin och digitaliseringen (fritt tillgänglig
i pdf-format!), och ett av de sju kapitlen, rubricerat
Demokrati, samhälle och AI - ett riskperspektiv är författat av mig.
Redaktionen för boken var tämligen ambitiös när det gäller att rensa mitt kapitelmanus från svåra ord och andra anstötligheter, så för den händelse någon är intresserad av att se hur min text såg ut innan den genomgått denna bearbetning så återger jag den här nedan. Håll till godo!
* * *
Demokrati, samhälle och AI - ett riskperspektiv
På 90-talet talade vi entusiastiskt om vilken vitamininjektion internet skulle bli för demokratin, när äntligen alla som ville skulle kunna göra sig hörda i den politiska diskussionen.1 Få förutsåg den sörja av filterbubblor, politisk polarisering, trumpism, och viral spridning av hämningslösa konspirationsteorier vi skulle hamna i ett par decennier senare.
Jag nämner detta som en påminnelse om vikten av ödmjukhet inför svårigheten att förutsäga framtiden, då jag i detta kapitel skall behandla de utmaningar och risker för samhället och demokratin som föreligger då vi nu med full fart är på väg in i nästa fas. Det vi ser idag är att utvecklingen av artificiell intelligens (AI) tar stora steg framåt, och att denna teknik är på god väg att få allt större inverkan på våra liv, via rekommendationsalgoritmer i sociala medier, beslutsverktyg inom exempelvis hälsa och privatekonomi, chatbots, självkörande bilar och tusen andra tillämpningar. Att i ett sådant skede tro sig bestämt veta hur framtiden skall gestalta sig är inte bara att grovt överskatta sitt kunskapsläge, utan också farligt eftersom det uppmuntrar till tanken att det inte spelar någon roll hur vi agerar idag, då ju framtiden ändå blir som den blir. Men vad vi väljer att göra har betydelse: framtiden är inte ristad i sten.
Den tilltagande politiska polarisering vi ser idag har många orsaker, men en bidragande sådan är de AI-algoritmer som de sociala medieplattformarna använder sig av för att locka oss användare att tillbringa så mycket tid som möjligt hos dem. Gulliga kattbilder är visserligen effektiva, men ett i många sammanhang ännu effektivare sätt att fånga vår uppmärksamhet är med eldfängt politiskt innehåll, och ju längre ut på de politiska ytterkanterna vi befinner oss desto lättare går vi igång på sådant. Vissa experter menar att det vi ser kan tolkas som att algoritmerna, utan att det funnits någon avsikt om saken från AI-utvecklarnas sida, börjat optimera för att pressa ut oss mot dessa ytterkanter. Att så kan ske beror bland annat på att den deep learning-teknik (ett slags artificiella neurala nätverk) som dominerar inom AI idag har den så kallade black box-egenskap som gör att inte ens AI-utvecklarna själva har annat än den ytligaste koll på vad som egentligen händer i virrvarret i AI-systemets inre. Manipulation av människor är självklart inte något nytt, men det är en ny oroande aspekt när manipulationen inte har någon medveten mänsklig avsändare utan härrör från maskiner vilkas inbyggda optimeringsmål ingen längre riktigt begriper sig på.
Samtidigt som detta leder till att höger- och vänstersinnade personers nyhetsflöden börjar se så olika ut att man ibland kan undra om de kommer från samma planet, så finns en annan gren av AI-utvecklingen som ytterligare förvärrar situationen, nämligen den snabba utvecklingen mot alltmer realistisk AI-genererad text. Till de mest spännande framstegen inom de senaste årens AI-utveckling hör textgeneratorer som exempelvis GPT-2, lanserad 2019 det San Francisco-baserade företaget OpenAI, och den kraftigt uppskalade uppföljaren GPT-3 året efter. Användaren skriver några rader text, varefter programmet raskt identifierar genre, stil och sakinnehåll och fyller på med en fortsättning. I de flesta fall blir denna fortsättning så småningom osammanhängande och besynnerlig, men ofta (och i synnerhet med GPT-3) blir de inledande styckena imponerande bra. Fortsatt utveckling av denna teknik har stor potential att komma till nytta på olika vis, men det finns också anledning att vara bekymrad över hur den kan komma att leda till ökad produktion av falska nyhetsartiklar och vilseledande online-imitation av specifika personer samt individanpassade phishing-försök och annan spam. För att förhindra att vi om några år hamnar i en situation där internet så till den grad svämmar över av desinformation att det blir snudd på omöjligt för den enskilde användaren att hitta de pålitliga källorna behöver åtgärder vidtas utan dröjsmål. Dessa kan eventuellt innefatta reglering, men behöver troligen i så fall kompletteras med utveckling av annan AI-teknik som hjälper oss att skilja mellan förfalskat innehåll och äkta.
Och på tal om det eventuella behovet att tygla de stora IT-bolagen finns också frågan om personlig integritet och de ofantliga mängder data dessa företag samlar in om oss användare. Insamlingen görs dels för att ytterligare träna upp och vässa deras AI-algoritmer, men också för att (som den amerikanska sociologen Shoshana Zuboff framhåller i sin bok Övervakningskapitalism)2 sälja dessa data vidare.
AI-teknik gör massövervakning möjlig med en täckningsgrad som inte ens östtyska Stasi var i närheten av, och även om vi konceptuellt bör hålla isär kommersiell datainsamling och statlig övervakning finns täta band mellan teknikindustrin och den amerikanska underrättelsetjänsten som väcker berättigade frågor om huruvida vi i väst är på väg mot det slags massövervakningssamhälle som i Kina mer öppet verkar ligga i tangentens riktning. För att ytterligare komplicera detta besvärliga problemkomplex finns aspekter som väcker frågan om huruvida det är så självklart som det först verkar att vi till varje pris vill undvika en omfattande massövervakning. Här syftar jag främst på på den kraftigt ökande risk för katastrofal bioterrorism som den snabba utvecklingen inom syntetisk biologi ser ut att komma att föra med sig och som samhället behöver försvara sig mot.
*
Det försämrade politiska läge vi på många håll ser idag beror såklart inte bara på de sneda och förvanskade nyhetsflöden som de sociala mediernas rekommendationsalgoritmer förser oss med. Kanske den mest betydelsefulla orsaken av alla står att finna i den ekonomiska ojämlikhet som lett till att många människor känner sig akterseglade och förbisedda av den politiska, akademiska och ekonomiska eliten. På denna punkt ligger vi inte riktigt lika risigt till i Sverige som i USA, men det finns en sida av AI-utvecklingen som (om det vill sig illa) kan komma att förvärra situationen och eventuellt slå lika hårt på båda sidor om Atlanten. Det handlar om att stora delar av innovationsarbetet inom AI och robotik är inriktat på att skapa maskiner och programvara med arbetsuppgifter som tidigare utförts av människor men som maskinerna kan hantera effektivare, snabbare och helt enkelt bättre. När en arbetsuppgift automatiseras så ersätts en löneinkomst (till den människa som tidigare utförde arbetet) med en kapitalinkomst (till den som äger maskinen), och i och med att kapitalinkomster är långt mer ojämnt fördelade i samhället än löneinkomster gör detta att automatiseringen tenderar att, om inget görs för att motverka saken, öka den ekonomiska ojämlikheten.
En i detta sammanhang särskilt utsatt del av arbetsmarknaden är transportsektorn, och det är inte alls orimligt att tänka sig att utvecklingen av automatiserade fordon och utrullningen av denna teknik på våra vägar leder till att de olika chaufförsyrken som finns idag kan komma att vara i princip utraderade om 20 år. Liknande omstruktureringar av andra arbetsmarknadssektorer kan också ligga i korten. Vad detta kan väntas innebära för våra arbetslöshetsnivåer är ekonomer emellertid oeniga om. Den som är skeptisk till att konsekvenserna blir dramatiska kan peka på historien och på hur automatisering inte är något nytt men tidigare alltid så småningom följts av att andra sektorer fångat upp den frigjorda arbetskraften. Man kan peka på att någon varaktig teknikdriven ökning av arbetslösheten ännu inte kan skönjas i vår arbetsmarknadsstatistik. Och en del ekonomer pekar på att om marknadskrafter friktionsfritt får råda kan inga arbetslöshetssiffror skjuta i höjden till följd av ökad konkurrens från maskiner, utan det som istället händer är att marknadspriset på arbete sjunker.
Den som är mer benägen att se problem i denna automatiseringsomställning kan besvara det sistnämnda med att med tillräckligt låga lönenivåer (tänk exempelvis en timlön på 10 öre) blir tillgången till arbete i praktiken inte något som hjälper individen ekonomiskt. Det går också att mer allmänt framhålla att ju mer nya omständigheter skiljer sig från vad som historiskt varit fallet, desto mindre ledning ger historiska data om vad som är att vänta. Dessa nya omständigheter kan exempelvis handla om en allt snabbare förändringstakt, och om att automatiseringen från att tidigare ha handlat främst om fysiska och manuella arbetsuppgifter nu är på väg att göra allt större insteg på intellektuella områden. Personligen tror jag att även om någon radikal AI-driven krympning av den totala arbetsmarknaden på 5-10 års sikt inte är att vänta, så är det osannolikt att vi i det långa loppet kommer att hitta nya meningsfulla arbetsuppgifter i samma takt som gamla automatiserats bort, och att det till slut blir orimligt att arbetskraften skulle utgöra en lika stor andel av befolkningen som idag. Men medan den bistra sanningen är att vi idag inte vet hur långt och hur snabbt denna utveckling kan komma att gå, så kvarstår behovet av att tänka framåt på vad för slags ekonomisk-politiska åtgärder som kan vara rimliga att ha i beredskap när den väl tar fart. Medborgarlön är ett koncept som ibland diskuterats i detta sammanhang och som jag anser är värt att ta på allvar.
Färre arbetstillfällen brukar ses som ett samhällsproblem, men det vore fel att diskutera automatisering och arbetsmarknad utan att åtminstone prova att vända på perspektivet. Kanske är lönearbete trots allt inte livets mening, något som redan Ernst Wigforss (svensk finansminister 1925-1926 och 1936-1949) var inne på:
Om målet med samhällsutvecklingen skulle vara att vi alla skulle arbeta maximalt vore vi sinnessjuka. Målet är att frigöra människan till att skapa maximalt. Dansa. Måla. Sjunga. Ja, vad ni vill. Frihet.3
Med detta omvända perspektiv kan fortsatt automatisering ses som den process som till slut skulle kunna befria oss från löneslaveriets bojor. Givet en tillräckligt långt gången AI- och robotteknik tror jag att ett gott samhälle utan lönearbete åtminstone i princip är möjligt, men att utformningen av det kräver framsynthet och eftertanke. Även om ett samhälle med 100% arbetslöshet i viss mening är jämlikt, så är det inte uppenbart hur det bör organiseras ekonomiskt, eller hur vägen dit – vilken rimligtvis går via arbetslöshetsnivåer på 20%, 50% och 90% – bör se ut. Hur kan vi passera sådana övergångsstadier utan att hamna i ofantligt vidgade ekonomiska klyftor och den social instabilitet som därmed riskerar att komma som ett brev på posten? Dessa frågor är av långsiktig karaktär, men kan också ta lång tid att hitta tillfredsställande svar på, och det är därför angeläget att ge utrymme för en levande diskussion kring dem redan nu.
*
Mycket av den AI-teknik som utvecklas idag och som vi kan vänta oss ännu mer av i framtiden är olika slags beslutshjälpmedel och beslutsverktyg. Ett område där stora framsteg sker redan idag är medicinsk diagnosticering, men hur kommer relationen mellan AI, läkare och patient att se ut i en framtid med allt mer avancerad sådan teknik?
Det förefaller troligt att vi in i det längsta kommer att insistera på att avgörande medicinska beslut endast får lov att fattas av människor, och att bedömningar utförda av AI-system som mest får användas som underlag för sådana beslut – en tankegång som på engelska benämns human-in-the-loop. Så länge den AI-teknik läkaren har till sin hjälp har så pass måttlig prestanda att det finns realistisk möjlighet för läkaren att göra en bättre bedömning genom att ta hänsyn till annan evidens och annan kunskap än den som AI:n levererar är detta relativt oproblematiskt. Läget blir emellertid ett annat när AI-systemet nått en nivå av precision i sina bedömningar att det blir uppenbart att det enda läkaren kan tillföra är en höjd brusnivå som leder till försämrade beslut. Läkarens situation blir då föga avundsvärd och i längden kanske ohållbar, då hen står med det formella ansvaret för ett beslut hen inte har något meningsfullt att tillföra och till följd av AI-teknikens ovan nämnda black box-egenskap inte ens begriper grunden för.
En liknande utveckling på andra områden är inte otänkbar, och även om diskussioner om vad det kan leda till med nödvändighet innefattar ett stort element av spekulation är det viktigt att fundera över vartåt utvecklingen som helhet pekar. Den svenske fysikern (och sedermera Nobelpristagaren) Hannes Alfvén var tidigt ute med sådana spekulationer med sin mästerliga roman Sagan om den stora datamaskinen från 1966, vilken på många punkter levererade imponerande träffsäkra profetior om den tid vi lever i idag ett halvsekel efter romanens tillkomst.4 Det jag här vill peka på är emellertid de spekulationer i romanen som sträcker sig ännu längre in i framtiden, där Alfvén bland annat skisserar en reformerad demokrati baserad på frekventa folkomröstningar, där landets medborgare via sina teletotaler – ett slags tingestar som till sin funktion är snarlika vår tids smartphones men som bärs på handleden istället för i handen – får ta ställning till en uppsättning olika handlingsalternativ. Dessa alternativ tillhandahålles av en central regeringsdator, men medborgarnas val försvåras av att de inte är i stånd att tillförlitligt bedöma hur bra de olika alternativen är. För att råda bot på det införs en rutin där datorns olika alternativ numreras på sådant sätt att det bästa (enligt datorns bedömning) alternativet förses med nummer 1, det näst bästa får nummer 2, och så vidare. När en app lanseras som, så snart en ny folkomröstning äger rum, automatiskt lägger användarens röst på alternativ 1, så väljer en majoritet av medborgarna att installera denna på sina teletotaler.
Alfvéns scenario är satiriskt avsett, men pekar på något som jag menar bör tas på stort allvar: risken att alltmer avancerat AI-stöd för beslutsfattande leder oss människor ned i apati och försvagad ansvarskänsla. Den tendensen har länge kunnat skönjas i samband med algoritmiserat och matematiserat beslutsfattande även utan att någon AI-teknik är inblandad. Ett typexempel som jag personligen blivit ack så välbekant med står att finna i hur universitets- och fakultetsledningar fördelar forsknings- och undervisningsresurser till sina olika institutioner. Istället för att ta den viktiga men svåra diskussionen om vilka verksamheter och ämnesområden man behöver satsa mest på för att på ett balanserat vis svara mot samhällets behov av akademisk kunskap, så väljer man ofta att gömma sig bakom ett algoritmiskt förfarande, ofta i form av något som benämns prestationsformel, vilken man låter bli styrande för resursfördelningen. Med denna prestationsformel, som exempelvis kan inbegripa antal artiklar publicerade i internationella vetenskapliga tidskrifter och ett par-tre andra enkelt uppmätta storheter, och som ger ett totalmått på prestation, kan pengarna fördelas på ett till synes objektivt vis mellan institutionerna, i proportion till deras prestation, och vips slipper ledningen stå till svars för att eventuellt ha favoriserat en verksamhet på någon annans bekostnad, eftersom de ju bara följt sin formel.
Viss slags politisk retorik, som kan exemplifieras med det av Carl Bildt på 90-talet omhuldade slagordet ”Den enda vägens politik”, kan ha en liknande verkan, då den framställer politiken som det rent tekniska problemet att optimera någon oproblematisk och matematiskt väldefinierad kvantitet, på bekostnad av den för demokratin så livsnödvändiga öppna diskussionen om vad vi egentligen eftersträvar och vad för slags värld vi önskar leva i. Detta kan leda till en politisk apati som på sätt och vis kan beskrivas som motsatsen till den politiska polarisering jag diskuterade inledningsvis, men vi behöver hitta sätt att navigera det mer fruktbara territoriet mellan å ena sidan apati, och å andra sidan en alltför långt gången polarisering.
Hela det New Public Management-koncept som de senaste decennierna alltmer kommit att genomsyra offentlig sektor pekar i samma allmänna och oroande riktning, nämligen mot det som filosofen Jonna Bornemark kallar mätbarhetssamhället.5 Förutom att urholka det individuella ansvarstagandet tenderar det att styra verksamheter mot det enkelt mätbara snarare än mot det vi verkligen ville uppnå med dessa verksamheter innan vi förlorade oss i prestationsformler. En delvis parallellt fenomen på det privata planet står att finna i tendensen att värdera sin position i gruppen utifrån hur många gillamarkeringar man får på sin senaste selfie – en del av en utveckling som vissa forskare menar bidragit till den snabbt ökande förekomsten av psykisk ohälsa bland dagens unga.6 Exemplen kan mångfaldigas, men det jag här framför allt vill varna för är att en ogenomtänkt utrullning av AI-teknik som beslutsverktyg i olika sammanhang riskerar att förstärka tendensen mot ett allt mer utpräglat mätbarhetssamhälle.
*
De samhälleliga konsekvenserna av den ökande användningen av AI som beslutshjälpmedel är något som får på tok för litet utrymme i dagens samhällsdebatt, och den lilla diskussion som trots allt förekommer tar dessvärre nästan aldrig upp de aspekter kring erodering av mänskligt beslutsfattande och ansvar som jag här försökt lyfta. Istället fokuserar den främst på två andra aspekter av automatiserat beslutsfattande som förvisso är viktiga de också men som jag här skall nöja mig med att nämna ytterst kort.7
Den ena handlar om AI-hjälpmedel för bedömning av enskilda människor för att utröna exempelvis vilken jobbsökande som förtjänar att bjudas in till anställningsintervju, vilken lånesökande som är kreditvärdig, eller vilken dömd brottsling som är återfallsbenägen. Fokus för denna diskussion är på risken att AI-algoritmerna har inbyggda strukturer som behandlar människor olika beroende på exempelvis kön eller etnicitet. En rad uppmärksammade fall visar att detta slags automatiserad diskriminering förekommer. Frågan om hur man skall komma till rätta med detta och istället skapa rättvisa algoritmer är komplicerad, bland annat därför att det finns olika kriterier på rättvisa som var och en förefaller rimlig, men som är oförenliga, så vi behöver djuplodande diskussioner om vilka rättvisekriterier vi vill prioritera.
Den andra aspekten rör militär AI-teknik för det som kallas dödliga autonoma vapen – främst i form av vapenbestyckade drönare. Den teknologi som beskrivits som ett paradigmskifte i den pågående militära konflikten mellan Armenien och Azerbajdzjan bygger på drönare som är fjärrstyrda av människor, men sett i ett större perspektiv finns starka militära incitament att automatisera drönarna, bland annat för att komma runt den mänskliga hjärnans långa reaktionstider. Mot detta kan ställas hur uppenbart hårresande det är att på detta bokstavligen livsfarliga område ge upp human-in-the-loop-idealet och överlåta till maskiner att ta beslut om dödligt våld mot människor, och det har förekommit forskarupprop (som även jag har varit med och undertecknat) till stöd för ett moratorium mot utveckling av sådan teknologi. Hittills har emellertid detta visat sig svårt att vinna genomslag för på politisk nivå, och vi står idag på randen till en potentiellt mycket farlig kapprustning inom detta slags AI-teknologi.
*
I detta snabba svep över AI-relaterade framtids- och demokratifrågor finns inte utrymme att behandla dem alla, men jag vill inte helt förbigå den som jag bedömer på sikt vara den kanske allra mest betydelsefulla: vad händer den dag då AI-utvecklingen når det stora genombrott då en AI skapas som överträffar mänsklig intelligens inte enbart inom begränsade domäner som schackspel eller bilkörning i tät stadstrafik, utan över hela linjen – det som kallas generell intelligens? Redan 1951 varnade datalogiämnets fader Alan Turing för att vi i ett sådant läge inte kan räkna med att behålla kontrollen, och därifrån är steget inte långt till insikten att hela vår framtid i så fall hänger på vilka mål och drivkrafter denna nya entitet, benämnd AGI (artificiell generell intelligens), har.
Reaktionen från forskarvärlden på Turings varningsord blev (med Hannes Alfvén som ett av ytterst få undantag) ett drygt halvsekel av nästan totalt ointresse och passivitet. Det är egentligen först under 2010-talet som det forskningsområde som nu benämns
AI Alignment så smått börjat växa fram, centrerat kring frågan om hur man kan tillse att den första superintelligenta AGI:n har mål som är i linje med mänskliga värderingar och mänsklig blomstring. Att vi skulle ha råd med att såsa bort ännu ett halvsekel kan inte tas för givet, utan det är tvärtom av största vikt att denna forskningsinriktning fortsätter växa, då den jämfört med AI-forskningen som helhet ännu utgör blott en liten bråkdel, trots de ofantliga värden som står på spel: om AI Alignment lyckas finns knappt några gränser alls (utöver fysikens lagar) för vad mänskligheten kan uppnå, men om den misslyckas kan det mycket väl bli vår undergång.
Det finns fortfarande ett utbrett men enligt min mening inte helt rationellt motstånd mot att ta dessa radikala AI-scenarier på allvar, och en benägenhet att avfärda dem som science fiction – en benägenhet som bygger på den psykologiskt begripliga men likväl förhastade premissen att allt som ligger utanför ramen för det invanda och välbekanta är osannolikt. Som en följd av detta har intresset för frågan hos politiska makthavare hittills varit nästan försumbart, men desto mer glädjande är att den brittiska regeringen i en aktuell rapport om hur den avser förhålla sig till AI-utvecklingen skriver att de
tar den långsiktiga risken för icke-alignerad artificiell generell intelligens, och de oöverskådliga förändringar de skulle ha för vår nation och för världen, på allvar.8
Jag vill väldigt gärna tänka mig detta uttalande som ett trendbrott, och som en signal om en breddning av det så kallade Overton-fönstret, så att även frågan om ett AGI-genombrott och dess risker för mänskligheten är på väg att bli något som tar den plats den förtjänar både i nyhetsmedia och i maktens korridorer.
*
Allt det jag hittills skisserat är ämnat att illustrera vilken genomgripande påverkan på samhället och våra liv som fortsatt AI-utveckling kan väntas få. Det här betyder att det för en relevant och fungerande demokrati är nödvändigt att dessa frågor kommer upp på bordet som en tydlig del av det offentliga samtalet. Att känna till vilka de stora framtidsfrågorna är utgör en nödvändig förutsättning för att den enskilde samhällsmedborgaren skall kunna utöva sin demokratiska rättighet att vara med och styra utvecklingen mot en bättre framtid.
Det har hänt när jag lyft denna ståndpunkt med någon forskarkollega att jag mötts av invändningen att den begränsade kunskapsnivån hos allmänheten om AI-frågor gör att det är för tidigt att väcka en sådan bred diskussion i ämnet: när folk inte begriper vad det är de talar om kan det bana väg för dåliga beslut och i värsta fall förhastad reglering av tekniken. Publik debatt om AI-frågor bör därför (så lyder invändningen) anstå tills folket har utbildats om saken.9
Det finns ett korn av sanning som jag kan instämma i här: behovet av ett förbättrat kunskapsläge. När en opinionsundersökning bland EU-medborgare nyligen gav det bisarra utfallet att 51% av de tillfrågade ser positivt på idén att ersätta ett antal mänskliga parlamentsledamöter med AI,10 så bör det knappast tolkas som att alla dessa väljare noggrant tänkt igenom saken och kommit fram till att de önskar sig en utveckling liknande den som skisserades av Hannes Alfvén i Sagan om den stora datamaskinen. I många fall handlar det nog snarare om att när folk får frågor om ämnen som är så främmande för dem att de aldrig haft anledning att överväga något liknande, så kan de svar de skjuter från höften bli lite vad som helst.
Ändå finner jag slutsatsen att bred politisk diskussion om AI bör skjutas på framtiden oacceptabel. Den politiska diskussionen behövs nu, för AI-utvecklingen fortskrider med rasande hastighet, och samhällskonsekvenserna likaså: vi kan inte räkna med att dessa snällt inväntar den tidpunkt om kanske tio år (eller hur lång tid nu min meningsmotståndare tänker sig att det kan ta) då folkbildningskampanjen måhända nått den punkt då folket anses moget för AI-frågor. En diskussion om vart vi vill resa har begränsat värde om tåget redan har gått.
Vad vi behöver är folkbildning och politisk diskussion parallellt. I själva verket ser jag inget annat rimligt tillvägagångssätt om ambitionen är att höja allmänhetens kunskapsnivå i AI-frågor, ty utan en bred diskussion i kultur- och nyhetsmedia om vilka avgörande samhälleliga vägval vi har inför en framtid med alltmer avancerad AI-teknik så är det svårt att tänka sig att de flesta skulle känna sig motiverade att göra den ansträngning som krävs för att lära sig om dessa frågor.
Fotnoter
1) Tack till Björn Bengtsson och Sven Nyholm för värdefulla synpunkter på denna text.
2) Zuboff, S., The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, Profile Books, London, 2019, samt i svensk översättning Övervakningskapitalismen: Vid maktens nya frontlinjer, Ordfront, Stockholm, 2021.
3) Citerad i Thorwaldsson, K.-P., Ingen ska lämnas efter: en berättelse om solidaritet och vägen till full sysselsättning, Leoprad förlag, Stockholm, 2014.
4) Alfvén, H., Sagan om den stora datamaskinen: en vision av Olof Johannesson, Bonnier, Stockholm, 1966.
5) Bornemark, J., Det omätbaras renässans: En uppgörelse med pedanternas världsherravälde, Volante, Stockholm, 2018.
7) Se Häggström, O., Tänkande maskiner: Den artificiella intelligensens genombrott, Fri Tanke, Stockholm, 2021, för mer utförlig behandling av dessa både aspekter och av de övriga teman jag tar upp i detta kapitel.
8)
National AI Strategy (min översättning
icke-alignerad av engelskans
non-aligned är klumpig, men begreppet syftar på AI för vilken man inte lyckats säkerställa att målet den eftersträvar är i linje med vad som är bra för mänskligheten).
9) Se Häggström (2021), s 291, för ett konkret exempel på sådan diskussion.