De båda docenterna Alan Said och Mattias Rost vid institutionen för tillämpad IT på Göteborgs universitet klev förra månaden in i diskussionen om AI-risk via två debattartiklar i tidningen
Ny Teknik. Det räcker med en hastig titt på de båda texternas avslutningsstycken för att förstå deras ärende:
den 3 september menar de att "om AI-debatten ska leda någonstans måste vi höja nivån", och
den 22 september inskärper de att "det är hög tid att höja nivån på AI-debatten".
I detta budskap instämmer jag såklart helhjärtat, som den läsare inser som t.ex. noterat rubriken
Debatten om AI-risk behöver en rejäl uppryckning på en bloggpost jag skrev i samma veva. Och inget illustrerar behovet av sådan uppryckning bättre än den beklämmande låga nivån på Saids och Rosts argumentation. Tag t.ex. följande påstående de gör i polemik med Jonas von Essen i
den andra av sina artiklar:
Det är förvisso sant att Jonas använde orden "oseriöst och respektlöst" i den artikel som åsyftas, men Said och Rost gör sig här skyldiga till en skamlöst ohederlig förvrängning av vad han faktiskt syftade på i den formulering från vilken Said och Rost klippt och klistrat:
Både Said/Rost och Johansson et al. tar de existentiella riskerna på så litet allvar att de inte verkar känna något behov av att faktiskt argumentera vetenskapligt i sina debattartiklar, utan nöjer sig med att gång på gång antyda att min och Olles ståndpunkt kommer från "science fiction-författare och affärsintressen" och därför inte ens bör bemötas. Men det stämmer alltså inte. Tvärtom framför vi argument från några av de främsta forskarna i världen, varav flera har lagt grunden till det fält debattörerna själva arbetar inom (till exempel Geoffrey Hinton, Yoshua Bengio och Stuart Russell). Att förneka detta är oseriöst och respektlöst.
Vad Jonas här finner "oseriöst och respektlöst" är alltså
inte ifrågasättandet av Hintons och andras uttlanden om AI-risk, utan förtigandet av alla sådana varningsord från etablerade AI-forskare under det svepande påståendet att sådant härrör från "science fiction-författare och affärsintressen". Tvärtom ser vi ju här svart på vitt att han explicit efterlyser sådant bemötande i sak (något som dessvärre lyser helt med sin frånvaro i Saids och Rosts texter). Jag är full av beundran över det stoiska lugn med vilket Jonas von Essen väljer, för att i sin
slutreplik inte stjäla spaltutrymme från den konkreta sakargumentationen,
1 att helt enkelt ignorera Saids och Rosts fultrick att tillskriva honom rakt motsatt ståndpunkt jämfört med den han faktiskt uttryckt.
Vad mer gör då Said och Rost i sina båda texter? I den första talar de sig varma för vikten av att stödja sig på refereegranskade vetenskapliga arbeten. Inget fel i det naturligtvis, men tyvärr för de denna diskussion (tvärtemot deras ovan citerade efterlysning av "nyanserad diskussion") på ett så onyanserat vis - med formuleringar som "det är just här gränsen mellan allvarliga riskbedömningar och alarmism går" - att den oinsatte läsaren lätt kan få för sig att den formaliserade refereegranskningsproceduren har närmast magiska egenskaper, där resultaten i refereegranskade publikationer automatiskt är tillförlitliga medan de som publicerats på annat vis lugnt kan viftas bort. Så är det naturligtvis inte.
Deras vurm för refereegranskning är tänkt att fungera som ammunition för deras påstående att "det von Essen och Häggström ofta hänvisar till är spekulativa, icke referentgranskade rapporter och scenarier, medan forskare som Devdatt Dubhashi och Moa Johansson lutar sig mot referentgranskade vetenskapliga källor".
2 Men vilka belägg ger de för detta? Inga alls, visar det sig: de ger inga exempel på refereegranskade källor Dubhashi, Johansson och deras medförfattare skulle ha lutat sig emot, och ej heller finner vi några sådana i dessa forskares
inlägg i den
tidigare Ny Teknik-debatt som åsyftas. Måhända tänker sig Said och Rost här att de är fria att ge Dubhashi och Johansson benefit-of-the-doubt och helt enkelt anta att deras påståenden är välunderbyggda med rätt slags vetenskaplig litteratur, men det framstår i så fall som inkonsekvent och en smula illvilligt att de inte tillerkänner Jonas von Essen och mig samma benefit-of-the-doubt. Eftersom Said och Rost i sina
Ny Teknik-inlägg strängt taget inte visar några tecken alls på sakkunskap i AI-riskfrågor blir min gissning att de helt enkelt apar efter
Dubhashi-gängets lösa påståenden om asymmetrin i förankring i den vetenskapliga litteraturen.
I sin svarsartikel meddelar Jonas ett knippe motexempel på den av Said och Rost antydda frånvaron av refereegranskad vetenskaplig litteratur som stödjer idén att existentiell AI-risk är en realitet. Om det funnits ett uns av skam i kroppen hos Said och Rost hade de då
i sitt nästa svar skrivit något i stil med "vi beklagar att vi i vår förra artikel gav en så ensidig och missvisande bild av litteraturen på området". Men nej, inte med ett ord medger de detta. Istället går de loss mot hur Jonas (som motvikt till deras nonchalanta tal om "science fiction-författare och affärsintressen") understryker angående ett av sina exempel att det rör sig om
en artikel som är...
...publicerad i Science med många av världens främsta forskare från 20 olika universitet samt flera Nobel- och Turingpristagare som medförfattare.
Saids och Rosts svar på detta är att stämpla det som auktoritetsagument, och hävda att...
...om man vill hänvisa till auktoriteter måste man alltså redovisa hela bilden: att det bland de mest meriterade forskarna finns skilda uppfattningar. Allt annat blir selektivt.
Här kan man till att börja med notera en viss positionsförskjutning, från hur de i sin första artikel är helt avvisande till att det överhuvudtaget skulle finnas argumentation värd att beakta för att existentiell AI-risk skulle vara en realitet, till den mer defensiva positionen här, att det minsann
också finns ledande forskare som avvisar talet om sådan risk. Glädjande nog verkar alltså de tillrättalägganden Jonas gör i sin svarsartikel trots allt ha haft viss påverkan på Saids och Rosts bild av läget.
Men samtidigt får jag nästan svindel av de dubbla måttstockar de tillämpar då de plötsligt kräver av Jonas att han skall "redovisa hela bilden", utan att det på minsta vis verkar bekymra dem vilken skev och missvisande bild av litteraturläget de själva givit i sin föregående artikel. Enligt dessa dubbla måttstockar är det tydligen också ok för Alan Said och Mattias Rost att hävda att det mest bara är "science fiction-författare och affärsintressen" som ligger bakom AI-risklitteraturen, medan det är oacceptabelt selektivt av Jonas von Essen att korrigera denna grova felaktighet med påpekandet att där också förekommer "Nobel- och Turingprisvinnare".
Att det "bland de mest meriterade forskarna finns skilda uppfattningar" om AI-risk har Said och Rost naturligtvis helt rätt i, och de ger till och med ett exempel: Yann LeCun. Om denne framstående AI-forskare skriver de att han...
...gång på gång betonat att dagens AI-modeller saknar grundläggande egenskaper som förståelse, målorientering och långsiktig planering – och därmed inte kan utvecklas till de hotfulla superintelligenser som vissa varnar för.
Men trots deras vurm för den vetenskapliga peer review-litteraturen är det inte någon sådan text de här hänvisar till, utan till
en barntidning. Och när det gäller LeCun är det knappast någon tillfällighet, ty det verkar stört omöjligt att hitta något LeCun skrivit om AI-risk som höjer sig över hans ideliga Twittergräl.
3 Följande citat kan med sin rosenskimrande determinism tjäna som illustration till graden av seriositet han uppvisar i detta ämne:
A technology is not unsafe merely because of the possibility of doing it wrong. A technology is safe because of the possibility of doing it right. [...] I'm claiming that if there is a way to build and deploy a technology in a safe way, that's the way it will happen.
Men låt oss återgå till den LeCun-ståndpunkt Said och Rost pekar på ovan - att farligt kapabel AI med tanke på tillkortakommandena hos dagens AI är avslägset. Hur avlägset, kan man undra. Man behöver inte leta länge bland LeCuns många Twitteruttalanden innan man hittar hans bedömning att det återstår
"several years if not a decade" till "Human-Level AI". Detta alltså sagt av den AI-forskare som Said och Rost väljer att lyfta fram för att hävda att riktigt avancerad AI är så avlägset att därmed förknippad AI-risk inte är något att bry sig om. Om de faktiskt finner LeCuns tioårsperspektiv (räknat från 2024) lugnande och ett gott skäl att inte bry sig om existentiell risk från AI så finner jag graden av kortsiktighet i deras tänkande häpnadsväckande.
Det finns många andra konstigheter att peka på i Saids och Rosts
Ny Teknik-retorik, men det börjar också bli hög tid att runda av denna något vresiga bloggpost, så låt mig nöja mig med en enda. Så här skriver de i
den andra av sina texter:
Än mer problematiskt blir det när vi ser hur forskarnas egna ståndpunkter förändras. Hinton själv har nyligen gått från att varna för att AI kan bli omöjligt att kontrollera – till att föreslå att vi i stället bör konstruera AI med "föräldrainstinkter" som gör att den vill ta hand om oss.
Jag måste erkänna att jag lite grand tappade hakan när jag såg detta. Tidigare har jag bara stött på argumentet - att forskares uppfattningar bör tas med en nypa salt eftersom dessa ständigt uppdateras - hos kreationister, som avvisar den ständigt föränderliga evolutionsbiologin till förmån för den beständiga och en gång för alla fastslagna sanning de tycker sig finna i Bibeln.
Mäkta besynnerligt är också det exempel Said och Rost här anför, där de alltså tycker sig se en motsättning mellan att "varna för att AI kan bli omöjligt att kontrollera" (som de menar är Hintons tidigare ståndpunkt), till att föreslå åtgärder för hur detta skulle kunna undvikas (hans nuvarande uppfattning). Men det är naturligtvis fullt koherent att peka på att en risk är reell och samtidigt föreslå åtgärder för att undvika den, och om de hade bemödat sig om att bekanta sig med den AI-risklitteratur de så gärna vill avvisa, så hade de funnit hur vanlig denna kombination av ståndpunkter är: de hade funnit den hos Nick Bostrom, hos Max Tegmark, hos
Eliezer Yudkowsky och Nate Soares, hos Stuart Russell, hos mig, och jag vågar påstå hos en majoritet av alla forskare på området. Och de hade inte behövt gå längre än till
den CNN-intervju de själva hänvisar till i fallet Hinton, för att se att denne besitter just denna kombination av ståndpunkter: intervjun är rubricerad
AI expert: "We'll be toast" without changes in AI technology.
Det får räcka så här. Jag tror och hoppas att de exempel jag lagt fram räcker för att övertyga läsaren om att förbättringsutrymmet i Alan Saids och Mattias Rosts retorik är stort: om blott de nästa gång de tar till pennan bemödar sig om att vara lite mer pålästa inom de områden de kommenterar, och om att vara noga med att enbart hålla sig till redlig argumentation, så kan de själva bidra till sin lovvärda vision om att "det är hög tid att höja nivån på AI-debatten".
Fotnoter
1) Här på min blogg föreligger inte någon sådan utrymmesbegränsning, och jag känner mig därför fri att lägga ut texten om den egentligen som mest sekundära eller tertiära frågan om Saids och Rosts avvikelser från förnuftig argumentation och god debattsed.
2) Det finns ett korn av sanning i det Said och Rost säger här, på så vis att AI-riskforskningen i högre grad än många andra forskningsområden bedrivs utanför akademin, på diverse kommersiella företag och icke-vinstdrivande organisationer, där publiceringstraditionen ser annorlunda ut än vid universiteten och inte i lika stor omfattning inbegriper akademisk peer review. Men om Said och Rost föreställer sig att de med några enkla penndrag om refereegranskningsförfarandets dygder tror att de kan vifta undan all sådan forskning så har de fatalt missuppfattat sina skyldigheter då de viftandes med sina docenttitlar tar på sig att undervisa allmänheten om hur det vetenskapliga evidensläget på ett område ser ut. För att göra det bör man kunna överblicka och ta ställning till alla relevanta delar av evidensläget oavsett om de är publicerade i en tradition man själv fått sin akademiska fostran i, och om Said och Rost inte tycker sig ha kompetens eller ork att gå bortom ytliga omdömen av typen "den här rapporten har inte genomgått akademisk peer review och kan därför bortses ifrån" så har de med sina Ny Teknik-publiceringar tagit sig vatten över huvudet och seglar under falsk flagg.
3) På sidan 183 i deras välresearchade If Anyone Builds It, Everyone Dies gör Eliezer Yudkowsky och Nate Soares samma observation och ger upp sökandet efter mer gedigen LeCun-argumentation i AI-riskfrågor.
As researcher in a AI-related field, I found it interesting to read about the ongoing debate between the two AI Risk camps. While I personally lean towards arguments grounded in facts, like those put forth by Johansson, Said, and others, I still see merit in opposing views. Debate in academia is good, and ultimately, the strongest arguments should prevail.
SvaraRaderaHowever, I'm surprised by the tone of this debate. Statements like "Om det funnits ett uns av skam i kroppen hos Said och Rost...", "Deras vurm för refereegranskning ", "om blott de nästa gång de tar till pennan bemödar sig om att vara lite mer pålästa inom de områden de kommenterar", comparing your opponents to creationists - in my opinion, this is not a suitable tone for academic discussions. You seem to agree with Said & Rost that "raising the bar in the debate" is a "lovvärda vision", but these statements sound like the opposite. Why not engage more with the factual content of the debate? If the risk of AI is so severe as some claim, does that not deserve a grounded and solution-oriented discussion , instead of falling back on personal attacks?
Oh please, Mr Anonymous Tontroll 13:58, if instead of recommending me to "engage more with the factual content of the debate", you actually have a look around at what I have written elsewhere, such as in my latest book Tänkande maskiner, in recent papers such as Our AI future and the need to stop the bear, On the troubled relation between AI ethics and AI safety and Advanced AI and the ethics of risking everything, and in dozens and dozens of blog posts over the last few years on this very blog, you will find that in fact I engage rather more with the factual content of AI debate than probably 99.9% of university researchers. I could of course do even more, but please have some forgiveness with the fact that sometimes I deviate a little bit from your preferred topic. This time, I chose to comment on a couple of op-eds by Alan Said and Mattias Rost, and trust me, if those op-eds had contained actual factual content, I would have discussed that, but in the absence of such content, I resorted to discussing the sorts of meta-issues they brought up. If those issues are not to your taste, how about raising your complaint directly with Said and Rost?
RaderaYou're right that Said/Rost didn't write engage with specific arguments. And sure, you have every right to respond to their article and point out inconsistencies, and since their piece wasn't on factual arguments, you don't need to respond with such. I agree and apologies if I wasn't clear on that. My key point however is that, to me, the struck tone doesn't feel appropriate for academic discussions. If S&R argue the bar for the discussion should be higher and we should rely less on speculation from high-profile figures and more on peer-reviewed research. Why not just stick to these meta-issues and e.g. argue for why peer-review alone is insufficient? Why resort to personal attacks and this passive-aggressive language? That feels counterproductive to the kind of intellectual rigor they’re advocating for. Academic debates can get heated, but every PhD student has to learn that factual criticism should not be taken as a personal criticism.
SvaraRaderaAnd perhaps to illustrate why this bugs me, I feel as academics we have a societal responsibility to be the cool-headed people in the room, since we're given taxpayer money and academic freedom, and when we allow ourselves to slip into these overly combative tones, it distracts from the actual serious topics.
Anyway, I hope you can take this as constructive criticism and not as a personal attack. You're clearly engaged with the topic, and as I said, it's good to have diverse voices in academia.
Public communication of science is one of the central duties for us in academia, and whether we like it or not, pointing out cases of misinformation is part of that job. My blog post here is an example of that: its purpose is to warn readers about the many misleading statements and outright falsehoods made in the Said and Rost op-eds. Doing so inevitably involves implicit or explicit criticism of the authors, and there is a tricky trade-off between on one hand clarity and forthrightness, and on the other hand politeness. Finding the right balance is largely subjective matter, so it is no surprise that you and I disagree on it. Obviously, I end up further towards the clarity end of the spectrum than you. I've been doing this sort of writing for more than two decades and found a balance I am reasonably happy with, so it is unlikely that any criticism (constructive or not) from you or others will change me much as regards this balance. The basic reason for my stance on this is that I don't see much point in communicating at all if I am to sacrifice clarity by hiding my statements behind layer upon layer of diplomatic cotton wool. As a concrete example, I will most likely continue, in cases where a colleague is so eager to take shots at views they do not like that they invoke classical creationist tropes, to straightforwardly call them out for doing so. And even if I were to adjust a bit, there is no way I would ever get so far as to be protected against anonymous criticisms from commentators so far out towards the politeness end of the spectrum that they consider expressions like "vurm för refereegranskning" to be unacceptably pejorative.
RaderaLet's leave it at this, shall we? I share your preference for discussing subject-matter issues over this kind of improductive etiquette disagreements. Despite your anonymity I am sure you too have such subject-matter issues to attend to.
As another anonymous commenter, let me express yet another opinion. In my view, the main statements on the one side of the debate are the following: 1) insufficiently aligned AGI can possibly be very dangerous; 2) we are not so far away from reaching AGI-like levels of AI but have not solved the problem of AI alignment. Both of these statements have ample support by both facts and opinions by prominent researchers - the time estimates may vary regarding 2, but most people agree that we may get there within the lifetime of those born today. We should therefore do our best to mitigate this risk by focusing more on AI alignment with human values. I fail to comprehend why some people have such strong feelings against this perspective that they want to ridicule it and insist that we do not focus on AI existential risk at all. The argumemts presented by the other side in this specific group of debates were not convincing and certainly have not been more fact-based than those by Häggström.
SvaraRaderaI agree obviously, but thank you for saying this!
RaderaOch här är ännu en anonym läsare som uppskattar din röst i debatten. Tack Olle!
RaderaTack skall du ha, Anonym 07:10!
Radera