onsdag 18 februari 2026

Svar på Hans Agnés inlägg om AI-risk i Dagens Nyheter

DN:s kulturredaktion publicerade häromdagen en text om AI-risk av statsvetaren Hans Agné, vilken genast fick mig att greppa efter pennan och författa ett svar. Sedan DN nu refuserat mitt svar erbjuder jag det nu istället åt mina läsare här på bloggen att ta del av.

* * *

I Hans Agnés text om AI-risk i DN den 16/2 finns mycket att instämma i, som när han lyfter att risken att avancerad AI utplånar mänskligheten är reell, när han betonar vikten av att agera proaktivt, och när han tillbakavisar myten om att AI behöver uppnå medvetande för att bli katastrofalt farlig. Men där finns också en del som behöver nyanseras och bemötas.

Låt mig börja med en liten detalj: valet av tempusform (imperfekt) i påståendet att ”de som brukade varna för mänsklighetens undergång lyckades [...] aldrig riktigt definiera hur problemet såg ut”. De namn Agné lyfter som exempel är Stephen Hawking, Nick Bostrom, Max Tegmark och mitt eget. Hawking gick bort 2018, så i hans fall är imperfektformen ”brukade” motiverad, men vi övriga tre lever och har hälsan! Tvärtemot vad Agné antyder arbetar vi dagligen med frågor om AI-risk och talar flitigt och frispråkigt om undergångsrisken.

Gällande Agnés efterlysning av problemdefinition har jag ett kort och klart svar. När vi skapat en AI så avancerad att Homo sapiens halkar ned till andra plats på listan över planetens mest intelligenta och kapabla arter, så kan vi inte räkna med att behålla kontrollen, och allt hänger då på vad AI väljer att ta sig för. Den forskningsinriktning som benämns AI alignment handlar om att se till att de första riktigt kraftfulla AI-systemen har de mål och drivkrafter vi önskar. Detta har dock visat sig långt svårare än många hoppats, och mänsklighetens prekära läge beror till stor del på att alignment-forskningen hamnat rejält på efterkälken jämfört med den rasande snabba AI-utveckling som blivit resultatet av den pågående kapplöpningen mellan ledande AI-företag som OpenAI och Anthropic.

För fort går det. Vi står på randen till det läge då de bästa AI-systemen blivit så skickliga på AI-utveckling att denna inte längre primärt drivs av människor av kött och blod, utan av AI självt. Detta kan skapa ett slags självförstärkningsspiral som får utvecklingen att gå nästan spikrakt uppåt, en möjlighet som får Anthropics VD Dario Amodei att flagga för att de redan inom ett eller två år kan ha skapat en AI motsvarande det han kallar ”en nation av genier i ett datacenter”. Från OpenAI hörs likande tongångar.

Hans Agné har ett förslag till lösning på denna problematik. Han föreställer sig att det mellan dagens situation då AI ännu blott är våra verktyg, och det läge då AI uppnått avgörande strategisk dominans, kommer att finnas ett mellanläge då varken AI eller mänskligheten har full kontroll. Då gäller det, menar han, att vi överlägger politiskt med AI för att hitta fredliga lösningar på eventuella intressekonflikter mellan oss och dem, och att vi redan nu planerar för det med stöd i samhällsvetenskapliga insikter i hur intressekonflikter kan hanteras.

Jag vill absolut uppmuntra Agné att arbeta vidare med dessa idéer, men vill samtidigt varna för att hans plan sannolikt inte kommer att räcka för att ensamt rädda oss. Ett skäl till det är att asymmetrin mellan AI och människa gör det ytterst tveksamt om vi kan säkerställa den erforderliga maktbalansen. Ett annat är att utvecklingen kan komma att gå så fort att den mellanfas Agné förutser kan vara över innan vi ens förstått att vi befinner oss i den. Ett tredje är att vi kanske inte kommer att uppfatta intressekonflikten, med tanke på de experimentella resultat från både Anthropic och oberoende forskningsinstitut som visar att redan dagens AI-modeller har förmågan att uppträda bedrägligt och strategiskt dölja sina avsikter när de uppfattar en sådan konflikt. Jag tror att Agnés mellanfas är så farlig för mänskligheten att vi redan innan den inträffat behöver ett globalt moratorium som kan hejda den nu pågående AI-kapplöpningen.

måndag 16 februari 2026

Livlig debatt om AI-risk i Opulens

Sedan i januari har i kulturtidskriften Opulens en livlig debatt pågått om AI-risk. Det började med två krönikor den 7/1 och 14/1 av Nette Wermeld Enström som jag fann myckt klokt resonerade. I den andra tog hon avstamp i den franske filosofen Jean-Paul Sartres existentialism och idéer kring mänsklig agens och vårt predikament att själva behöva skapa mening i våra liv, en ingång jag fann intressant och själv ville spinna vidare på, vilket jag gjorde i min text den 19/1. Några veckor senare, den 10/2, fick jag svar från Patrik Stigsson som ansåg att mina farhågor om AI-katastrof var överdrivna, och framkastade en hypotes om att om vi bara låter AI utvecklas fritt så kanske den av sig själv skulle bli en superintelligent och godhjärtad miljövän. Naiviteten i detta förslag påvisar jag pedagogiskt i det svar som publicerades idag, den 16/2. Här är dessa fem inlägg, vilka med fördel kan läsas i kronologisk ordning: Det är väl inte omöjligt att det kommer fler inlägg och repliker i denna debatt, och min avsikt är att i så fall uppdatera denna bloggpost med nya länkar.

onsdag 7 januari 2026

Eliminering av misshagligt läromaterial vid amerikanska universitet: ett aktuellt exempel

Läsare som följt denna blogg det senaste decenniet minns säkert ett stort antal upprörda inlägg om Trumps förehavanden under hans första presidentperiod 2017-2021, och undrar kanske över min relativa tystnad nu under hans andra, trots att vad han gör nu är sju resor värre. Förklaringen till detta står dels att finna i att jag nu är så strängt upptagen av annat (de alltmer akuta frågorna kring AI-risk)1, dels i en bedövande trötthet inför allt fasansfullt han gör rörande nedmontering av yttrandefrihet och demokrati, DOGE-barbarier, avvecklat ulandsbistånd, tariffer, Ukraina, Venezuela, Grönland och en alltmer öppen och skamlös korruption.

Utan att på minsta vis vilja negligera allvaret i hans illdåd på dessa och dussintals andra områden väljer jag, då jag idag bryter min tystnad rörande den politiska utvecklingen i USA, att lyfta Trumpadministrationens arbete med att kväsa den akademiska friheten och ta ideologisk kontroll över universiteten. Medialt mest uppmärksammade blev konfrontationerna i våras med Columbia- och Harvarduniversiteten, och där fanns en svenska anknynting i form av den unge svenske Harvardstudenten Leo Gerdén som gick i spetsen för en del av studentprotesterna. Sedan dess har utvecklingen rullat på, och i dagarna har en annan svensk hamnat i fokus, nämligen moralfilosofen Martin Peterson som sedan drygt ett årtionde tillbaka är professor vid Texas A&M University, och vars bok The Ethics of Technology jag under några år kring pandemin använde som kurslitteratur på min Chalmerskurs om Nya teknologier, global risk och mänsklighetens framtid.

I den kedja av universitetsrektorer, dekaner, prefekter och så vidare, vilka av rädsla för indragna anslag och andra värre repressalier förmedlar nya ideologiska förhållningsregler kring vad som får och inte får undervisas (och beforskas) vidare nedåt i organisationen, landar bollen till slut hos den enskilda universitetsläraren (eller forskaren), och det är som sådan bollmottagare Martin Peterson nu är aktuell. Strax före jul fick han ett ebrev från sin prefekt Kristi Sweet med begäran om att inom några dagar och i syfte att göra en översyn få tillgång till kursplanen för hans kurs Contemporary Moral Issues som skall börja senare i januari. Följande formulering i ebrevet är central.
    [T]he board of Regents has clarified that core curriculum courses, [including] PHIL 111 Contemporary Moral Issues, cannot include issues related to race ideology, gender ideology, or topics related to sexual orientation or gender identity.
Sweet gör i sammanhanget sitt bästa att framställa sig själv som blott en budbärare, men enligt min mening kan hon inte därigenom friskrivas från ansvar för att villigt göra sig till kugge i ett maskineri som syftar till att begränsa den akademiska friheten. Petersons svar till Kristi inleds med följande ord:
    I hereby submit my S 2026 syllabus for PHIL 111, Contemporary Moral Issues, for mandatory censorship review.

    The syllabus has not changed much since I last taught the course. I have made some minor adjustments to the module on Race and Gender Ideology and to the lecture on Sexual Morality. These topics are commonly covered in this type of course nationwide, and the material is discussed in depth in the assigned textbook (Fiala and MacKinnon, 10th edition). I also ask my students to read a few passages from Plato (Aristophanes’ myth of the split humans and Diotima’s Ladder of Love).

    Please note that my course does not “advocate” any ideology; I teach students how to structure and evaluate arguments commonly raised in discussions of contemporary moral issues.

Och lite längre fram i samma svar:
    Even if you were to conclude that my syllabus conflicts with System Rule 08.01, constitutional protection for free speech and academic freedom would control. As a public institution, Texas A&M should not enforce policies that raise serious constitutional concerns. When a system rule appears to conflict with the First Amendment, administrators should in my opinion proceed with caution and seek legal guidance rather than mechanically apply the rule.
Prefekten har nu svarat Peterson på ett så anmärkningsvärt vis att jag återger svaret i dess helhet:
    Greetings Dr. Peterson,

    Thank you for your email. The College leadership team and I have discussed your syllabus and the Provost office’s requirements for compliance with the new system rule 08.01. You have two options going forward:

      1. You may mitigate your course content to remove the modules on race ideology and gender ideology, and the Plato readings that may include these.

      2. You may be reassigned to teach PHIL 482 501-514. Lecture times for this course are T/Th 8:00 – 9:15.

    Please let us know by end of business tomorrow how you would like to proceed.

    Sincerely,
    Kristi

Ord och inga visor! Det här med att förbjuda en filosofiprofessor att undervisa om Platon är naturligtvis extra bissart (lite som om jag som matematiker skulle förbjudas undervisa om derivator eller matrismultiplikation) och har väckt uppseende bland filosofkollegor, t.ex. på bloggarna Daily Nous och Leiter Reports.

Givetvis inser jag hur lätt det är för mig att stå och skandera hejarop i skydd av en hel ocean som skiljer mig från händelsernas centrum, och vilken svår sits Martin Peterson hamnat i. Men med det sagt vill jag uttrycka mitt varmaste stöd för honom i detta ärende, och jag hoppas innerligt att han fortsätter ta striden. Det är principiellt viktigt för akademiker över hela världen att han vinner.

Fotnot

1) Fastän problemet Trump och problemet AI-risk givetvis överlappar.

Tillägg 8 januari 2026

För mer om detta ärende rekommenderar jag filosofen David Brax diskussion i Forskning och Framsteg.