onsdag 26 november 2025

Bra debatt om AI-risk: tre exempel

Jag är rädd att jag i min bloggpost Debatten om AI-risk behöver en rejäl uppryckning tidigare denna höst, och i den YouTube-föreläsning bloggposten hade som huvudsyfte att uppmärksamma, kan ha givit ett lite väl onyanserat budskap om AI-riskdebattlandskapets allmänna dålighet. Det är förvisso sant att såväl lägstanivån som genomsnittsnivån i detta debattlandskap är tämligen risiga, men i den mån mitt val i föreläsningen att fördjupa mig i en serie debattinlägg hemmahörande i det spannet (ihop med bloggpostens braskande rubrik) ger intrycket att all debatt på detta område är dålig, vill jag härmed korrigera budskapet. Riktigt så illa är det faktiskt inte, och i synnerhet om vi lämnar den svenska ankdammen och rör oss ut i den engelskspråkiga världen går det att hitta exempel på riktigt bra debatt om AI-risk. Jag vill här bjuda på tre exempel som alla rekommenderas varmt:
  • Beskedet Eliezer Yudkowsky och Nate Soares ger i titeln till sin aktuella bok If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All har fått många kommentatorer (inklusive yours truly) att trots allmänt positiva tongångar om boken framhålla att de inte delar författarnas tvärsäkerhet rörande hur illa det skulle gå om vi i någorlunda närtid byggde superintelligent AI. Bland dessa kommentatorer sticker Joe Carlsmith ut genom att i sin essä How human-like do safe AI motivations need to be diskutera frågan mer detaljerat och mer nyanserat än kanske någon annan. Visserligen medger han att ett alltför skyndsamt skapande av superintelligent AI medför enorma faror, men han framhåller samtidigt en rad omständighter som han menar erbjuder större hopp om att överleva en sådant tingest jämfört med bedömningarna i boken. Bland annat hävdar han att den AI alignment-strategi som kallas korrigerbarhet inte är fullt så dödsdömd som Yudkowsky och Soares menar. Den som väljer att läsa först boken och sedan Carlsmiths essä får sig till dels två olika perspektiv - båda intressanta och välargumenterade men noga taget oförenliga - på exakt hur bekymmersamt läget är om de ledande AI-företagen fortsätter sin nuvarande kapplöpning mot superintelligens.
  • Hur snabbt kan vi vänta oss superintelligent AI om denna kapplöpning fortsätter obehindrat? Vi vet inte, säger Daniel Kokotajlo och hans medförfattare till den uppmärksammade rapporten AI 2027 från i våras, men understryker att det mycket väl kan komma att inträffa inom ett par-tre år. Stört omöjligt, hävdar Arvind Narayanan och Sayash Kapoor i sin rapport AI as Normal Technology som kom nästan samtidigt. Personligen finner jag Kokotajlo-gängets argumentation mer övertygande, men oavsett detta är det ett faktum att stora delar av AI-debatten urartat i ett slags skyttegravskrig kring just denna fråga, och just därför finner jag det glädjande och beundransvärt att företrädare för båda författarkollektiven gått samman om en text rubricerad Common Ground between AI 2027 & AI as Normal Technology, där de noggrant går igenom hur överraskande mycket de trots allt är eniga om. På så vis bidrar de inte bara till ett förbättrat debattklimat utan även till att zooma in på vari de återstående knäckfrågorna består.
  • Två inflytelserika röster i amerikansk AI-debatt är Max Tegmark och Dean Ball. Den förstnämnde ligger bakom det aktuella uppropet Statement on Superintelligence som kräver ett förbud mot utveckling av superintelligent AI, medan Ball tillhör den falang som ser reglering av ny teknik som mestadels skadlig för innovation och ekonomi, och som därför tenderar att motsätta sig även reglering av AI. I ett aktuellt avsnitt av Liron Shapiras podcast Doom Debates möts de i en diskussion om AI-reglering som visar sig inte bara saklig och respektfull utan faktiskt också riktigt klargörande.

3 kommentarer:

  1. Du nämner såvitt jag sett aldrig Peter Thiel, trots att han är en ledande galning i dagens värld. Hans stora skräck är "stagnation", vilket verkar bero på att han tror att de fattiga kommer vända sig mot de rika utan ständig ekonomisk tillväxt. Det vore ju alldeles fruktansvärt för stackars Peter Thiel om han blev av med några miljarder dollar som gick till fattiga människor istället. Han yrar ultra-extrema dumheter om Greta Thunberg och Eliezer Yudkowsky som möjliga anti-krist, medan det givetvis är sådana som Peter Thiel man behöver hårdbevaka! Han bidrog tillsammans med Elon Musk till att vansinnesmannen Donald Trump blev omvald. Och så är han en ledande motståndare till reglering av AI-utvecklingen.

    SvaraRadera
    Svar
    1. Ja, den bisarre och farlige Peter Thiel kan väl ses (eventuellt i konkurrens med Marc Andreessen) som antiregleringsfanatismens överstepräst. Jag plågade mig igenom Ross Douthats poddintervju med honom i somras, som innehöll följande avslöjande replikskifte:

      D: I think you would prefer the human race to endure, right?
      T: Uh...
      D: You’re hesitating.
      T: Well, I don’t know. I would... I would...
      D: This is a long hesitation!
      T: There’s so many questions implicit in this.
      D: Should the human race survive?
      T: Yes.
      D: OK.
      T: But...

      Radera
  2. Jag är inget stort fan av Yuval Noah Harari, men jag konstaterade nu att jag behöver följa honom på Facebook, för han säger onekligen intressanta och bra saker, inte minst om AI. Jag gillade tex vad han säger om AI här: https://www.facebook.com/share/v/1FnhKSj68E/

    SvaraRadera