måndag 25 mars 2019

Min medverkan i 2019 års Vetenskapsfestival: tre paneldiskussioner och ett föredrag

Nästa vecka är det dags för 2019 års upplaga av Vetenskapsfestivalen i Göteborg, och jag kommer i vanlig ordning att medverka i ett antal programpunkter:

  • I anslutning till ett föredrag av Michael Burdett, söndagen den 7 april klockan 13:00, med rubriken God, technology and artificial intelligence deltar jag i ett panelsamtal, där förutom Burdett även Ann-Sofie Axelsson, Martin Westerholm och Pontus Nilsen är med. Det hela äger rum i Kjell Härnqvistsalen, i Hus A, Pedagogen, vid Grönsakstorget.

torsdag 14 mars 2019

Hårt angripen i Humanisten

Igår fick jag hem det nya numret 1/2019 av Humanisternas medlemstidning Humanisten i brevlådan. Bland mycket annat bjuder det på ett rasande angrepp på mig av en medlem vid namn Ernst Herslow, som är så upprörd över vad jag i det föregående numret 4/2018 skriver om klimatfrågan och hur jag tycker att Humanisterna bör förhålla sig, att han villkorar sitt fortsatta medlemskap med att styrelsen tar avstånd från mina ståndpunkter. Med anledning av det utmärkta svaret till Herslow från styrelseledamoten Patrik Lindenfors förmodar jag att han (Herslow) nu lämnar Humanisterna.

Jag har ingen anledning att tro att Ernst Herslow läser denna blogg, men om någon läsare råkar känna honom undrar jag om ni kan hälsa honom följande.

Herslow är givetvis i sin fulla rätt att ha vilka (miss-)uppfattningar i klimatfrågan han vill, att torgföra dessa, och att gå till storms mot mig. Men jag skulle önska att, om han nu känner ett så trängande behov av att göra det sistnämnda, han höll sig till att angripa ståndpunkter jag faktiskt har och yttranden jag faktiskt gjort, istället för att fabulera och fantisera. Det irriterar mig en smula när han tillskriver mig ordvalet "avfälling"1 och den gravt felaktiga uppfattningen att "ett så komplext och kaotiskt system [som klimatet], med så många okända faktorer, styrs av en enda komponent, nämligen koldioxid"2.

Fotnoter

1) Såpass språkkänsla har jag att jag uppfattar det ordets sektmentalitetskonnotationer, och jag kan inte minnas att jag någonsin skulle ha tagit det i min mun.

2) Atmosfärens koldioxidhalt har stor betydelse för klimatet, men är givetvis inte den enda faktor som påverkar. Se t.ex. min gamla Uppsalainitiativet-bloggpost Koldioxid och procentsiffror för en närmare diskussion.

onsdag 13 mars 2019

Köpenhamnsapokalypsen

Torsdagen den 25 april uppträder jag på ITU (IT-universitetet i Köpenhamn) tillsammans med datalogen Thore Husfeldt med en debatt rubricerad "AI: Are we heading for the apocalypse?" (eller på ett annat språk "Kunstig intelligens: På vej mod apokalypsen?"). Kom och ta del av (och i) vår diskussion, om inte annat så för att äntligen få veta vad Thore och jag egentligen menade när vi i en gemensam debattartikel i Sydsvenska Dagbladet den 19 november förra året framhöll att "vi två som skriver denna text är djupt oeniga".

Skälet till att jag meddelar detta redan nu är att förhandsanmälan är obligatorisk och att mer än hälften av platserna till föreställningen redan gått åt. Så skynda fynda!

måndag 11 mars 2019

Our special issue on existential risk to humanity is now published

Regular visitors to this blog may recall the GoCAS guest resarcher program on existential risk to humanity that Anders Sandberg and I co-organized at Chalmers and the University of Gothenburg in September-October 2017; see, e.g., this blog post, and this one, and the one with links to talks from the two-day public workshop on September 7-8. The program featured daily discussion seminars that tended to be very creative and fruitful, and to go on for hours. After a long editorial process, a special issue of the journal Foresight has now been published, where ten papers outlining work discussed at these seminars are collected under the joint heading Existential risk to humanity. While the set of topics considered in this collection of papers is far from exhausting the set of topics discussed at our seminars, it nevertheless does offer a reasonably representative sample. From the guest editorial by Catherine Rhodes and myself:
    Existential risks are those that threaten the extinction of humanity or, somewhat more broadly, those “where an adverse outcome would either annihilate Earth-originating intelligent life or permanently and drastically curtail its potential” (Bostrom, 2002). While it has long been widely recognized that global nuclear war and catastrophic climate change have potentially civilization-threatening consequences, it is only in the last decade or two that scholars have begun, in work that is typically highly interdisciplinary, to systematically investigate a broader range of existential risks. A landmark event was a conference on global catastrophic risks in Oxford in 2008, and the accompanying book edited by Bostrom and Cirkovic (2008). Subsequent research has tended to confirm the impression from that event that, in the time frame of a century or so, natural risks (such as asteroid impacts) are out shadowed by anthropogenic ones. In addition, while much work remains to be done in identifying and understanding the various risks, there is at present an increasing focus also on how to avoid or mitigate them.

    We are not yet at a stage where the study of existential risk is established as an academic discipline in its own right. Attempts to move in that direction are warranted by the importance of such research (considering the magnitude of what is at stake). One such attempt took place in Gothenburg, Sweden, during the fall of 2017: an international guest researcher program on existential risk at Chalmers University of Technology and the University of Gothenburg, featuring daily seminars and other research activities over the course of two months, with Anders Sandberg serving as scientific leader of the program and Olle Häggström as chief local organizer, and with participants from a broad range of academic disciplines. The nature of this program brought substantial benefits in community building and in building momentum for further work in the field: of which the contributions here are one reflection. The present special issue of Foresight is devoted to research carried out and/or discussed in detail at that program. All in all, the issue collects ten papers that have made it through the peer review process.

Read the full editorial here. The ten papers:

måndag 4 mars 2019

Vår framtid med AI innebär stora möjligheter och stora risker

"Vår framtid med AI innebär stora möjligheter och stora risker" är rubriken dels på min artikel i senaste numret av Fysikatuellt, dels på mitt föredrag på det heldagsseminarium betitlat "Ansvarsfull teknisk utveckling - AI, robotik och etik" som Vetenskapsrådet arrangerar i Stockholm nu på fredag den 8 mars. Seminariet är fullbokat, så ni som inte redan är anmälda dit får hålla till godo med artikeln.

måndag 25 februari 2019

Om djurförsök och etik i Göteborgs-Posten

Idag skriver jag i GP, tillsammans med Bengt Brülde, Fredrik Hedenus, Therese Hellberg, Olof Johansson Stenman, Martin Persson, Frances Sprei, Joakim Sandberg och Per-Anders Tengland, under rubriken "Hur mycket ska djur få lida för att människor ska få det lite bättre?". Här några passager ur artikeln:
    Enligt svensk lagstiftning är det tillåtet att utsätta djur för svåra lidanden om den förväntade nyttan för människan är tillräckligt stor. Vad gäller forskning på människor gör man avvägningar mellan risker och förväntad nytta, men man inhämtar alltid informerat samtycke och det finns dessutom en lågt satt gräns för maximalt acceptabel risk som man aldrig får överskrida, inte ens om den förväntade nyttan är stor.

    Är det moraliskt försvarbart att behandla djur och människor så olika? Bör det inte finnas ett största acceptabelt lidande även för djuren, oavsett den förväntade nyttan för människor? Detta är svåra och viktiga frågor, där inte ens vi som skriver under denna artikel är helt eniga. Vi är dock eniga om att dessa frågor måste ges större utrymme i samhällsdebatten.

    En fråga som nog är ännu viktigare i praktiken handlar om lagstiftningens tillämpning, där de djuretiska nämndernas bedömningar spelar en avgörande roll. [...]

    Det är [...] mycket svårt att bedöma lidandet i praktiken, för att inte tala om forskningens potentiella nytta. Frågan är om dagens nämnder klarar av att göra dessa bedömningar. En av oss [...] har fem års erfarenhet som ledamot i Göteborgs djurförsöksetiska nämnd. Under dessa år upplevde han aldrig att någon meningsfull diskussion fördes kring avvägningen mellan djurens lidande och försökets nytta.

    [...]

    De beskrivningar som finns av hur avvägningarna mellan lidande och nytta görs i praktiken [...] tyder på att de är mycket rudimentära, och att de enbart fokuserar på om någon nämnvärd nytta för människor alls föreligger eller om det går att minska djurens lidande på något uppenbart sätt. Någon seriös diskussion kring hur nämnderna bör arbeta i de viktiga fall där djurens lidande är uppenbart samtidigt som nyttan för människor är begränsad [...] förs egentligen aldrig.

tisdag 19 februari 2019

I P4 om det allra senaste på AI-fronten

I höstas besökte jag P4 Göteborgs förmiddagsprogram tre gånger inom loppet av en månad. Därefter följde några månaders radiotystnad1 för min del, men idag var jag tillbaka i studion hos Stefan Livh; vårt samtal börjar vid pass 1:44:50 in i programmet och pågår till cirka 2:10:05.

Ämnet för dagen var AI (artificiell intelligens), och mer specifikt den AI-programvara kallad GPT-2 som i torsdags offentliggjordes av det San Francisco-baserade icke-kommersiella företaget OpenAI, vilket drogs igång 2015 med pengar från bl.a. Elon Musk, och har som uttalat mål att driva AI-utvecklingen i en riktning som gynnar mänskligheten som helhet. I huvudsak är GPT-2 ett generellt textgenereringsprogram som, givet en eller ett par korta inledningsfraser från användaren, fortsätter texten på egen hand. Dess häpnadsväckande förmåga att ansluta till genre, tonfall och sakinnehåll framgår av en rad konkreta exempel.

Lite på tvärs mot hur de tidigare brukat göra har OpenAI valt att inte släppa GPT-2 fri, av oro för hur den skulle kunna komma att användas för dåliga syften: den förefaller idealisk för massproduktion av fake news, och det är lätt att föreställa sig hur dess teknik kan kombineras med något i stil med Google Duplex för att skapa allt bedrägligare imitationer av människor. Genom att ändå offentliggöra sitt framsteg säger sig OpenAI skänka samhället åtminstone ett visst mått av förvarning och handlingsutrymme innan det troligtvis oundvikliga sker - att andra AI-utvecklare lanserar liknande program med motsvarande eller bättre prestanda. För min del tror jag att det är viktigt att inte stanna vid att diskutera vad dessa programvaror förmår göra idag. Vi bör försöka blicka lite längre än så, för det är knappast troligt att teknikutvecklingen nu hux flux skulle ha kommit till vägs ände.

Mer om GPT-2 kan läsas bland annat i Wired och The Guardian, men överlag är mediarapporteringen tunnare än väntat. I Sverige är det ännu så vitt jag kunnat finna bara Ny Teknik (och nu som sagt P4 Göteborg) som uppmärksammat genombrottet.

Fontot

1) I P4 alltså. I P1:s Vetandets värld gick det ju att höra mig den 7 januari.