tisdag 9 april 2019

The European Commission's Ethics Guidelines for Trustworthy AI

In January I commented on a draft version of the Ethics Guidelines for Trustworthy AI prepared by the European Commission's High Level Expert Group (HLEG) on AI. The final version of the Guidelines was officially released yesterday.

I strongly recommend the candid and sincere reflections on the Guidelines by HLEG member Thomas Metzinger in an op-ed in Der Tagesspiegel. Thomas and I collaborated a bit on preparing some writings in the Guidelines (albeit unsuccessfully as regards what actually ended up in the final version) towards the end of HLEG's work on them. I share his disappointment about how the Guidelines turned out, and I agree with his remarks about "ethical white-washing" and how "industry organizes and cultivates ethical debates to buy time – to distract the public and to prevent or at least delay effective regulation and policy-making", as well as with his balanced statements that the Guidelines are "a compromise of which I am not proud, but which is nevertheless the best in the world on the subject. The United States and China have nothing comparable" and that
    their legal anchoring in European fundamental values is excellent, and the first selection of abstract ethical principles is at least acceptable. Only the genuine normative substance at the level of long-term risks, concrete applications, and case studies has been destroyed.
In the final paragraphs of the op-ed Thomas emphasizes the urgency of the situation:
    The first step is good. But it is high time that universities and civil society recapture the process and take the self-organized discussion out of the hands of industry.

    Everyone is feeling it: We are in a rapid historical transition that is taking place at many levels simultaneously. The window of opportunity within which we can at least partially control the future of AI and effectively defend the philosophical and ethical foundations of European culture will close in a few years' time. We must act now.

torsdag 4 april 2019

Några videor i vilka jag pratar AI

Sedan en kort tid tillbaka är jag ordförande i den AI-etikkommitté som Chalmers Artificial Intelligence Research Centre (CHAIR) inrättat. Här en kort videosnutt där jag säger några ord om vad det hela går ut på:

När jag ändå håller på och visar videor med mig själv i huvudrollen kan jag passa på att bjuda på en lika kort intervjusnutt inspelad i samband med det heldagsmöte rubricerat Ansvarsfull teknisk utveckling – AI, robotik och etik som Vetenskapsrådet (VR) anordnade i Stockholm den 8 mars i år:

Här mitt föredrag från samma möte:

Och här den paneldiskussion som avslutade VR:s möte och som jag också medverkade i:

måndag 25 mars 2019

Min medverkan i 2019 års Vetenskapsfestival: tre paneldiskussioner och ett föredrag

Nästa vecka är det dags för 2019 års upplaga av Vetenskapsfestivalen i Göteborg, och jag kommer i vanlig ordning att medverka i ett antal programpunkter:

  • I anslutning till ett föredrag av Michael Burdett, söndagen den 7 april klockan 13:00, med rubriken God, technology and artificial intelligence deltar jag i ett panelsamtal, där förutom Burdett även Ann-Sofie Axelsson, Martin Westerholm och Pontus Nilsen är med. Det hela äger rum i Kjell Härnqvistsalen, i Hus A, Pedagogen, vid Grönsakstorget.

torsdag 14 mars 2019

Hårt angripen i Humanisten

Igår fick jag hem det nya numret 1/2019 av Humanisternas medlemstidning Humanisten i brevlådan. Bland mycket annat bjuder det på ett rasande angrepp på mig av en medlem vid namn Ernst Herslow, som är så upprörd över vad jag i det föregående numret 4/2018 skriver om klimatfrågan och hur jag tycker att Humanisterna bör förhålla sig, att han villkorar sitt fortsatta medlemskap med att styrelsen tar avstånd från mina ståndpunkter. Med anledning av det utmärkta svaret till Herslow från styrelseledamoten Patrik Lindenfors förmodar jag att han (Herslow) nu lämnar Humanisterna.

Jag har ingen anledning att tro att Ernst Herslow läser denna blogg, men om någon läsare råkar känna honom undrar jag om ni kan hälsa honom följande.

Herslow är givetvis i sin fulla rätt att ha vilka (miss-)uppfattningar i klimatfrågan han vill, att torgföra dessa, och att gå till storms mot mig. Men jag skulle önska att, om han nu känner ett så trängande behov av att göra det sistnämnda, han höll sig till att angripa ståndpunkter jag faktiskt har och yttranden jag faktiskt gjort, istället för att fabulera och fantisera. Det irriterar mig en smula när han tillskriver mig ordvalet "avfälling"1 och den gravt felaktiga uppfattningen att "ett så komplext och kaotiskt system [som klimatet], med så många okända faktorer, styrs av en enda komponent, nämligen koldioxid"2.

Fotnoter

1) Såpass språkkänsla har jag att jag uppfattar det ordets sektmentalitetskonnotationer, och jag kan inte minnas att jag någonsin skulle ha tagit det i min mun.

2) Atmosfärens koldioxidhalt har stor betydelse för klimatet, men är givetvis inte den enda faktor som påverkar. Se t.ex. min gamla Uppsalainitiativet-bloggpost Koldioxid och procentsiffror för en närmare diskussion.

onsdag 13 mars 2019

Köpenhamnsapokalypsen

Torsdagen den 25 april uppträder jag på ITU (IT-universitetet i Köpenhamn) tillsammans med datalogen Thore Husfeldt med en debatt rubricerad "AI: Are we heading for the apocalypse?" (eller på ett annat språk "Kunstig intelligens: På vej mod apokalypsen?"). Kom och ta del av (och i) vår diskussion, om inte annat så för att äntligen få veta vad Thore och jag egentligen menade när vi i en gemensam debattartikel i Sydsvenska Dagbladet den 19 november förra året framhöll att "vi två som skriver denna text är djupt oeniga".

Skälet till att jag meddelar detta redan nu är att förhandsanmälan är obligatorisk och att mer än hälften av platserna till föreställningen redan gått åt. Så skynda fynda!

måndag 11 mars 2019

Our special issue on existential risk to humanity is now published

Regular visitors to this blog may recall the GoCAS guest resarcher program on existential risk to humanity that Anders Sandberg and I co-organized at Chalmers and the University of Gothenburg in September-October 2017; see, e.g., this blog post, and this one, and the one with links to talks from the two-day public workshop on September 7-8. The program featured daily discussion seminars that tended to be very creative and fruitful, and to go on for hours. After a long editorial process, a special issue of the journal Foresight has now been published, where ten papers outlining work discussed at these seminars are collected under the joint heading Existential risk to humanity. While the set of topics considered in this collection of papers is far from exhausting the set of topics discussed at our seminars, it nevertheless does offer a reasonably representative sample. From the guest editorial by Catherine Rhodes and myself:
    Existential risks are those that threaten the extinction of humanity or, somewhat more broadly, those “where an adverse outcome would either annihilate Earth-originating intelligent life or permanently and drastically curtail its potential” (Bostrom, 2002). While it has long been widely recognized that global nuclear war and catastrophic climate change have potentially civilization-threatening consequences, it is only in the last decade or two that scholars have begun, in work that is typically highly interdisciplinary, to systematically investigate a broader range of existential risks. A landmark event was a conference on global catastrophic risks in Oxford in 2008, and the accompanying book edited by Bostrom and Cirkovic (2008). Subsequent research has tended to confirm the impression from that event that, in the time frame of a century or so, natural risks (such as asteroid impacts) are out shadowed by anthropogenic ones. In addition, while much work remains to be done in identifying and understanding the various risks, there is at present an increasing focus also on how to avoid or mitigate them.

    We are not yet at a stage where the study of existential risk is established as an academic discipline in its own right. Attempts to move in that direction are warranted by the importance of such research (considering the magnitude of what is at stake). One such attempt took place in Gothenburg, Sweden, during the fall of 2017: an international guest researcher program on existential risk at Chalmers University of Technology and the University of Gothenburg, featuring daily seminars and other research activities over the course of two months, with Anders Sandberg serving as scientific leader of the program and Olle Häggström as chief local organizer, and with participants from a broad range of academic disciplines. The nature of this program brought substantial benefits in community building and in building momentum for further work in the field: of which the contributions here are one reflection. The present special issue of Foresight is devoted to research carried out and/or discussed in detail at that program. All in all, the issue collects ten papers that have made it through the peer review process.

Read the full editorial here. The ten papers:

måndag 4 mars 2019

Vår framtid med AI innebär stora möjligheter och stora risker

"Vår framtid med AI innebär stora möjligheter och stora risker" är rubriken dels på min artikel i senaste numret av Fysikatuellt, dels på mitt föredrag på det heldagsseminarium betitlat "Ansvarsfull teknisk utveckling - AI, robotik och etik" som Vetenskapsrådet arrangerar i Stockholm nu på fredag den 8 mars. Seminariet är fullbokat, så ni som inte redan är anmälda dit får hålla till godo med artikeln.