söndag 24 oktober 2021

Tre nya avsnitt av Vetenskapligt med Häggström & Livh

Podden Vetenskapligt med Häggström & Livh rullar på! Jämfört med med min förra rapportering här på bloggen har vi nu inte mindre än tre nya avsnitt ute.

I det första av dessa tre (och det fjärde totalt), talade vi med Stefan Schubert om grundidéerna i det enligt min uppfattning mycket viktiga tankesystem som på senare år vuxit fram under beteckningen effektiv altruism, och om hans egen psykologiska forskning kring hur människor förhåller sig dessa idéer. I det nästpåföljande avsnittet valde vi för omväxlings skull att inte bjuda in någon gäst alls, utan istället fokusera samtalet på de tankar om artificiell intelligens och dess samhällspåverkan som jag lyfter i min i våras utkomna bok Tänkande maskiner. Och i det allra senaste avsnittet, publicerat i förrgår, bjöd vi in klimatforskaren Christian Azar för att bland annat diskutera den ibland lite svåra balansgång som kan uppstå när man som forskare vill förse makthavare med relevant kunskap för att göra världen bättre utan att för den sakens skull tära på det förtroendekapital som vetenskapen besitter.

Vi är nu uppe i sex avsnitt, och fler är på gång. Här är den fullständiga listan över de avsnitt vi hittills publicerat:

2 kommentarer:

  1. Jag förmodar att du läst artikeln om longtermism i Aeon, där du tilldelas ett ganska långt citat om förebyggande bombning av Tyskland och det också uttrycks en del om Effektiv Altruism och utilitarianism...

    SvaraRadera
    Svar
    1. Yup. Det här är tredje eller fjärde gången som samme författare citerar exakt samma stycke ur Here Be Dragons som stöd för hans egen antilongtermistiska uppfattning (som jag inte delar), och gör det på ett sätt som döljer nyansrikedomen i mitt ställningstagande. Vid föregående tillfälle uttryckte jag irritation över hans tendentiösa sätt att lyfta detta, vilket denna gång föranledde hans tillägg om min tendens "otherwise to speak favourably of longtermism" (thank you, Phil!), men också tydligen gjort honom perplex (sorry about that, Phil, but honestly I don't know how to explain my nuanced position to you better than I've already done multiple times).

      Radera