En medborgare och matematiker ger synpunkter på samhällsfrågor, litteratur och vetenskap.
2. Pengar, pandemi och puffning med Linda Thunström, 5 augusti 2021.
3. Mitt i planeten med astronom Maria Sundin, 18 augusti 2021.
4. Medmänsklighet på smartast möjliga sätt med Stefan Schubert, 3 september 2021.
5. Tänkande maskiner, 29 september 2021.
6. Klimatforskare Christian Azar om att förse politiker med fakta, 22 oktober 2021.
2. Pengar, pandemi och puffning med Linda Thunström, 5 augusti 2021.
3. Mitt i planeten med astronom Maria Sundin, 18 augusti 2021.
2. Om statistisk signifikans, epigenetik och de norrbottniska farmödrarna, 23 februari 2014. Om en uppmräksammad medicinsk studie med så allvarliga och samtidigt lärorika brister att jag sedan dess regelbundet använt den som avskräckande exempel i min undervisning. Se även uppföljaren Epigenetiken i Överkalix och den statistiska signifikansen: Bygren bryter tystnaden.
3. Superintelligence odds and ends: index page, 19 september 2014. I anslutning till min recension av Nick Bostroms bok Superintelligence: Paths, Dangers, Strategies publicerade jag en serie bloggposter med fördjupande diskussion kring olika teman som tas upp i boken, och index page är som namnet antyder en (kommenterad) länk- och innehållsförteckning till dessa. Sju år har nu gått sedan Bostroms bok, och jag tvekar fortfarande inte att säga att detta är den bästa och viktigaste bok som skrivits om AI-risk och AI-säkerhet. Men området har (mycket tack vare boken) kommit att växa snabbt sedan dess, och för den som idag vill sätta sig in i det rekommenderar jag trots allt hellre någon av de nyare böcker som finns och som lyfter en del av det som hänt sedan 2014, som Stuart Russells Human Compatible (2019), Brian Christians The Alignment Problem (2020), eller min egen Tänkande maskiner (2021).
Häggström är ingen domedagsprofet. Men för den som tänker att en AI-apokalyps borde gå att stoppas enkelt, genom att bara lägga in ett simpelt förbehåll i programkoden, visar den här boken klart och tydligt varför saken är så mycket svårare. Pedagogiken är imponerande, därtill är språket ovanligt väl genomarbetat och litteraturhänvisningarna en guldgruva för den som vill gå djupare. ”Tänkande maskiner” kan faktiskt läsas utan särskilda förkunskaper, varken inom matematisk logik eller filosofisk etik – de två hållpunkterna för de spekulativa bågar som spänns. Självklart får då andra perspektiv stryka på foten. Trots det utsökt balanserade anslaget så framträder framtiden hos Häggström som ett val mellan två vägar: himmel och helvete.
Olle Häggström är professor i matematisk statistik vid Chalmers och Göteborgs universitet, och Stefan Livh är känd från sina många program i Sveriges Radio. Med hjälp av Olles forskarvänner lär vi oss om vetenskapen och vad den kan säga om framtiden.
Framtiden är inte vad den en gång var. Den kan bli ännu bättre!
Podcasten görs i samarbete med Naturvetenskapliga fakulteten vid Göteborgs Universitet.
[Bks] Brooks, R. (2017) The seven deadly sins of AI prediction, MIT Technology Review, October 6.
[Bwn] Brown, T. et al (2020) Language models are few-shot learners, https://arxiv.org/abs/2005.14165
[CK] Critch, A. and Krueger, D. (2020) AI research considerations for human existential safety (ARCHES), https://arxiv.org/abs/2006.04948
[FDS] Feng, D., Gomes, C. and Selman, B. (2020) A novel automated curriculum strategy to solve hard Sokoban planning instances, 34th Conference on Neural Information Processing Systems (NeurIPS 2020).
[G] Good, I.J. (1966) Speculations concerning the first ultraintelligent machine, Advances in Computers 6, 31-88.
[GSDZE] Grace, K., Salvatier, J., Dafoe, A., Zhang, B. and Evans, O. (2017) When will AI exceed human performance? Evidence from AI experts, https://arxiv.org/abs/1705.08807
[H] Häggström, O. (2021) Tänkande maskiner: Den artificiella intelligensens genombrott, Fri Tanke, Stockholm.
[KEWGMI] Kenton, Z., Everitt, T., Weidinger, L., Gabriel, I., Mikulik, V. and Irving, G. (2021) Alignment of language agents, https://arxiv.org/abs/2103.14659
[MB] Müller, V. and Bostrom, N. (2016) Future progress in artificial intelligence: A survey of expert opinion, in Fundamental Issues of Artificial Intelligence (ed. V. Müller), Springer, Berlin, p 554-571.
[PS] Perry, L. and Selman, B. (2021) Bart Selman on the promises and perils of artificial intelligence, Future of Life Institute Podcast, May 21.
[P18a] Pinker, S. (2018) Enlightenment Now: The Case for Reason, Science and Humanism, Viking, New York.
[P18b] Pinker, S. (2018) We’re told to fear robots. But why do we think they’ll turn on us? Popular Science, February 14.
[RWAACBD] Radford A., Wu, J., Amodei, D., Amodei, D., Clark, J., Brundage, M. and Sutskever, I. (2019) Better language models and their implications, OpenAI, February 14, https://openai.com/blog/better-language-models/
[Ru] Russell, S. (2019) Human Compatible: Artificial Intelligence and the Problem of Control, Viking, New York.
[SR] Sadler, M. and Regan, N. (2019) Game Changer: AlphaZero’s Ground-Breaking Chess Strategies and the Promise of AI, New In Chess, Alkmaar, NL.
[Si] Silver, D. et al (2018) A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play, Science 362, 1140-1144.
[So] Sotala, K. (2020) I keep seeing all kinds of crazy reports about people's experiences with GPT-3, so I figured that I'd collect a thread of them, Twitter, July 15.
[V] Vincent, J. (2020) AI camera operator repeatedly confuses bald head for soccer ball during live stream, The Verge, November 3.
[W] Waters, R. (2018) Why we are in danger of overestimating AI, Financial Times, February 5.
[Y08] Yudkowsky, E. (2008) Artificial intelligence as a positive and negative factor in global risk, in Global Catastrophic Risks (ed. N. Bostrom and M. Cirkovic), Oxford University Press, Oxford, p 308–345.
[Y17] Yudkowsky, E. (2017) There’s no fire alarm for artificial general intelligence, Machine Intelligence Research Institute, Berkeley, CA.
Rapporteringen om artificiell intelligens (AI) har de senaste åren kommit att uppta en successivt ökande del av mediaflödet, men jag vågar påstå att detta utrymme alltjämt är långt ifrån att stå i proportion till det genomgripande inflytande som fortsatt AI-utveckling kan väntas få på samhället och våra liv. Mycket av rapporteringen har därtill ett drag av naiv framstegsoptimism, där specifika AI-tillämpningars potential att förbättra världen framhålls utan att teknikens risker och avigsidor vägs in i diskussionen. Min avsikt med denna bok är att korrigera den balansen, och ge den mer allsidiga bild av teknikens möjligheter och risker som behövs för att vi – mänskligheten – ska kunna navigera undan de svåraste blindskären och gå mot den lysande framtid som tekniken rätt hanterad kan bidra till att skapa.
De samhällsutmaningar som AI-utvecklingen aktualiserar är av många slag. Redan existerande AI-teknik reser svåra frågor rörande allt från risken för automatiserad diskriminering, och effekter av sociala mediers AI-algoritmer, till hur vi på olika vis kan sätta AI i tjänst för att uppnå FN:s hållbarhetsmål. Jag tar i boken upp ett brett spektrum av sådana frågor, jämte ett knippe något mer långsiktiga frågor som den om vad AI-driven automatisering kan komma att innebära för arbetsmarknad och ekonomisk ojämlikhet, och vad vi eventuellt kan och bör göra för att bana väg för ett samhälle där vi arbetar mindre eller inte alls.
Det allra största utrymmet i boken får dock den på lång sikt kanske mest betydelsefulla AI-frågan av alla, nämligen den om vad som kan väntas ske den dag vi lyckas skapa en maskin som i termer av allmänintelligens matchar eller överträffar mänsklig förmåga. Frågan avfärdas ibland som esoterisk och alltför fantasifull för att tas på allvar, men jag menar att vi inte har råd att ignorera den. Den är numera föremål för ett växande forskningsområde, och ju mer jag studerat detta område desto mer övertygad har jag blivit om att ett AI-genombrott av det slag som avses, vilket skulle försätta oss i ett läge där vi inte längre kan ta vår roll som planetens härskare för given, kommer att bli antingen det bästa eller det mest katastrofala som hänt i mänsklighetens historia. Vilket av dessa båda diametralt motsatta utfall vi landar i kommer i hög grad att bero på hur noggrant vi förberett oss och hur väl vi lyckats styra AI-utvecklingen i rätt riktning.
I Tänkande maskiner diskuterar Olle Häggström den angelägna forskning, bitvis mycket kontroversiell, som börjat ta sig an de framtidsfrågor AI väcker. Utifrån en grundläggande entusiasm för AI-teknikens potential i mänsklighetens tjänst sorterar han fram teknikens avigsidor och risker – och hur de kan bemästras. Den kapplöpningsmentalitet och oreflekterade framåtanda som i dag dominerar AI-utvecklingen behöver ersättas med längre sikt och globalt samarbete, eftersom mänsklighetens framtid kan hänga på vilka mål och drivkrafter AI förses med.
Det här är pedagogik för vår tid. Olle visar stor respekt för sina läsare. Han kräver inga särskilda förkunskaper men förutsätter en villighet och en förmåga att följa långa resonemang, att överblicka stora sammanhang och att uppfatta nyanserade distinktioner och begrepp.
Det är uppfordrande men framförallt bemyndigande och inbjudande. Alla är välkomna på en resa hela vägen till de mest brännande frågorna vid forskningens spets. I sann demokratisk anda visar Olle just den öppenhet och det förtroende som samtidigt krävs av oss alla för att tillsammans och med insikt fatta kloka beslut om vår gemensamma framtid.