tisdag 7 september 2021

Befängt möte i SVT om AI-futurologi

SVT:s programserie Mötet går ut på att i 15 minuter långa avsnitt tussa ihop två personer med radikalt olika åsikt i någon fråga. I det senaste avsnitt som nu är tillgängligt på SVT Play möts Anders Hedman (docent i människa-datorinteraktion vid KTH) och Fredrik Löfgren (robotutvecklare vid Linköpings universitet) för att diskutera vår framtid med robotar och AI. Deras samtal är i stort sett från början till slut befängt, och båda två företräder ståndpunkter som (fastän helt olika) får mig att slita mitt hår över vilken närmast bottenlös naivitet som förekommer bland forskare på området.

Hedman, å ena sidan, ser datorer och robotar som själlösa skal, och är av någon anledning bombsäker på att inte bara de robotar vi har idag, utan även varje tänkbar framtida robot, saknar medvetande. Någon antydan till förklaring till varför så skulle vara fallet ges inte, och angående datorkreativitet1 avfärdar han de exempel på detta vi ser redan idag med hänvisning till att maskinen ju innerst inne ingenting förstår. Han verkar sitta så hårt fast i det jag kallar neurochauvinism2 att varje tanke på sociala relationer mellan människa och maskin fyller honom med avsky, och hans biologiska hjärna verkar rätt och slätt stängd för tanken att något annat än just biologiska hjärnor skulle kunna vara säten för kännande subjekt. I slutändan kan det för all del komma att visa sig att Hedmans medvetandemetafysik är korrekt, ty frågan om medvetandets plats i universum och vilka slags entiteter som är medvetna är alltjämt vidöppen,3 men just den saken gör hans tvärsäkerhet i frågan epistemiskt djupt omdömeslös.

Löfgren, å andra sidan, drar åt motsatt uppfattning i frågan om robotmedvetande, om än kanske inte med fullt lika hög grad av dogmatism som sin samtalspartner. Det som verkligen provocerar mig hos Löfgren är istället hans äppelkäckt bekymmersfria syn på framtida AI-utveckling. Han medger visserligen på något ställe i programmet att visst finns det risker, men detta verkar mest vara en läpparnas bekännelse, och till och med tanken på att mänskligheten skulle kunna tänkas gå under och ersättas av en population av superintelligenta robotar får honom att rycka på axlarna och säga att det är väl helt i sin ordning - evolutionens gång helt enkelt. Den sammanblandning han här gör mellan intelligensnivå och moraliskt värde gör att jag nästan känner förståelse för Hedman när denne anklagar Löfgren för fascism (fastän han gör det på ogenomtänkta grunder). Att världen skulle kunna gå mot en ljus framtid ifall robotar ersätter människor är som jag ser det inte alls otänkbart, men att så automatiskt skulle bli fallet är naivt att ta för givet, och man kan undra hur Löfgren ser på något så groteskt motbjudande och meningslöst som en gemapokalyps.4

En riktigt dålig diskussion blev det hur som helst, och på sätt och vis är jag medskyldig till detta. I våras var jag nämligen indragen i långt gångna underhandlingar om att medverka som motpart åt Fredrik Löfgren i detta program. Jag vill gärna tänka mig att en sådan konfrontation hade kunnat bli betydligt vettigare än det som nu blev. Säker kan jag dock inte vara, bland annat med tanke på att det handlar om flera timmars inspelning som brutalt klipps ned till 15 minuter, och klippning kan ju göras illasinnat. (Av samma skäl kan det i princip vara så att både Hedman och Löfgren är betydligt mindre flänga än de framstår i programmet, och därför bör denna bloggpost för säkerhets skulle läsas som att den inte handlar om Hedman och Löfgren själva utan bara om de nidbilder av dem som SVT presenterat.)

Tacksam känner jag mig hur som helst över att jag drog mig ur, vilket jag tog chansen att göra när någon programassistent jag inte minns namnet på för tredje gången ville flytta på det inspelningstillfälle jag med stor möda gjort plats för i min kalender. Vid det laget hade jag hunnit se det bisarra och snudd på lyteskomiska avsnitt i vilket min gode vän Christer Sturmark konfronteras med en galen spiritist, vilket gav mig kalla fötter. Det beryktade Saltkråkan-avsnittet, som om möjligt är ännu värre, såg jag först senare, och jag gratulerade mig själv ännu en gång till att ha sluppit undan medverkan i ett sådant spektakel.

Fotnoter

1) Se s 40-43 i min bok Tänkande maskiner.

2) Tänkande maskiner, s 236.

3) Tänkande maskiner, s 223-241.

4) Tänkande maskiner, s 103-111.

torsdag 2 september 2021

Interviewed by Erich Grunewald

I was recently interviewed by Erich Grunewald, who posted the interview on his blog (with a linkpost also at LessWrong). We covered a variety of topics, but the main focus was on Sweden: its intellectual, academic and political landscape, and how I navigate these waters. I feel it turned out fairly intereting, and even those readers who know me well are likely to find out a thing or two about me that they didn't already know.

måndag 30 augusti 2021

AI-tema i nya numret av Respons

Alla som har anledning att intressera sig för AI-teknikens framtida samhällskonsekvenser (dvs kort sagt alla) bör läsa ett par av texterna i det nyutkomna tidskriftsnumret Respons 4/2021: Jag skall här kort kommentera den andra av dessa. Låt mig till att börja med understryka att jag verkligen uppskattar när Helena Granström tar sig an något jag skrivit (det har hänt förr). Denna gång hade jag faktiskt på känn att en recension av Tänkande maskiner från henne nog var på gång, sedan en av hennes krönikor i P1:s Godmorgon Världen i somras bjudit på ett par vändningar som väldigt mycket lät som om inspirationen till dem hämtats i min bok. Hon är alltid påläst, och tenderar att anlägga perspektiv som skiljer sig lagom mycket från mina för att intressanta spänningar i synen på världen skall komma i dagen.

Av den nu aktuella recensionen framgår att Granström på det stora hela är positivt inställd till min bok. Men i sista stycket av recensionen blir det tydligt hur starkt provocerad hon är av ett påpekande i boken som hon återger:
    När [datorspelen och de virtuella världarna] nått samma variationsrikedom som den fysiska världen inställer sig frågan på vilket sätt de skulle vara sämre.
De sista meningarna av sin recension ägnar hon åt att inskärpa värdet av den fysiska verkligheten, dock utan att lyckas peka ut någon egenskap hos denna som påvisats vara omöjlig att återskapa i en virtuell verklighet. Hon menar att min fråga
    bottnar i ett grundläggande ointresse för det som kanske i slutändan visar det enda som skiljer oss från maskinerna, oavsett om de är reklamalgoritmer eller ”sociala robotar”, nämligen att vi besitter en subjektivitet grundad i kroppslig erfarenhet,
men med risk för att låta en smula gnällig vill jag här tillbakavisa hennes påstående om ”ointresse”. Min fråga grundar sig (bland annat) i att jag väldigt gärna vill förstå huruvida vårt besittande av ”en subjektivitet grundad i kroppslig erfarenhet” verkligen är något som fundamentalt skiljer oss från maskinerna, men jag tar inte för givet att så är fallet, vilket jag vill mena indikerar intresse snarare än ointresse.

onsdag 18 augusti 2021

Ekonomi och astronomi på vår nya podd

Efter det tidigare annonserade premiäravsnittet har vi denna månad hunnit lägga ut ytterligare två avsnitt av podden Vetenskapligt med Häggström & Livh. Först talade vi med Linda Thunström från University of Wyoming om hennes många påpassliga tillämpningar av nationalekonomiska metoder på olika samhällsfenomen (inklusive covid-19-pandemin), och därefter med Maria Sundin på Göteborgs universitet om allehanda entiteter på stjärnhimlen som väcker vår nyfikenhet, inklusive den gäckande rymdstenen Oumuamua och sökandet efter spår av liv på exoplaneter. Mer är på gång, men här är de tre avsnitt vi hittills publicerat:

lördag 24 juli 2021

Häggström hävdar tio år!

Idag är det på dagen tio år sedan som Häggström hävdar såg dagens ljus. Jubileet sammanfaller nära i tid med en annan, mer uppmärksammad och mer makaber, tioårsdag, och som jag framhöll i det första blogginlägget är det inte helt och hållet någon tillfällighet:
    Det är inte en slump att jag lanserar min blogg blott ett par dagar efter de ohyggliga terrordåden i Oslo och på Utöya. Min starkaste reaktion, utöver fasa över det lidande som gärningsmannen orsakat och de många människoliv han släckt, är en känsla av beslutsamhet: Vi som tror på demokrati, mänskliga rättigheter och det öppna samhället skall fortsätta arbeta för dessa värden utan att låta oss skrämmas av galna extremister. Sjösättandet av bloggen får gärna tolkas som en markering i den riktningen.
Längre fram i samma bloggpost meddelar jag att jag avser att "på bloggen kommentera både vetenskapliga resultat och politiska/ideologiska spörsmål".1 Denna utfästelse tycker jag mig ha infriat, i de cirka 800 bloggposter som sedan följt.

Som intensivast arbetade jag med bloggen de första fem-sex åren, då jag snittade ett par bloggposter i veckan, och var angelägen om att leverera ett någorlunda kontinuerligt flöde av intressant innehåll. Nu är ambitionen lägre, och jag använder bloggen framför allt som skyltfönster för mina övriga publika aktiviteter, som exempelvis min senaste bok Tänkande maskiner,2 och den nystartade podden Vetenskapligt med Häggström & Livh.

Låt mig fira tioårsdagen med att lyfta det gångna decenniets tre mest lästa inlägg på bloggen. Notabelt är att alla tre kom inom en och samma 18-månadersperiod, som eventuellt kan betecknas som bloggens (hittills) främsta glansperiod.

Fotnoter

1) Omedelbart därefter meddelar jag att "denna blandning är inte oproblematisk", ett tema jag utvecklat mer på djupet bland annat i ett offentligt samtal med Hanna Jedvik i höstas.

2) Jag kan passa på att meddela att boken nyligen fått ett par (med svenska mått mätt) högprofilerade recensioner: Båda recensionerna är mestadels positiva, och i synnerhet Fleischer bjuder på några spänstiga passager jag gärna citerar:
    Ganska tidigt in i ”Tänkande maskiner” finner sig läsaren på ett sluttande plan ner mot en bottenlös fasa. Tänk en myggsvärm, fast varje mygga är en liten robot utrustad med nervgift. Svärmen tar hjälp av ansiktsigenkänning för att finna och likvidera sina offer. Tekniken för sådana mördarrobotar behöver inte ligga jättemånga år fram i tiden, redo att släppas på svarta marknaden. [...]

    Häggström är ingen domedagsprofet. Men för den som tänker att en AI-apokalyps borde gå att stoppas enkelt, genom att bara lägga in ett simpelt förbehåll i programkoden, visar den här boken klart och tydligt varför saken är så mycket svårare. Pedagogiken är imponerande, därtill är språket ovanligt väl genomarbetat och litteraturhänvisningarna en guldgruva för den som vill gå djupare. ”Tänkande maskiner” kan faktiskt läsas utan särskilda förkunskaper, varken inom matematisk logik eller filosofisk etik – de två hållpunkterna för de spekulativa bågar som spänns. Självklart får då andra perspektiv stryka på foten. Trots det utsökt balanserade anslaget så framträder framtiden hos Häggström som ett val mellan två vägar: himmel och helvete.

tisdag 20 juli 2021

Vetenskapligt med Häggström & Livh

Stefan Livhs och min nya podd Vetenskapligt med Häggström & Livh går nu att ta del av via de vanliga poddplattformarna, som denna. Så här presenterar vi podden:
    En liten podd om de stora ämnena. Vad säger forskningen om hur vi kan säkerställa en ljus framtid för mänskligheten? Hur hejdar vi den globala uppvärmningen, hur skyddar vi oss mot framtida pandemier, och hur farlig kan artificiell superintelligens bli?

    Olle Häggström är professor i matematisk statistik vid Chalmers och Göteborgs universitet, och Stefan Livh är känd från sina många program i Sveriges Radio. Med hjälp av Olles forskarvänner lär vi oss om vetenskapen och vad den kan säga om framtiden.

    Framtiden är inte vad den en gång var. Den kan bli ännu bättre!

    Podcasten görs i samarbete med Naturvetenskapliga fakulteten vid Göteborgs Universitet.

Huvudnumret i vårt första avsnitt är ett samtal med den oförliknelige framtidsforskaren och kollegan Anders Sandberg. Fler avsnitt kommer!

tisdag 6 juli 2021

Artificial general intelligence and the common sense argument

Consider the distinction between narrow AI and artificial general intelligence (AGI), the former being AI specialized on a limited range of capabilities and tasks, and the latter denoting a hypothetical future AI technology exhibiting the flexibility and the full range of cognitive capabilities that we associate with human intelligence. Timelines for when (if ever) AGI will be built are highly uncertain [MB,GSDZE], but scientific debate on the issue has become more pressing in recent years, following work on possible catastrophic consequences of an AGI breakthrough unless sufficient care is taken in aligning the machine’s goals with human values [Y08,Bo,Ru,H].

A common argument for long or infinite timelines until AGI is to point to some example where present-day AI performs badly compared to humans, and to take this as a lack of “common sense” and an indication that constructing AGI is far beyond our current capabilities, whence it cannot plausibly become reality anytime soon [Bks,W,P18a,P18b]. We have all seen YouTube videos of robots tripping over their toes used for this purpose, and a recent viral case concerned an AI meant to steer a TV camera to track the ball during a football game which instead tracked the head of a bald linesman [V]. Such utter lack of common sense! An implicit or sometimes explicit conclusion tends to be that concerns about future machines taking control of the world are overblown and can be dismissed.

I believe that the central position assigned to concept of AGI in the AI futurology and AI safety literature has, via the following implicit narrative, given undue credence to the idea that AI existential risk is exclusively an issue concerning the far future. For AI to become AGI, we need to equip it with all of the myriad competences we associate with common sense, one after the other, and only then will it be ready to enter the spiral of self-improvement that has been suggested may lead to an intelligence explosion, superintelligence, and the ability to take over the world [G,Bo,H].

But common sense is a vague notion – it tends to be simply a label we put on any ability where humans still outperform AI. Hence, by the very definition of AGI, we will be able to point to common sense failures of AI up until the very moment AGI is created, so the argument that such failures show that AGI is a long way off is unsound; see [Y17] for a similar observation.

More importantly, however: AGI may not be necessary for the self-improvement spiral to take off. A better narrative is the following. We are already at a stage where AIs are better than humans at some cognitive tasks while humans remain better than AIs at others. For instance, AIs are better at chess [Si,SR], while humans are better at tracking a football [V]. A human pointing to the football example to show that AIs lack common sense has no more force than an AI pointing to chess to show that humans lack common sense. Neither of them fully dominates the other in terms of cognitive capabilities. Still, AI keeps improving, and rather than focusing on full dominance of AI (as encouraged by the AGI concept) the right question to ask is in what range of cognitive capacities AI needs to master in order to be able to seize power from humans. Self-improvement (i.e., constructing advanced AI) is probably a key competence here, but what does that entail?

There is probably little reason to be concerned about, say, the AlphaZero breakthrough [Si,SR], as two-player zero-sum finite board games with full information is unlikely to be the most significant part of the intelligence spectrum. More significant, probably, is the use of language, as a large fraction of what a human does to control the world is via language acts. It is also a direction of AI that has seen dramatic improvements in the last few years with large-scale natural language processors like GPT-2 and GPT-3 [RWAACBD,Bwn,So,KEWGMI]. With the launch of GPT-3, it was stressed that no new methods were employed compared to GPT-2: the improved performance was solely a consequence of brute-force upscaling. Nobody knows where the ceiling is for such upscaling, and it is therefore legitimate to ask whether the crucial ingredient to make AI’s ability to control the world surpass that of humans might lie in the brute-force expansion of such language models.

If it seems counterintuitive that an AI would attain the ability to take over the world without first having mastered common sense, consider that this happens all the time for smaller tasks. As an illustrative small-scale example, take the game of Sokoban, where the player moves around in a maze with the task of pushing a collection of boxes to a set of prespecified locations. An AI system for solving Sokoban puzzles was recently devised and exhibited superhuman abilities, but apparently without acquiring the common sense insight that every human player quickly picks up: if you push a box into a corner, it will be stuck there forever [FDS,PS]. No clear argument has been given for why efficient problem solving lacking in common sense would be impossible for a bigger task like taking over the world.

To summarize, I believe that while the notion of AGI has been helpful in the early formation of ideas in the futurology and philosophy of AI, it has also been a source of some confusion, especially via the common sense argument discussed above. AI existential risk literature might therefore benefit from a less narrow focus on the AGI concept. Such a shift of focus may be on its way, such as in the recent authoritative research agenda [CK] where talk of AGI is almost entirely abandoned in favor of other notions such as prepotent AI, meaning AI systems whose deployment would be at least as transformative to the world as humanity itself and unstoppable by humans. I welcome this shift in discourse.

References

[Bo] Bostrom, N. (2014) Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford.

[Bks] Brooks, R. (2017) The seven deadly sins of AI prediction, MIT Technology Review, October 6.

[Bwn] Brown, T. et al (2020) Language models are few-shot learners, https://arxiv.org/abs/2005.14165

[CK] Critch, A. and Krueger, D. (2020) AI research considerations for human existential safety (ARCHES), https://arxiv.org/abs/2006.04948

[FDS] Feng, D., Gomes, C. and Selman, B. (2020) A novel automated curriculum strategy to solve hard Sokoban planning instances, 34th Conference on Neural Information Processing Systems (NeurIPS 2020).

[G] Good, I.J. (1966) Speculations concerning the first ultraintelligent machine, Advances in Computers 6, 31-88.

[GSDZE] Grace, K., Salvatier, J., Dafoe, A., Zhang, B. and Evans, O. (2017) When will AI exceed human performance? Evidence from AI experts, https://arxiv.org/abs/1705.08807

[H] Häggström, O. (2021) Tänkande maskiner: Den artificiella intelligensens genombrott, Fri Tanke, Stockholm.

[KEWGMI] Kenton, Z., Everitt, T., Weidinger, L., Gabriel, I., Mikulik, V. and Irving, G. (2021) Alignment of language agents, https://arxiv.org/abs/2103.14659

[MB] Müller, V. and Bostrom, N. (2016) Future progress in artificial intelligence: A survey of expert opinion, in Fundamental Issues of Artificial Intelligence (ed. V. Müller), Springer, Berlin, p 554-571.

[PS] Perry, L. and Selman, B. (2021) Bart Selman on the promises and perils of artificial intelligence, Future of Life Institute Podcast, May 21.

[P18a] Pinker, S. (2018) Enlightenment Now: The Case for Reason, Science and Humanism, Viking, New York.

[P18b] Pinker, S. (2018) We’re told to fear robots. But why do we think they’ll turn on us? Popular Science, February 14.

[RWAACBD] Radford A., Wu, J., Amodei, D., Amodei, D., Clark, J., Brundage, M. and Sutskever, I. (2019) Better language models and their implications, OpenAI, February 14, https://openai.com/blog/better-language-models/

[Ru] Russell, S. (2019) Human Compatible: Artificial Intelligence and the Problem of Control, Viking, New York.

[SR] Sadler, M. and Regan, N. (2019) Game Changer: AlphaZero’s Ground-Breaking Chess Strategies and the Promise of AI, New In Chess, Alkmaar, NL.

[Si] Silver, D. et al (2018) A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play, Science 362, 1140-1144.

[So] Sotala, K. (2020) I keep seeing all kinds of crazy reports about people's experiences with GPT-3, so I figured that I'd collect a thread of them, Twitter, July 15.

[V] Vincent, J. (2020) AI camera operator repeatedly confuses bald head for soccer ball during live stream, The Verge, November 3.

[W] Waters, R. (2018) Why we are in danger of overestimating AI, Financial Times, February 5.

[Y08] Yudkowsky, E. (2008) Artificial intelligence as a positive and negative factor in global risk, in Global Catastrophic Risks (ed. N. Bostrom and M. Cirkovic), Oxford University Press, Oxford, p 308–345.

[Y17] Yudkowsky, E. (2017) There’s no fire alarm for artificial general intelligence, Machine Intelligence Research Institute, Berkeley, CA.

onsdag 9 juni 2021

Aktuella poddframträdanden

Den senaste veckan har inte mindre än tre poddavsnitt där jag medverkar släppts: Och det här är kanske också ett tillfälle så gott som något att jag inom kort är redo att lansera en egen podd. Stay tuned!

Fotnot

1) Det var tack vare ett tidigare inlägg här på Häggström hävdar som Erikssson och Jönsson kom på att bjuda in mig för att diskutera Nick Bostroms simuleringsargument. Det blev ett bra samtal, men när poddmakarna på tal om att Bostrom långt ifrån var först med att lyfta tanken att den verklighet vi lever i kanske inte utgör den högsta eller mest fundamentala verklighetsnivån frågade varför det var först med Bostroms argument som jag började ta denna tanke på visst allvar, så gav jag ett lite lamt svar. Ett bättre svar hade varit följande. Det var inte (den i mitt tycke skakiga) bostromska sannolikhetskalkylen som övertygade mig. Iställdet var det hur väl hans resonemang levandegjorde möjligheten att i vår egen verklighet bädda in andra (simulerade) verkligheter, varifrån slutsatsen nästan föreslår sig självt att denna vår egen verklighet skulle kunna ligga inbäddad i en högre sådan.

tisdag 8 juni 2021

Tendentiöst i DN om labbläckehypotesen

DN rapporterade i lördags om diskussionerna kring huruvida covid-19-pandemin kan ha sitt ursprung i en labbläcka från Wuhan Institute of Virology (WIV), och hur Anthony Fauci (av DN kallad "USA:s Anders Tegnell") därvid hamnat i blåsväder. Artikeln bjuder på följande passage:
    En annan ingrediens som är mumma för konspirationsteoretikerna är att Wuhan-labbet fått internationella bidrag för sin forskning - bland annat från den smittskyddsmyndighet som Anthony Fauci är chef för - och det påstås också att det bedrevs viss forskning som syftade till att förändra virus.
Två ordval här får mig att reagera. För det första, "påstås". Vadå "påstås"? Att gain-of-function-forskning1 bedrivits vid WIV är inte något löst påstående av några opålitliga tyckare, utan ett faktum som även WIV-forskarna själva stolt givit spridning åt. Se exempelvis Nature Medicine-artikeln A SARS-like cluster of circulating bat coronaviruses shows potential for human emergence från 2015, med medverkan av WIV-forskare under ledning av Shi Zhengli.

För det andra, "konspirationsteoretikerna". DN:s reporter Juan Flores gör sitt bästa att framställa labbläckediskussioner som konspirationsteorier. Men att gain-of-function-forskning förekommer på viruslaboratorier här och var inklusive på WIV är som sagt obstridligt, liksom det faktum att många incidenter förekommit genom historien (inte minst i samband med sovjetiska biovapenprogram) där farliga smittämnen läckt från biolaboratorier. Härtill är även bristen på transparens hos kinesiska myndigheter ett okontroversiellt faktum. Om vi lägger samman dessa saker med det osäkra evidensläget (troligtvis finns inte någon enda människa som med säkerhet känner till virusets ursprung) och den allmänmänskliga benägenheten att önsketäkna och skylla ifrån sig, så inses lätt att labbläckehypotesen inte förutsätter några konspirationer eller hemliga överenskommelser i rökiga rum.

Ändå var det så labbläckehypotesen framställdes genom hela 2020: som en konspirationsteori. Därigenom blev ämnet mer eller mindre tabu i anständiga kretsar.2 Tongivande härvidlag blev den Lancet-artikel i början av 2020, med en rad tunga namn på författarlistan, som förkunnade att "We stand together to strongly condemn conspiracy theories suggesting that COVID-19 does not have a natural origin".3

Tonläget har emellertid under 2021 förändrats, mycket tack vare ett par gedigna artiklar - av Nicholas Baker i New York Magazine, respektive Nicholas Wade i Bulletin of the Atomic Scientists - som pekar dels på svagheterna i den evidens som framhölls i Lancet-artikeln, dels på omfattande annan evidens som mer tyder på en labbläcka.4 Allt fler seriösa tänkare och debattörer betraktar nu labbläckehypotesen som minst lika sannolik som hypotesen om virusets naturliga ursprung,5 och tabut får nu anses tillräckligt brutet för att möjliggöra förutsättningslös och seriös diskussion i frågan. Men DN har inte hängt med, och fortsätter att vifta med konspirationsteoristämpeln.

Jag skulle gärna se att DN tänkte om på denna punkt, för frågan om covid-virusets ursprung är viktig. Det handlar inte i första hand om någon historisk kuriositet eller om att avgöra den uppmärksammade vadslagningen mellan Martin Rees och Steven Pinker, eller ens om att peka finger mot de eventuella skyldiga, utan om att försätta oss i ett så bra kunskapsläge som möjligt för att förebygga nästa pandemi, som mycket väl kan komma att bli långt värre än covid-19.

Fotnoter

1) Med gain-of-function-forskning avses modifiering av virus eller andra smittämnen för att göra dem mer smittsamma eller farligare. Avsikten är att lära sig mer om vad mutationer i naturen kan tänkas åstadkomma och därigenom öka vår beredskap inför framtida smittoutbrott. Inom bland annat xrisk-forskningen är vi emellertid många som anser att risken för labbläckor gör gain-of-function-forskningen oacceptabelt farlig. Jag berörde saken kort i min bok Here Be Dragons från 2016, och uttryckte tillfredsställelse över att Obamaadministrationen 2014 beslutat om att förbjuda federal finansiering av gain-of-function-forskning, men detta förbud upphävdes några år senare under Trump (och Fauci), och hur som helst så behövs såklart skarpare lagstiftning än så för att säkerställa att vårdslös forskning av detta slag upphör.

2) I mer oanständiga kretsar var det däremot fritt fram, något som kan ha bidragit ytterligare till att misskreditera labbläckehypotesen bland anständigt folk.

3) Artikeln meddelar också "We declare no competing interests", vilket är vilseledande med tanke på att initiativtagaren till artikeln, Peter Daszak, har starka kopplingar till gain-of-function-forskningen vid WIV.

4) Den som hellre läser på svenska kan alternativt vända sig till Ola Wongs artikel i Kvartal.

5) Bland dem som de senaste veckorna till och med vågat uppge en subjektiv bayesiansk sannolikhet för labbläckehypotesen återfinns bland andra jag själv (55%), Nate Silver (60%), och Eliezer Yudkowsky (80%).

måndag 10 maj 2021

måndag 26 april 2021

Tänkande maskiner nu på bokhandelsdiskarna!

Vi skriver idag måndagen den 26 april 2021 - dagen då min nya bok Tänkande maskiner: Den artificiella intelligensens genombrott äntligen släpps till försäljning. Köp den hos era lokala bokhandlare, eller på exempelvis Bokus eller Adlibris! Och kom gärna på något av de digitala evenemang som ordnas med anledning av boken. Följande två är spikade och öppna för allmänheten, men fler kommer: Som en liten aptitretare bjuder jag härmed på några inledande stycken från boken:
    En utomjordisk betraktare av vår planet skulle knappast kunna undgå att lägga märke till den dominerande ställning över andra djur och växter som Homo sapiens skaffat sig. Den manifesterar sig bland annat i storstädernas imponerande skylines och i de ofantliga arealer vi lagt under oss för jord- och skogsbruk, men också i en eskalerande atmosfärisk koldioxidhalt och i den tillbakagång av biodiversitet som brukar betecknas som planetens sjätte massutdöendeepok. Allt detta och mer därtill är människans verk. Vår dominans har dock väldigt lite att göra med vår muskelstyrka eller fysiska uthållighet: istället är det vår intelligens som ger oss ett avgörande övertag. Intelligensen är ett universalredskap, med hjälp av vilket vi lyckats med så skilda saker som att bygga broar, monument och världsomspännande mobiltelefonnät; skriva poesi; klyva atomkärnor; bekämpa pandemier; och till och med landsätta några av oss på månen. Den enorma förmåga att omstöpa världen som intelligens och tankekraft ger oss stämmer till eftertanke när vi nu är i full färd med projektet att skapa tänkande maskiner.

    Rapporteringen om artificiell intelligens (AI) har de senaste åren kommit att uppta en successivt ökande del av mediaflödet, men jag vågar påstå att detta utrymme alltjämt är långt ifrån att stå i proportion till det genomgripande inflytande som fortsatt AI-utveckling kan väntas få på samhället och våra liv. Mycket av rapporteringen har därtill ett drag av naiv framstegsoptimism, där specifika AI-tillämpningars potential att förbättra världen framhålls utan att teknikens risker och avigsidor vägs in i diskussionen. Min avsikt med denna bok är att korrigera den balansen, och ge den mer allsidiga bild av teknikens möjligheter och risker som behövs för att vi – mänskligheten – ska kunna navigera undan de svåraste blindskären och gå mot den lysande framtid som tekniken rätt hanterad kan bidra till att skapa.

    De samhällsutmaningar som AI-utvecklingen aktualiserar är av många slag. Redan existerande AI-teknik reser svåra frågor rörande allt från risken för automatiserad diskriminering, och effekter av sociala mediers AI-algoritmer, till hur vi på olika vis kan sätta AI i tjänst för att uppnå FN:s hållbarhetsmål. Jag tar i boken upp ett brett spektrum av sådana frågor, jämte ett knippe något mer långsiktiga frågor som den om vad AI-driven automatisering kan komma att innebära för arbetsmarknad och ekonomisk ojämlikhet, och vad vi eventuellt kan och bör göra för att bana väg för ett samhälle där vi arbetar mindre eller inte alls.

    Det allra största utrymmet i boken får dock den på lång sikt kanske mest betydelsefulla AI-frågan av alla, nämligen den om vad som kan väntas ske den dag vi lyckas skapa en maskin som i termer av allmänintelligens matchar eller överträffar mänsklig förmåga. Frågan avfärdas ibland som esoterisk och alltför fantasifull för att tas på allvar, men jag menar att vi inte har råd att ignorera den. Den är numera föremål för ett växande forskningsområde, och ju mer jag studerat detta område desto mer övertygad har jag blivit om att ett AI-genombrott av det slag som avses, vilket skulle försätta oss i ett läge där vi inte längre kan ta vår roll som planetens härskare för given, kommer att bli antingen det bästa eller det mest katastrofala som hänt i mänsklighetens historia. Vilket av dessa båda diametralt motsatta utfall vi landar i kommer i hög grad att bero på hur noggrant vi förberett oss och hur väl vi lyckats styra AI-utvecklingen i rätt riktning.

fredag 26 mars 2021

Början till boklansering

Idag är det exakt en månad kvar tills min nya bok Tänkande maskiner: Den artificiella intelligensens genombrott släpps den 26 april, och ett visst mått av (coronaanpassad) boklansering har jag tänkt försöka få till. Det mesta är inte spikat ännu, men här är några punkter, varav tre redan nu går att ta del, medan de sista två kommer att kunna avnjutas i nästa månad:

söndag 14 februari 2021

Disillusioned about the New York Times

Until not very long ago, I used to regard the New York Times (NYT) as a beacon of sanity, truth and enlightenment. But not any more. In terms of trustworthiness, I now rank it on the same level as Breitbart News, Alex Jones, Donald Trump's Twitter account, and various climate denialism blogs such as the Orwellianly named Klimatupplysningen.1

Coming to this standpoint has been a painful and somewhat gradual process. So what triggers me to bring up the topic right now? Readers will be forgiven who think it must be NYT's intolerant and totemic witch hunt and word magic very similar to what was protrayed more than 40 years ago in the Jehova scene of the Monty Python movie Life of Brian.

But no. While that sort of thing does contribute to my change of hearts in how I view NYT, what triggers me today is their malicious hit piece yesterday against the rationalist movement in general and blogger Scott Alexander in particular. The piece is appallingly dishonest, and deals not so much in outright falsehoods (although one such untruth is the claim about the contents of James Damore's 2017 Google Memo) as in guilt-by-association routines and dozens of other insidious insinuations (such as the claim about rationalists that "some [of them] practiced polyamory", which is probably true, but is clearly meant to have the same effect on readers as the statement "some of them are rumoured to be homosexuals" would have had in the mid-20th century). If you absolutely must read the horrible NYT piece, then please make sure also to read the rebuttals by Scott Aaronson and by Scott Alexander himself. Especially the former makes clear that many of the misrepresentations in the NYT piece are not mistakes (which would be bad enough) but fully intentional.

Footnote

1) Well, not really. I'm exaggerating. But if the New York Times can allow itself to engage in sensationalist falsehoods, then so can I.

lördag 13 februari 2021

SVT:s alltför hovsamma pandemibevakning: ett exempel

Cirka fyra minuter in i SVT:s nyhetsprogram Rapport i förrgår (den 11 februari) får vi tittare hänga med när de beger sig ut för att ta del av den dåliga följsamheten med Folkhälsomyndighetens anvisning om munskydd i kollektivtrafiken i rusningstid. Folk utan munskydd konfronteras. De åmar sig, kråmar sig och famlar efter förklaringar, och det hela är riktigt pinsamt. Och kanske är det bra journalistik. Men när reportern (vid pass 4:50) får besked av Anders Tegnell att "vi utgår från och hoppas att folk följer våra rekommendationer i så stor utsträckning som det överhuvudtaget är möjligt" och att det är "tråkigt att det blivit så här", då tänker jag att det hade blivit ännu bättre journalistik om reportern ställt de uppenbara följdfrågorna:
    Men vad är ditt eget ansvar för att det blivit såhär, Anders Tegnell? Kan man tänka sig att folks obenägenhet att bära munskydd åtminstone till en del är en konsekvens av den envisa och nästan årslånga, tendentiösa och vetenskapligt ogrundade kampanj mot munskydd som du drivit? Kan det vara rimligt att tolka detta som ett fall av "som man sår får man skörda"?

måndag 1 februari 2021

Tänkande maskiner

Nu när nätbokhandlar som Adlibris och Bokus börjat annonsera min kommande bok Tänkande maskiner: Den artificiella intelligensens genombrott är det hög tid att jag gör detsamma här på bloggen.

Boken utkommer den 26 april i år på bokförlaget Fri Tanke, som i sin marknadsföring meddelar följande:
    AI är på god väg att revolutionera vår värld och ligger till grund för mycket teknik som skänker bekvämlighet åt våra liv. Men utvecklingen för också med sig problem och risker. Hur de sociala mediernas AI-algoritmer optimerats för att ge näring åt vårt mobilberoende eller skapar grogrund för filterbubblor och politisk polarisering är ämnen som vi redan diskuterar, men de allra mest avgörande frågorna rör AI-utvecklingens definitiva genombrott. Vad händer om vi lyckas skapa en maskin som övertrumfar människan i termer av allmänintelligens? Kan vi då behålla kontrollen över maskinerna?

    I Tänkande maskiner diskuterar Olle Häggström den angelägna forskning, bitvis mycket kontroversiell, som börjat ta sig an de framtidsfrågor AI väcker. Utifrån en grundläggande entusiasm för AI-teknikens potential i mänsklighetens tjänst sorterar han fram teknikens avigsidor och risker – och hur de kan bemästras. Den kapplöpningsmentalitet och oreflekterade framåtanda som i dag dominerar AI-utvecklingen behöver ersättas med längre sikt och globalt samarbete, eftersom mänsklighetens framtid kan hänga på vilka mål och drivkrafter AI förses med.

För den läsare som överväger att eventuellt lätta på plånboken och köpa boken föreligger ett par avgörande knäckfrågor: Är det en bra bok? Är den läsvärd? Av blygsamhetsskäl känner jag mig dock förhindrad att besvara dessa frågor eller överhuvudtaget yttra några värdeomdömen om boken. En som däremot gjort det är min gode vän Björn Bengtsson, gymnaiselärare som driver det banbrytande initiativet Naturvetenskap+ på Falkenbergs gymnasieskola. Från en bloggpost han skrev häromdagen saxar jag följande:
    Tänkande maskiner är ännu ett prov på Olle Häggströms unika förmåga att omsätta bred bildning, djup expertis, stort patos och brinnande samhällsengagemang till folkbildning av högsta klass.

    Det här är pedagogik för vår tid. Olle visar stor respekt för sina läsare. Han kräver inga särskilda förkunskaper men förutsätter en villighet och en förmåga att följa långa resonemang, att överblicka stora sammanhang och att uppfatta nyanserade distinktioner och begrepp.

    Det är uppfordrande men framförallt bemyndigande och inbjudande. Alla är välkomna på en resa hela vägen till de mest brännande frågorna vid forskningens spets. I sann demokratisk anda visar Olle just den öppenhet och det förtroende som samtidigt krävs av oss alla för att tillsammans och med insikt fatta kloka beslut om vår gemensamma framtid.

tisdag 26 januari 2021

Makthavare som spelar violin medan skeppet sjunker

Det har funnits mer i svensk covid-19-hantering som förtjänar kritik än jag haft ork att rapportera om på denna blogg, men det DN meddelar idag är så flagrant att jag inte förmår hålla tyst: Folkhälsomyndigheten pausar betalningar till Pfizer tills frågan om doser är löst. För bövelen, ställ inte till det med vaccinleveranserna nu, utan spar eventuellt tjafs till när krisen är över!

En uppskattad forskarkollega förklarade i en Twittertråd situationens allvar, men bestämde sig sedan för att hen använt ett alltför drastiskt tonfall, och plockade ned tråden. Med dennes tillåtelse återger jag den ändå här, anonymiserat:

  • Det här är vansinne!

  • 1. Pfizer levererar flaskor med en säkerhetsmarginal.
    2. Vissa länder som är mer innovativa och mindre byråkratiskt sklerotiska än Sverige kommer på att man kan utvinna sex doser från flaskan med en särskild sorts nål.

  • Då skulle man kunna tro att vi i Sverige tänker "shit vad bra, vi måste skaffa de där nålarna ASAP, så att vi kan vaccinera folk snabbare". Men nej, istället slutar vi betalningarna till Pfizer för att de tar betalt för sex doser nu!

  • Fattar de inte att varje dag som vi har den här pandemin så förlorar den svenska ekonomin och statskassan belopp som får prishöjningen att framstå som ett avrundningsfel?

  • Varför känns det som om myndigheter och regioner hanterar vaccineringen som om ekonomin inte var i fritt fall? Eller som om människors liv inte stod på spel?

  • Senast jag kollade har Stockholmsregionen fortfarande 23K doser i frysen. Varför är det så här? Varför har vi överhuvudtaget doser som ligger och tar plats i extremt dyra och avancerade frysar? Varför tycks Sverige vara sämst i EU på att rapportera siffror?

  • Man skulle ju vara beredd på detta. Man skulle ju ha byggt upp en logistik. Jag fattar ingenting. Sen beskrivs det som om det "ändå går rätt bra" i Sverige, jämfört med andra länder i EU. Men vi borde väl ändå bedöma relativt de resurser/möjligheter vi har.

  • Om vi har 23k doser i frysen så går det inte bra. Om vi fortfarande inte skaffat den där speciella nålen och använder den överallt så går det inte bra.

  • Samhället står i brand. Det handlar inte bara om de som dör, de som ligger på intensiven, de som får långtidscovid och de som är hypokondriska (jag).

  • Folk har blivit arbetslösa, barn kan inte gå i skolan, produktiviteten i många arbetsplatser är obefintlig när folk jobbar hemifrån, psykisk ohälsa har exploderat, sjukvårdspersonal som blir utbrända.

  • Det här är den värsta krisen i Sverige i min livstid, och det känns som om beslutsfattare bara spelar violin medan skeppet sjunker. Det gäller även EU och deras myndigheter.

  • Hur kommer vi att agera om Covid-25 visar sig vara ännu värre? Om dödligheten är t ex 2%, som influensan 1918? Kommer vi också då att tjafsa om byråkratiska petitesser istället för att göra allt vi kan för att lösa problemen?