söndag 14 februari 2021

Disillusioned about the New York Times

Until not very long ago, I used to regard the New York Times (NYT) as a beacon of sanity, truth and enlightenment. But not any more. In terms of trustworthiness, I now rank it on the same level as Breitbart News, Alex Jones, Donald Trump's Twitter account, and various climate denialism blogs such as the Orwellianly named Klimatupplysningen.1

Coming to this standpoint has been a painful and somewhat gradual process. So what triggers me to bring up the topic right now? Readers will be forgiven who think it must be NYT's intolerant and totemic witch hunt and word magic very similar to what was protrayed more than 40 years ago in the Jehova scene of the Monty Python movie Life of Brian.

But no. While that sort of thing does contribute to my change of hearts in how I view NYT, what triggers me today is their malicious hit piece yesterday against the rationalist movement in general and blogger Scott Alexander in particular. The piece is appallingly dishonest, and deals not so much in outright falsehoods (although one such untruth is the claim about the contents of James Damore's 2017 Google Memo) as in guilt-by-association routines and dozens of other insidious insinuations (such as the claim about rationalists that "some [of them] practiced polyamory", which is probably true, but is clearly meant to have the same effect on readers as the statement "some of them are rumoured to be homosexuals" would have had in the mid-20th century). If you absolutely must read the horrible NYT piece, then please make sure also to read the rebuttals by Scott Aaronson and by Scott Alexander himself. Especially the former makes clear that many of the misrepresentations in the NYT piece are not mistakes (which would be bad enough) but fully intentional.

Footnote

1) Well, not really. I'm exaggerating. But if the New York Times can allow itself to engage in sensationalist falsehoods, then so can I.

lördag 13 februari 2021

SVT:s alltför hovsamma pandemibevakning: ett exempel

Cirka fyra minuter in i SVT:s nyhetsprogram Rapport i förrgår (den 11 februari) får vi tittare hänga med när de beger sig ut för att ta del av den dåliga följsamheten med Folkhälsomyndighetens anvisning om munskydd i kollektivtrafiken i rusningstid. Folk utan munskydd konfronteras. De åmar sig, kråmar sig och famlar efter förklaringar, och det hela är riktigt pinsamt. Och kanske är det bra journalistik. Men när reportern (vid pass 4:50) får besked av Anders Tegnell att "vi utgår från och hoppas att folk följer våra rekommendationer i så stor utsträckning som det överhuvudtaget är möjligt" och att det är "tråkigt att det blivit så här", då tänker jag att det hade blivit ännu bättre journalistik om reportern ställt de uppenbara följdfrågorna:
    Men vad är ditt eget ansvar för att det blivit såhär, Anders Tegnell? Kan man tänka sig att folks obenägenhet att bära munskydd åtminstone till en del är en konsekvens av den envisa och nästan årslånga, tendentiösa och vetenskapligt ogrundade kampanj mot munskydd som du drivit? Kan det vara rimligt att tolka detta som ett fall av "som man sår får man skörda"?

måndag 1 februari 2021

Tänkande maskiner

Nu när nätbokhandlar som Adlibris och Bokus börjat annonsera min kommande bok Tänkande maskiner: Den artificiella intelligensens genombrott är det hög tid att jag gör detsamma här på bloggen.

Boken utkommer den 26 april i år på bokförlaget Fri Tanke, som i sin marknadsföring meddelar följande:
    AI är på god väg att revolutionera vår värld och ligger till grund för mycket teknik som skänker bekvämlighet åt våra liv. Men utvecklingen för också med sig problem och risker. Hur de sociala mediernas AI-algoritmer optimerats för att ge näring åt vårt mobilberoende eller skapar grogrund för filterbubblor och politisk polarisering är ämnen som vi redan diskuterar, men de allra mest avgörande frågorna rör AI-utvecklingens definitiva genombrott. Vad händer om vi lyckas skapa en maskin som övertrumfar människan i termer av allmänintelligens? Kan vi då behålla kontrollen över maskinerna?

    I Tänkande maskiner diskuterar Olle Häggström den angelägna forskning, bitvis mycket kontroversiell, som börjat ta sig an de framtidsfrågor AI väcker. Utifrån en grundläggande entusiasm för AI-teknikens potential i mänsklighetens tjänst sorterar han fram teknikens avigsidor och risker – och hur de kan bemästras. Den kapplöpningsmentalitet och oreflekterade framåtanda som i dag dominerar AI-utvecklingen behöver ersättas med längre sikt och globalt samarbete, eftersom mänsklighetens framtid kan hänga på vilka mål och drivkrafter AI förses med.

För den läsare som överväger att eventuellt lätta på plånboken och köpa boken föreligger ett par avgörande knäckfrågor: Är det en bra bok? Är den läsvärd? Av blygsamhetsskäl känner jag mig dock förhindrad att besvara dessa frågor eller överhuvudtaget yttra några värdeomdömen om boken. En som däremot gjort det är min gode vän Björn Bengtsson, gymnaiselärare som driver det banbrytande initiativet Naturvetenskap+ på Falkenbergs gymnasieskola. Från en bloggpost han skrev häromdagen saxar jag följande:
    Tänkande maskiner är ännu ett prov på Olle Häggströms unika förmåga att omsätta bred bildning, djup expertis, stort patos och brinnande samhällsengagemang till folkbildning av högsta klass.

    Det här är pedagogik för vår tid. Olle visar stor respekt för sina läsare. Han kräver inga särskilda förkunskaper men förutsätter en villighet och en förmåga att följa långa resonemang, att överblicka stora sammanhang och att uppfatta nyanserade distinktioner och begrepp.

    Det är uppfordrande men framförallt bemyndigande och inbjudande. Alla är välkomna på en resa hela vägen till de mest brännande frågorna vid forskningens spets. I sann demokratisk anda visar Olle just den öppenhet och det förtroende som samtidigt krävs av oss alla för att tillsammans och med insikt fatta kloka beslut om vår gemensamma framtid.

tisdag 26 januari 2021

Makthavare som spelar violin medan skeppet sjunker

Det har funnits mer i svensk covid-19-hantering som förtjänar kritik än jag haft ork att rapportera om på denna blogg, men det DN meddelar idag är så flagrant att jag inte förmår hålla tyst: Folkhälsomyndigheten pausar betalningar till Pfizer tills frågan om doser är löst. För bövelen, ställ inte till det med vaccinleveranserna nu, utan spar eventuellt tjafs till när krisen är över!

En uppskattad forskarkollega förklarade i en Twittertråd situationens allvar, men bestämde sig sedan för att hen använt ett alltför drastiskt tonfall, och plockade ned tråden. Med dennes tillåtelse återger jag den ändå här, anonymiserat:

  • Det här är vansinne!

  • 1. Pfizer levererar flaskor med en säkerhetsmarginal.
    2. Vissa länder som är mer innovativa och mindre byråkratiskt sklerotiska än Sverige kommer på att man kan utvinna sex doser från flaskan med en särskild sorts nål.

  • Då skulle man kunna tro att vi i Sverige tänker "shit vad bra, vi måste skaffa de där nålarna ASAP, så att vi kan vaccinera folk snabbare". Men nej, istället slutar vi betalningarna till Pfizer för att de tar betalt för sex doser nu!

  • Fattar de inte att varje dag som vi har den här pandemin så förlorar den svenska ekonomin och statskassan belopp som får prishöjningen att framstå som ett avrundningsfel?

  • Varför känns det som om myndigheter och regioner hanterar vaccineringen som om ekonomin inte var i fritt fall? Eller som om människors liv inte stod på spel?

  • Senast jag kollade har Stockholmsregionen fortfarande 23K doser i frysen. Varför är det så här? Varför har vi överhuvudtaget doser som ligger och tar plats i extremt dyra och avancerade frysar? Varför tycks Sverige vara sämst i EU på att rapportera siffror?

  • Man skulle ju vara beredd på detta. Man skulle ju ha byggt upp en logistik. Jag fattar ingenting. Sen beskrivs det som om det "ändå går rätt bra" i Sverige, jämfört med andra länder i EU. Men vi borde väl ändå bedöma relativt de resurser/möjligheter vi har.

  • Om vi har 23k doser i frysen så går det inte bra. Om vi fortfarande inte skaffat den där speciella nålen och använder den överallt så går det inte bra.

  • Samhället står i brand. Det handlar inte bara om de som dör, de som ligger på intensiven, de som får långtidscovid och de som är hypokondriska (jag).

  • Folk har blivit arbetslösa, barn kan inte gå i skolan, produktiviteten i många arbetsplatser är obefintlig när folk jobbar hemifrån, psykisk ohälsa har exploderat, sjukvårdspersonal som blir utbrända.

  • Det här är den värsta krisen i Sverige i min livstid, och det känns som om beslutsfattare bara spelar violin medan skeppet sjunker. Det gäller även EU och deras myndigheter.

  • Hur kommer vi att agera om Covid-25 visar sig vara ännu värre? Om dödligheten är t ex 2%, som influensan 1918? Kommer vi också då att tjafsa om byråkratiska petitesser istället för att göra allt vi kan för att lösa problemen?

fredag 18 december 2020

My conversation with Seán Ó hÉigeartaigh on AI governance and AI risk

Seán Ó hÉigeartaigh, co-director of the Centre for the Study of Existential Risk at the University of Cambridge, is a leading expert on AI governance and AI risk. Earlier this week I had a stimulating discussion with him on these topics. This took place as part of the AI ethics seminar series at Chalmers, but deserves (in my humble opinion) to be seen more widely:

torsdag 17 december 2020

Min medverkan i SVT:s Utrikesbyrån igår

Angående min medverkan i SVT:s Utrikesbyrån igår (ca 11:20-12:50 in i videon på SVT Play; se även detta nyhetsklipp) vill jag framhålla att mina kritiska ord om FHM-direktör Johan Carlsons prediktion i början av mars av hur hårt Sverige i värsta fall kan komma att drabbas av coronasmittan inte rör sig om simpel efterklokhet. Minnesgoda läsare av denna blogg kan påminna sig att jag redan när det begav sig var starkt kritisk mot hans besinningslösa bedömning.

Programmet, vilket gavs rubriken Pricka rätt 2021, tycker jag som helhet blev helt ok, och inte minst är det bra att de lyfte Philip Tetlocks arbete med superforecasting. Och naturligtvis anser jag att det var ett klokt drag av dem att anlita mig som expertkommentator, men...

...de hade kunnat få betydligt större utväxling på just den saken om de hade hållt sig till den ursprungliga intention de signalerade till mig inför intervjun, nämligen att på ett mer övergripande plan diskutera de matematiska modellernas roll i prognosmakeri, istället för den snabba inzoomningen på Kinas osäkra covid-19-data.

tisdag 1 december 2020

New AI paper with James Miller and Roman Yampolskiy

The following words by Alan Turing in 1951, I have quoted before:
    My contention is that machines can be constructed which will simulate the behaviour of the human mind very closely. [...] Let us now assume, for the sake of argument, that these machines are a genuine possibility, and look at the consequences of constructing them. [...] It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. There would be no question of the machines dying, and they would be able to converse with each other to sharpen their wits. At some stage therefore we should have to expect the machines to take control.
It is but a small step from that ominous final sentence about machines taking over to the conclusion that when that happens, everything hinges on what they are motivated to do. The academic community's reaction to Turing's suggestion was a half-century of almost entirely ignoring it, and only the last couple of decades have seen attempts to seriously address the issues that it gives rise to. An important result of the early theory-building that has come out of this work is the so-called Omohundro-Bostrom framework for instrumental vs final AI goals. I have discussed it, e.g., in my book Here Be Dragons and in a 2019 paper in the journal Foresight.

Now, in collaboration with economist James Miller and computer scientist Roman Yampolskiy, we have another paper on the same general circle of ideas, this time with emphasis on the aspects of Omohundro-Bostrom theory that require careful scrutiny in light of the game-theoretic considerations that arise for an AI living in an environment where it needs to interact with other agents. The paper, whose title is An AGI modifying its utility function in violation of the strong orthogonality thesis, is published in the latest issue of the journal Philosophies. The abstract reads as follows:
    An artificial general intelligence (AGI) might have an instrumental drive to modify its utility function to improve its ability to cooperate, bargain, promise, threaten, and resist and engage in blackmail. Such an AGI would necessarily have a utility function that was at least partially observable and that was influenced by how other agents chose to interact with it. This instrumental drive would conflict with the strong orthogonality thesis since the modifications would be influenced by the AGI’s intelligence. AGIs in highly competitive environments might converge to having nearly the same utility function, one optimized to favorably influencing other agents through game theory. Nothing in our analysis weakens arguments concerning the risks of AGI.
Read the full paper here!