Jag har inget att tillföra rörande den bittra
kontroversen kring utgivningen av David Lagercrantz nya bok
Det som inte dödar oss, lanserad som den fristående fortsättningen på Stieg Larssons Millennium-trilogi. Med tanke på de många
recensioner boken redan fått ser jag ej heller någon större poäng med att själv ge en djupgående sådan, men kan konstatera att den för mig duger utmärkt som underhållningslitteratur, och att den skicklige Lagercrantz lyckats tillräckligt bra med att imitera Larssons stil att jag säkert inte hade kommit på att misstänka att det var någon annan än Larsson som höll i pennan om jag inte redan känt till hur det förhöll sig med den saken.
Det jag här vill lyfta fram är istället den påfallande anhopning i boken av ämnen som är bekanta från denna blogg. I en av (de sedan Stieg Larssons böcker obligatoriska) demonstrationerna av protagonisten Lisbeth Salanders superkrafter kliver hon in på en av Stockholms
schack-klubbar och sopar brädet med en intet ont anande elitspelare. Vidare bjuder författaren på mer
matematik (i första hand
primtalsfaktorisering och
RSA-kryptering) än vad jag kan påminna mig ha sett i någon annan mainstream-deckare. Och framför allt bollar han utförligt (och någorlunda skickligt) med begrepp kring
artificiell intelligens och
Singulariteten, som i det samtal på s 204-205 där den fiktiva KTH-professorn Farah Sharif förklarar sammanhangen för Mikael Blomkvist:
Bara några dagar efter att vi uppnått AGI [Artificial General Intelligence] kommer vi att ha ASI [vilket står för] Artificial Superintelligence, något som är intelligentare än vi. Datorerna börjar förbättra sig i en accelererande takt, kanske i en faktor på tio, och blir hundra, tusen, tiotusen gånger så smarta som vi, och vad händer då?
[...]
Hur tror du att en dator känner sig som vaknar upp och finner sig tillfångatagen och kontrollerad av primitiva kryp som vi? Varför skulle den finna sig i den situationen? Varför skulle den överhuvudtaget visa oss någon överdriven hänsyn, eller än mindre låta oss rota i dess inre för att stänga av processen? Vi riskerar att stå inför en intelligensexplosion, en teknologisk singularitet som Vernor Vinge kallade det.
[...]
Idag arbetar tusentals människor över hela världen för att förhindra en sådan utveckling. Många är optimistiska, eller till och med utopiska. Man talar om friendly ASI, om vänliga superintelligenser som redan från början programmerats så att de enbart hjälper oss. Man tänker sig något i stil med vad Asimov föreställde sig i boken Jag, robot, inbyggda lagar som förbjuder maskinerna att skada oss. Innovatören och författaren Ray Kurzweil ser en underbar värld framför sig där vi med hjälp av nanoteknik interagerar med datorerna, och delar vår framtid med dem. Men självklart finns inga garantier. Lagar kan hävas. Betydelsen av initiala programmeringar kan förändras, och det är oerhört lätt att göra antropomorfiska misstag; tillskriva maskinerna mänskliga drag, och missförstå deras inneboende drivkraft.
Där får Lagercrantz som synes till ett härligt flöde av
buzzwords. Den här på bloggen flitigt citerade
Eliezer Yudkowsky nämns inte explicit i boken, men jag gläds åt att se hans skötebarn
Machine Intelligence Research Institute figurera i handlingen. Vad jag dock gärna hade sluppit ta del av är Lisbeth Salanders larviga försök att koppla den teknologiska singulariteten till den (helt orelaterade) singularitet som förekommer i de svarta hålens fysik.
Stor risk att svarta hål finns kvar när första filmen görs baserad på boken. Bra att du varnat för larvet. Blir lättare att inte kasta boken i väggen när den idiotin kommer. Annars lärt det som att David Lagercratz lyckats bra.
SvaraRaderaVänliga hälsningar
Nanotec
Den här kommentaren har tagits bort av skribenten.
SvaraRaderaSe även här;
SvaraRaderahttp://www.nyteknik.se/tekniknyheter/article3928730.ece
Det är vanligt att man av okunnighet blandar ihop helt olika saker med samma benämning. Ordet "singularitet" kan alltså stå för olika begrepp. En ros är inte alltid en ros.