tisdag 29 oktober 2013

Det enklaste sättet är att använda definitionen

Jag vet inte om följande korta utdrag ur en matematikföreläsning med universitetslektor Tomas Persson i Lund är avsett som folkbildning, som ett utbildningspolitiskt inlägg rörande den ämnesmässiga utarmningen inom högre utbildning, eller enbart som underhållning. Väldigt sevärt är det i vilket fall som helst:

onsdag 23 oktober 2013

No nonsense - my reply to David Sumpter

I am grateful to David Sumpter for his guest post Why "intelligence explosion" and many other futurist arguments are nonsense yesterday. He holds what I believe to be a very common view among bright and educated people who have come across the idea of developments in artificial intelligence eventually leading to what is known as an intelligence explosion or the Singularity (i.e., an extremely rapid escalation towards superintelligence levels, with profound consequences for humanity and the world). I think David articulates his view and his argument very clearly, but I also think the argument is wrong, and in the following I will explain why. Note that my ambition here is not to argue that an intelligence explosion is likely (on that topic I am in fact agnostic). Instead, I will limit the discussion to the more modest task of showing that David's argument fails.

David's conclusions essentially boil down to two claims, namely
    (1) the possibility and likelihood of a future intelligence explosion is not a scientific topic,
    (2) a future intelligence explosion is very unlikely.
This is the order in which I prefer to treat them, even though David discusses them in reverse order. Note that (1) and (2) are two separate claims, and that neither of them immediately implies the other.1

Concerning (1), here's how David spells out what is needed to call something science:
    We make models, we make predictions and test them against data, we revise the model and move forward. You can be a Bayesian or a frequentist or Popperian, emphasise deductive or inductive reasoning, or whatever, but this is what you do if you are a scientist. Scientific discoveries are often radical and surprising but they always rely on the loop of reasoning coupled with observation.
As a demarcation criterion for science, I think this is fair enough. What I disagree with, however, is David's judgement that all discussions of the possibility of a future intelligence explosion fail (and must fail) this criterion.

The first thing that needs to be stressed in this context is that contemporary thinking about the Singularity is not pure speculation in the sense of being isolated from empirical data. On the contrary, it is fed with data of many different kinds. Examples include (a) the observed exponential growth of hardware performance known as Moore's law, (b) the observation that the laws of nature have given rise to intelligent life at least once, and (c) the growing body of knowledge concerning biases in the human cognitive machinery that David somewhat nonchalantly dismisses as irrelevant. See, e.g., the book by Ray Kurzweil (2005) and the paper by Eliezer Yudkowsky (2013) for this and much more. No single one of these data implies an intelligence explosion on its own, but they all serve as input to the emerging theory on the topic, and they are all subject to refinement and revision, as part of "the loop of reasoning coupled with observation" that David talks about in the demarcation criterion above.

At this point, some readers (including David, I presume) will object that it is not statements about down-to-earth things like current hardware performance growth or biases in human cognition that need to be tested, but high-flying hypotheses like
    C1 = "an intelligent explosion is likely to happen around 2100".
C1 is clearly not amenable to direct testing - at least not now, in 2013. So are hypotheses like C1 unscientific?

Here, a comparison with the more familiar territory of climate science may be helpful. Climate science deals routinely with hypotheses such as Like C1, C2 cannot be directly tested today. But C2 builds deductively, via climate models, on various more directly observable and testable properties of, e.g., the greenhouse effect, the carbon cycle and the water vapor feedback mechanism. And since we accept not only induction but also deduction as a valid ingredient in science, no serious thinker rules out C2 from the realm of the scientific.2 And by the same token, C1 cannot reasonably be dismissed as unscientific. (Needless to say, since climate science is so incomparably more well-developed than that of a future intelligence explosion, a hypothesis like C2 stands on incomparably firmer ground than C1. But the fact that the study of intelligence explosion is such a young area does not make it unscientific.) I think this suffices to rebut David's case for claim (1).

Let me move on to David's claim (2) about the event of a future intelligence explosion being very unlikely. Let's call this event E1. Here David proceeds by comparing E1 to the event E2 of the future realization of some comparatively more pedestrian technological development such as "a person-sized robot can walk around for two minutes without falling over when there is a small gust of wind".3 David thinks (reasonably enough) that E1 is a more difficult and involved project to achieve than E2. Many times more difficult and involved. From this he concludes - and this is his non sequitur - that (under any probability model that reasonably well models the relevant aspects of the real world) the probability P(E1) is many times smaller than P(E2), whence P(E1) must be very small.

The trick employed by David here is simply invalid. It is just not true that a task T1 that is many times more difficult and involved than another task T2 must have a probability P(T1 is achieved) that is many times smaller than P(T2 is achieved). For a simple counterexample, imagine me on May 17, 2014, standing on the starting line of the Göteborgsvarvet half marathon. I have previously completed this race 16 times out of 16 attempts, and I am (let's assume) about as well-praperade as I usually am, apart from being just slightly older. Let T1 be the task of completing the full race (21,097.5 meters) and let T2 be the task of completing the first 500 meters of the race. T1 is many times more difficult and involved than T2. Yet, the probabilities that I achieve T1 and T2, respectively, do not differ all that dramatically: P(T1 is achieved) is about 0.97, while P(T2 is achieved) is about 0.995. So it is manifestly not the case that P(T1 is achieved) is many times smaller than P(T2 is achieved).

So David's case for (2) is based on a fallacy. His impulse to try to say something nontrivial about P(E1) is laudable, but a simple trick like the one above just won't do. After having thought about it for a few years, I am convinced that estimating P(E1) is a deep and difficult problem.4 If David seriously wants to shed light on it, I don't think he has any choice but to roll up his sleeves and get to work on the substance of the problem. A key part of the problem (but not the only one) seems to be the "return on cognitive investment" issue introduced on the first few pages of Yudkowsky (2013): which is closer to capturing the truth - the k<1 argument (page 3 of Yudkowsky's paper) or the k>>1 argument (page 5)?


1) If there is any direct link between them, I'd say it's this: if claim (1) is true, then claim (2) is unscientific.

2) A key word here is "serious". There are also climate denialists, who are all too happy to brand hypotheses like C2 as mere speculation and therefore unscientific. In case there are any such creatures among my readers, let me give a third example C3, borrowed from Footnote 3 in a 2008 paper of mine, namely
    C3 = "a newborn human who is immersed head-to-toe for 30 minutes in a tank of fuming nitric acid will not survive".
Hypothesis C3 has (to my knowledge) never been tested directly, and hopefully never will. Yet, it is fair to say that the scientific evidence for C3 is overwhelming, because it can be deduced from empirically well-established results in chemistry and human physiology.

3) Here I'm skipping his lovely detour through Mesopotamia.

4) Forecasting technology is, except in very short time perspectives, an extraordinarily difficult problem. Nassim Nicholas Taleb highlights, on p 172 of his provocative 2007 book The Black Swan, one of the difficulties:
    If you are a Stone Age historical thinker called on to predict the future in a comprehensive report for your chief tribal planner, you must project the invention of the wheel or you will miss pretty much all of the action. Now, if you can prophesy the invention of the wheel, you already know what a wheel looks like, and thus you already know how to build a wheel, so you are already on your way.
Note, however, that the difficulty of estimating the probability P(E1) does not imply that this probability is small.

tisdag 22 oktober 2013

Guest post by David Sumpter: Why "intelligence explosion" and many other futurist arguments are nonsense

One of the criticisms regarding my blog that I hear most often - also from readers who otherwise seem to like it - is that I attach way too much credibility to crazy futurist scenarios, such as the Singularity or various other transhumanistic developments. While I do have the ambition to be as unbiased as I can given the available evidence, it may nevertheless well be that these critics are right, and that I have such a bias. Be that as it may, I don't think it can be wrong to offer a wider variety of perspectives by publishing some more Singularity-skeptical material on the blog. To this end I invited my highly esteemed colleague David Sumpter, professor of applied mathematics at Uppsala University, to explain why he is so unimpressed by all this futurist talk. He took up the challenge and wrote the following text. I'll respond to it in a separate blog post tomorrow. /OH

* * *

Why "intelligence explosion" and many other futurist arguments are nonsense

This argument for the above statement is going to be made as briefly as possible. It does not follow the usual standards of rigour I would apply in writing about science, in that I have not completely reviewed the literature. It is made after reading some texts brought to my attention by Olle Häggström. In particular, Facing the Intelligence Explosion by Luke Muehlhauser, followed by browsing a few of Nick Bostrom’s articles on the singularity and works on “Universal Artificial Intelligence” by Marcus Hutter.

I’ll start by saying that Muehlhauser’s book is fun and I enjoyed reading it. Bostrom’s articles are also well-written and thought provoking. It is an idea that has occurred to me many times before that I might be living in a computer simulation and it is nice to see the argument for different alternatives spelt out. There is nothing logically wrong (as far as I can see) with any of the arguments presented by either of these authors. My argument is that they are scientifically useless and not related to any sense data, i.e. they are nonsense. I’ll explain what I mean by nonsense.

Imagine you lived in Mesopotamia 5000 years ago. You have just seen your first wheeled chariot roll by. Amazing. Powered by horses it could reach almost dangerous speeds. “What does the future hold?”, you might say. Maybe one day we can replace the horses with a magical power that will drive these chariots? Maybe we can build massive track systems that cover the planet and we can travel at 20 times the speed of running? What an amazing, but also scary, future. If these chariots hit children they will be killed instantly. Where will the cattle graze? We’ll have to organise a safe network for these machines. What if these chariots can one day fly like birds? Then they can fly to the next town and drop bombs? Kill people. What if one of the bombs is so powerful it can wipe out whole cities? The future of the planet is at risk.

You are quite an insightful person to come up with all this. But what happens when you tell it to your peers? They quite rightly tell you it is all nonsense. They tell you to calm down and get on with taking in the harvest. Farming has just been invented and you have your work to do. But maybe you could use a chariot to carry in the crops? You get to work on this problem, and build a four-wheeled waggon. You have advanced science.

In the above story, I let you be pretty much correct about the future. You had a reasonably correct model M1 of what happened 5000 years later. Why then do I say that your peers were right to say you were talking nonsense? Because your rational peers are using Bayes' theorem, of course. P(M1 | Data) is very low. “What the hell can a chariot rolling past tell you about flying bomb machines?” they say. You revise your model a bit. If we can build a two wheeled chariot, maybe we can build a four wheeled version. This is model M2. Yep, there we go P(M2 | Data)>>P(M1 | Data) and we move in to the future. In fact P(M2 | Data) is so much greater than P(M1 | Data) that we can call M1 nonsense.

The fact M1 eventually proved to be true is irrelevant here. The question was whether the chariot rolling by was sufficient information to support your model. To put it slightly more technically: if we integrate over all the uncertainties in a model, all the parameters involved and their possible values, then the Bayes factor for M1 is much much lower than for M2, unless you invoke an unacceptable prior to your model. In order to avoid being nonsense a model should be reliable on the basis of sense data.

Now I don’t know if the "intelligence explosion" is true or not, but I can think of some models that are more probable. Maybe I can ask my smart phone to do something more than calling my wife and it will actually do it? Maybe a person-sized robot can walk around for two minutes without falling over when there is a small gust of wind? Maybe I can predict, within some reasonable confidence interval, climate change a number of years in to the future? Maybe I can build a mathematical model that predicts short-term economic changes? These are all plausible models of the future and we should invest in testing these models. Oh wait a minute... that’s convenient... I just gave a list of the type of engineering and scientific questions our society is currently working on. That makes sense!

The reason scientists work on these questions is that there is a feedback between models and data. We make models, we make predictions and test them against data, we revise the model and move forward. You can be a Bayesian or a frequentist or Popperian, emphasise deductive or inductive reasoning, or whatever, but this is what you do if you are a scientist. Scientific discoveries are often radical and surprising but they always rely on the loop of reasoning coupled with observation.

What scientists do not typically believe is that model-making alone can answer far off data-free questions. Well, that’s not quite true. It appears that some scientists do believe that it is all about tuning the model. For example, Marcus Hutter believes that by choosing the right formalism he can reason himself forward to defining the properties of a General Artificial Intelligence. And Luke Muehlhauser believes that by listing a few examples of limitations in human heuristics and noting that computers are good search engines that he can convince us that we "find ourselves at a crucial moment in Earth’s history. [...] Soon we will tumble down one side of the mountain or another to a stable resting place". I would prefer to follow the earlier chapters of Muehlhauser in using the power of rationality to avoid such ungrounded statements.

Is there anything wrong with discussing models with low probability given the data? No. Not when it is done for fun. Like all other forms of nonsense, from watching the Matrix, going to a Tarot card reader or contemplating what might happen when I die, it has its place and is certainly valuable to us as individuals. But this place and value is not related to serious scientific discourse, and the two should not be mixed up.

söndag 20 oktober 2013

Om svenskkyrklig tankelättja

Svenska kyrkan (ett religiöst samfund som jag kollektivanslöts till i samband med min födsel och sedan var medlem i under de första 18 åren av mitt liv) har nyss valt en ny ärkebiskop: Antje Jackelén. Valet föregicks av utfrågningar av de olika kandidaterna - utfrågningar som inspirerade författaren, religionskritikern och vännen Lena Andersson till skarp kritik, i sin kolumn i DN igår, mot det vi kan kalla den undanglidande svenskkyrkliga lättmjölkskristendomen.1 Hon skriver bland annat att Svenska kyrkan har
    utsett en [ny] form av andlig synd som orsak att fördela skam, skuld och låghet – den intellektuella synden att hävda att något i verkligheten förhåller sig på ett visst sätt snarare än på ett annat, att definiera sina begrepp och systematisera sina utsagor, att utesluta orimligheter, att ställa följdfrågor till fluffiga påståenden, att inte nöja sig med tomma hyllningar till ”ambivalensen” och ”det mångfacetterade”, utan i stället undra vad man ska ha de substanslösa påståendena till och hur de kan analyseras.

    Begår man dessa fel har man enligt det nya syndaregistret brister i sin mentala utrustning. Man lider av svartvitt tänkande, man är fyrkantig, tvärsäker och har en torftig livstolkning. Liksom med den forna synden ges inga argument, utan man går direkt på personens okänslighet inför att saker ”inte behöver vara antingen eller utan kan vara både och”.


    Dunbolsterteologerna som har makten i Svenska kyrkan tycks ha som ideal att ju mer viktlöst och konturlöst ett tankegods är, desto mer fullfjädrat. Om någon, troende eller icketroende, efterlyser motsägelsefria resonemang är de där och hötter med fingret. Livet, säger de, består av motsägelser och oförklarliga underligheter, så varför skulle inte yttranden om livet göra detsamma?

    De ägnar decennier åt att förstå Gud men om någon avkräver dem ett svar med någorlunda precision på vad de kommit fram till och ställer ännu en fråga efter att den första luftpastejen presenterats, är denna av den förkrympta sort som ”vill ha tvärsäkra svar på allt”.


    I teologisk dunbolsterdiskurs ska man inte använda språket för att förmedla en klar tanke, det som brukar vara en av dess viktigare funktioner. En klar tanke är nämligen en begränsande tanke, en tanke som föreslår att något är på ett visst sätt och som därför riskerar att utesluta andra möjligheter eller möjligheten att allt kan vara hur som helst. Det är ju helt riktigt att vad som helst kan beskrivas hur som helst och ur vilket perspektiv som helst, men det är inte samma sak som att det är eller kan vara hur som helst i den värld vi känner.

    De tvärsäkert fyrkantiga som fått för sig att yttranden om verklighetens beskaffenhet, teologiska eller bara allmänt kunskapssökande, handlar om att få reda på något, som därför intresserar sig för beståndsdelar och inte bara stumt förundras över helheten, säger sig dunbolsterteologerna vara ”väldigt rädda för”.

Läs Lena Anderssons hela kolumn här!

Att den skulle väcka enhällig entusiasm i svenskkyrkliga kretsar var givetvis inte att vänta. Anna Karin Hammar (teolog, stiftsadjunkt i Uppsala och en av de tongivande personerna i Svenska kyrkans maktelit) skriver så här i en tweet igår:
    Att beskylla Antje Jackelén för tankelättja är Lena Anderssons roligaste skämt hittills.
Jackelén nämns inte vid namn i Lena Anderssons kolumn, som dock innehåller tillräckligt tydliga signaler om att Jackelén är en av de huvudsakliga måltavlorna för att göra en sådan tolkning rimlig. Hammars tweet bjuder som synes inte på någon saklig kritik av Lenas text, men desto mer av härskarteknik (som Hammars prästkollega Johanna Andersson påpekar i ett pinfärskt blogginlägg). Nåja, att begära att Hammar skall få plats med både härskartekniker och saklig analys inom de maximalt 140 tecken som Twitterformatet föreskriver är måhända orimligt, men lite nyfiken är jag på hur Lenas lägesbeskrivning och argumentation kan bemötas i sak, varför jag beger mig till Hammars Twitterflöde i jakt på mer. Något sådant bemötande finner jag inte i sagda flöde, men väl en upplysning om att prästen och teologen Ninna Edgardh på Facebook författat en "bra analys av kritiken mot Jackelén". Edgardhs Facebook-skriverier verkar dock vara avskärmade från insyn från andra än hennes vänner (och CIA, givetvis). I nästa tweet från Hammar får vi emellertid en länk till en bloggpost som enligt Hammar ger "en bättre redogörelse för vad Ninna Edgardh skriver om Lena Anderssons artikel". Men inte heller i bloggposten ifråga hittar vi något i sak, men väl följande som uppges vara ett citat från Edgardhs Facebook-inlägg:
    Märkligt tycker jag, att när vi får en ÄB som har ett skarpare huvud än de flesta av oss, och som är respekterad i vetenskapliga kretsar långt utanför teologin, så får hon kritik för att vara luddig! — ...tankelättja och Antje? Hur går det ihop?
Jaha, och hur skulle det här föra diskussionen framåt? Inte alls, såvitt jag kan se. Tvärtom tycker jag att det är ett steg bakåt att försöka reducera Lena Anderssons text till att vara inte en diskursanalys utan blott ett simpelt ad hominem. Jag kan inte ens se att det skulle finnas någon direkt motsättning mellan att Jackelén skulle ägna sig åt "tankelättja" och att hon skulle ha ett "skarapre huvud" än de flesta i Svenska kyrkan.

Så finns det någon därute i Svenska kyrkan som har lust att kliva fram och bemöta Lena i sak? Någon som vågar hävda något på formen "vi tror på ditt men inte på datt" (t.ex. att Jesu förkunnelser skulle vara sannare än Muhammeds)? Eller någon som är beredd att med sakargument försvara det undanglidande dunbolsterteologiska förhållningssättet? Tipsa mig gärna om ni hittar några sådana svar på Lenas kolumn, ty jag är uppriktigt nyfiken.


1) Lena skriver sedan några år tillbaka i DN varannan lördag, och jag har tidigare här på bloggen skrivit att hennes kolumn utgör "det viktigaste enskilda skälet att läsa den tidningen". Det står jag fast vid.

Låt mig också passa på att berätta att hennes nya Egenmäktigt förfarande - en roman om kärlek är ett koncentrat av psykologiska insikter och en (enligt min mening) helt enkelt strålande liten roman!

torsdag 17 oktober 2013

Norge har en ny regering

Sedan igår har Norge en ny regering, där 7 av 18 statsråd representerar det främlingsfientliga Fremskrittspartiet. Till den som till äventyrs reagerar på detta med något i stil med "Men det är väl inte så farligt, Fremskrittspartiet är väl ändå ganska rumsrent nuförtiden?" svarar jag att just den uppfattningen är en del av problemet. Vi behöver hålla emot tendensen att bagatellisera och normalisera åsiktsyttringar som den Siv Jensen (ledare för Fremskrittspartiet och numera också Norges finansminister) levererade häromåret, då hon förespråkade massdeporteringar på etnisk grund. I och med den nya regeringen har Norge plötsligt hamnat inte mindre än fyra steg före Sverige på satirtecknaren Nanna Johanssons dystopiska främlingsfientlighetsnormaliseringstrappa. För den som inte nöjer sig med serieteckningar utan efterfrågar en lite djupare analys bjöd Henrik Arnstad i måndagens DN på en välformulerad redogörelse för allvaret i den nya situationen i vårt grannland i väster - läs den!

tisdag 15 oktober 2013

Reading the Hanson-Yudkowsky debate

Robin Hanson and Eliezer Yudkowsky are, in my opinion, two the the brightest, most original and most important thinkers of our time. Sadly, they are almost entirely ignored in mainstream discourse. They both consider it fairly likely that the ongoing computer revolution will continue and, at some point in the next 100 years or so, cause profound changes to society and what it means to be human. They differ drastically, however, in their estimates of how likely various more detailed scenarios are. Hanson expects scenarios where we learn how to emulate human brains as computer software, thus enabling us to cheaply copy our minds onto computers, quickly causing vast changes to the labor market and to the economy as a whole. Yudkowsky gives more credence to even more radically transformative scenarios of the kind that are typically labeled intelligence explosion or the Singularity, where we humans eventually manage to construct an AI (an artificial intelligence) that is superior to us in terms of general intelligence, including the construction of AIs, so it quickly manages to create an even smarter AI, and so on in a rapidly escalating spiral, resulting within perhaps weeks or even hours in an AI so smart that it can take over the world.

The Hanson-Yudkowsky AI-Foom Debate is a recently published 730-page ebook, provided free of charge by the Machine Intelligence Research Institute (founded in 2000 and the brainchild of Yudkowsky). The bulk part of the book consists of a debate between Hanson and Yudkowsky that took place on the blog Overcoming Bias during (mostly) November-December 2008. The core topic of the debate concerns the likelihood of the intelligence explosion scenario outlined by Yudkowsky. Hanson considers this scenario quite unlikely, while Yudkowsky considers it reasonably likely provided that civilisation does not collapse first (by a nuclear holocaust or by any of a host of other dangers), but they are both epistemically humble and open to the possibility of being simply wrong. They mostly alternate as authors of the blog posts presented in the book, with just a couple of critical posts by other authors (Carl Shulman and James Miller) interspersed in the first half of the debate. The blog posts are presented mostly chronologically, except in a few cases where chronology is sacrificed in favor of logical flow.1 After this bulk part follows some supplementary material, including (a) a transcript of an oral debate between Hanson and Yudkowsky conducted in June 2011, (b) a 56-page summary by Kaj Sotala of the debate (both the blog exchange in 2008 and the oral debate in 2011), and (c) Yudkowsky's 2013 manuscript Intelligence Explosion Microeconomics which I've recommended in an earlier blog post. Sotala's summary is competent and fair, but adds very little to the actual debate, so to be honest I don't quite see the point of including it in the book. Yudkowsky's manuscript, on the other hand, is very much worth reading after going through the debate; while it does repeat many of the points raised there, the arguments are put a bit more rigorously and systematically compared to the more relaxed style of the debate, and Yudkowsky offers quite a few additional insights that he has made since 2008 and 2011.

My overall assessment of The Hanson-Yudkowsky AI-Foom Debate is strongly favorable. What we get is an engaging dialogue between two exceptionally sharp minds. And the importance of their topic of discussion can hardly be overestimated. While the possibility of an intelligence explosion is far from the only lethal danger to humanity in the 21st century that we need to be aware of, it is certainly one of those that we very much need to take seriously and figure out how to tackle. I warmly - no, insistently - recommend The Hanson-Yudkowsky AI-Foom Debate to anyone who has above-average academic capabilities and who cares deeply about the future of humanity.

So, given the persistent disagreement between Hanson and Yudkowsky on the likelihood of an intelligence explosion, who is right and who is wrong? I don't know. It is not obvious that this question has a clearcut answer, and of course it may well be that they are both badly wrong about the likely future. This said, I still find myself throughout most parts of the book to be somewhat more convinced by Yudkowsky's arguments than by Hanson's. Following are some of my more specific reactions to the book.
  • Hanson and Yudkowsky are both driven by an eager desire to understand each other's arguments and to pinpoint the source of their disagreement. This drives them to bring a good deal of meta into their discussion, which I think (in this case) is mostly a good thing. The discussion gets an extra nerve from the facts that they both aspire to be (as best as they can) rational Bayesian agents and that they are both well-acquainted with Robert Aumann's Agreeing to Disagree theorem, which states that whenever two rational Bayesian agents have common knowledge of each other's estimates of the probability of some event, their estimates must in fact agree.2 Hence, as long as Hanson's and Yudkowsky's disagreement persists, this is a sign that at least one of them is irrational. Especially Yudkowsky tends to obsess over this.

  • All scientific reasoning involves both induction and deduction, although the proportions can vary quite a bit. Concerning the difference between Hanson's and Yudkowsky's respective styles of thinking, what strikes me most is that Hanson relies much more on induction,3 compared to Yudkowsky who is much more willing to engage in deductive reasoning. When Hanson reasons about the future, he prefers to find some empirical trend in the past and to extrapolate it into the future. Yudkowsky engages much more in mechanistic explanations of various phenomena, and combining then in order to deduce other (and hitherto unseen) phenomena.4 (This difference in thinking styles is close or perhaps even identical to what Yudkowsky calls the "outside" versus "inside" views.)

  • Yudkowsky gave, in his very old (1996 - he was a teenager then) paper Staring into the Singularity, a beautiful illustration based on Moore's law of the idea that a self-improving AI might take off towards superintelligence very fast:
      If computing speeds double every two years, what happens when computer-based AIs are doing the research?

      Computing speed doubles every two years.
      Computing speed doubles every two years of work.
      Computing speed doubles every two subjective years of work.

      Two years after Artificial Intelligences reach human equivalence, their speed doubles. One year later, their speed doubles again.

      Six months - three months - 1.5 months ... Singularity.

    The simplicity of this argument makes it tempting to put forth when explaining the idea of an intelligence explosion to someone who is new to it. I have often done so, but have come to think it may be a pedagogical mistake, because it is very easy for an intelligent layman to come up with compelling arguments against the possibility of the suggested scenario, and then walk away from the issue thinking (erroneously) that he/she has shot down the whole intelligent explosion idea. In Chapter 5 of the book (taken from the 2008 blog post The Weak Inside View), Yudkowsky takes care to distance himself from his 1996 argument. It is naive to just extrapolate Moore's law indefinitely into the future, and, perhaps more importantly, Yudkowsky holds software improvements to be a more likely main driver of an intelligence explosion than hardware improvements. Related to this is the notion of hardware overhang discussed by Yudkowsky in Chapter 33 (Recursive Self-Improvement) and elsewhere: At the time where the self-improving AI emerges, there will likely exist huge amounts of poorly protected harware available via the Internet, so why not simply go out and pick that up rather than taking the cumbersome trouble of inventing better hardware?

  • In Chapter 18 (Surprised by Brains), Yudkowsky begins...
      Imagine two agents who've never seen an intelligence - including, somehow, themselves - but who've seen the rest of the universe up until now, arguing about what these newfangled "humans" with their "language" might be able to do
    ...and then goes on to give a very entertaining dialogue between his own alter ego and a charicature of Hanson, concerning what this funny new thing down on Earth might lead to. The point of the dialogue is to answer the criticism that it is extremely shaky to predict something (an intelligence explosion) that has never happened before - a point made by means of showing that new and surprising things have happened before. I really like this chapter, but cannot quite shake off a nagging feeling that the argument is similar to the so-called Galileo gambit, a favorite ploy among pseudoscientists:
      They made fun of Galileo, and he was right.
      They make fun of me, therefore I am right.

  • The central concept that leads Yudkowsky to predict an intelligence explosion is the new positive feedback introduced by recursive self-improvement. But it isn't really new, says Hanson, recalling (in Chapter 2: Engelbart as UberTool?) the case of Douglas Engelbart, his 1962 paper Augmenting Human Intellect: A Conceptual Framework, and his project to create computer tools (many of which are commonplace today) that will improve the power and efficiency of human cognition. Take word processing as an example. Writing is a non-negligible part of R&D, so if we get an efficient word processor, we will get (at least a bit) better at R&D, so we can then device an even better word processor, and so on. The challenge here to Yudkowsky is this: Why hasn't the invention of the word processor triggered an intelligence explosion, and why is the word processor case different from the self-improving AI feedback loop?

    An answer to the last question might be that the writing part of the R&D process is not really all that crucial to the R&D process, taking up maybe just 2% of the time involved, as opposed to the stuff going on in the AI's brain which makes up maybe 90% of the R&D work. In the word processor case, no more than 2% improvement is possible, and after each iteration the percentage decreases, quickly fizzling out to undetectable levels. But is there really a big qualitative difference between 0.02 and 0.9 here? Won't the 90% part of the R&D taking place inside the AI's brain similarly fizzle out after a number of iterations of the feedback loop, with other factors (external logistics) taking on the role as dominant bottlenecks? Perhaps not, if the improved AI brain figures out ways to improve the external logistics as well. But then again, why doesn't that same argument apply to word processing? I think this is an interesting criticism from Hanson, and I'm not sure how conclusively Yudkowsky has answered it.


1) The editing is gentle but nontrivial, so it is slightly strange that there is no mention of who did it (or even a signature (or two) indicating who wrote the foreword). It might be that Hanson and Yudkowsky did it together, but I doubt it; a prime suspect (if I may speculate) is Luke Muehlhauser.

2) At least, this is what the theorem says in what seems to be Hanson's and Yudkowsky's idea of what a rational Bayesian agent is. I'm not sure I buy into this, because one of the assumptions going into Aumann's theorem is that both agents are born with the same prior. On one hand, I can have some sympathy with the idea that two agents that are exposed to the exact same evidence should have the same beliefs, implying identical priors. On the other hand, as long as no one is able to pinpoint what excatly the objectively correct prior to be born with is, I see no compelling reason for giving the verdict "at least one of them is irrational" as soon as we encounter two agents with different priors. The only suggetion I am aware of for a prior to elevate to this universal objective correctness status is the so-called Solomonoff prior, but the theoretical arguments in its support are unconvincing and the practical difficulties in implementing it are (most likely) unsurmountable.

3) A cornerstone in Hanson's study of the alternative future mentioned in the first paragraph above is an analysis of the growth of the global economy (understood in a suitably wide sense) in the past few million years or so. This growth, he finds, is mostly exponential at a constant rate, except at a very small number of disruptive events when the growth rate makes a more-or-less sudden jump; these events are the emergence of the modern human brain, the invention of farming, and the beginning of the industrial era. From the relative magnitudes and timing of these events, he tries to predict a fourth one - the switch to an economy based on uploaded minds. In my view, as a statistician, this is not terribly convincing - the data set is too small, and there is too little in terms of mechanistic explanations that suggest a continued regularity. Nevertheless, his ideas are very interesting and very much worth discussing. He does so in a draft book that has not been made publically available but only circulated privately to a number of critical readers (including yours truly). Prospective readers may try and contact Hanson directly. See also the enlightening in-depth YouTube discussion on this topic between Hanson and Nikola Danaylov.

4) Althogh I realize that the analogy is grossly unfair to Hanson, I am reminded of the incessant debate between climate scientists and climate denialists. A favorite method of the denialists is to focus on a single source of data (most often a time series of global average temperature), ignore everything else, and proclaim that the statistical evidence in favor of continued warming is statistically inconclusive. Climate scientists, on the other hand, are much more willing to look at the mechanisms underlying wheather and climate, and to deductively combine these into computer models that provide scenarios for future climate - models that the denialists tend to dismiss as mere speculation. (Come to think of it, this comparison is highly unfair not only to Hanson, but even more so to climate science, whose computer models are incomparably better validated, and stand on incomparably firmer ground, than Yudkowsky's models of an intelligence explosion.)

fredag 11 oktober 2013

En anspråksfull bok om matematik och evolutionsbiologi

Jag nämnde nyligen här på bloggen ett evenemang på Falkenbergs gymnasieskola den 26 september där jag bidrog med en föreläsning. Av den ene av de båda övriga föreläsarna, evolutionsbiologen Lars Johan Erkell från Göteborgs universitet,1 fick jag ett exemplar av Gregory Chaitins bok Proving Darwin: Making Biology Mathematical från 2012. Lars Johan förklarade att han lockats av bokens anspråksfulla titel att köpa den i hopp om att den skulle bjuda på för evolutionsbiologin viktiga insikter, men att han snabbt funnit att den bjöd på alltför svårgenomtränglig matematik. Han gav den därför till mig i hopp om att jag som matematiker skulle vara i bättre stånd att smälta dess formler, och att jag skulle kunna svara på om där fanns några insikter han som biolog borde ta till sig.

Nu har jag läst boken, och mitt korta svar på Lars Johans fråga är "nej". Mitt aningen längre svar är följande.

Chaitin är en genial argentinsk-amerikansk matematiker med stora insatser på sin meritförteckning, och ett ännu större ego. Han är att betrakta som en av grundarna av det på 1960-talet nya området algoritmisk informationsteori - en ära han delar med de ryska matematikerna Ray Solomonoff och Andrei Kolmogorov.2 Nu anser han sig med förelagda bok ha grundat ett nytt område, som han väljer att kalla metabiologi och som han tillskriver väldig betydelse. Detta antyds i bokens titel, och mer får vi veta av baksidestexten, där bland annat följande meddelas.
    Groundbreaking mathematician Gregory Chaitin gives us the first book to posit that we can prove how Darwin's theory of evolution works on a mathematical level.

    For years it has been received wisdom among most scientists that, just as Darwin claimed, all of the Earth's life-forms evolved by blind chance. But does Darwin's theory function on a purely mathematical level? Has there been enough time for evolution to produce the remarkable biological diversity we see around us? It's a question no one has answered - in fact, no one has even attempted to answer it until now.

Bortsett från den lite olyckliga formuleringen "evolved by blind chance"3 kan vi konstatera att detta är stora ord, och att om det finns fog för dem så har Chaitin med denna bok gjort en fantastisk insats - helt i klass med hans banbrytande arbeten inom algortimisk informationsteori. Emellertid saknar de täckning. Visserligen har Chaitin skapat en trevlig matematisk modell - en modell som bygger på hans tidigare arbeten i algoritmisk informationsteori och som med lite god vilja kan sägas ha med evolutionen att göra - och bevisat ett vackert resultat om den, men han är långt ifrån först med att formulera och analysera matematiska modeller för evolutionen. Sådana presenteras i själva verket i en strid ström i tidskrifter som Journal of Mathematical Biology och Theoretical Population Biology.

Hur står sig då Chaitins modell mot konkurrenternas i kampen om att säga något relevant om evolutionen? Well, i någon mån får det nog anses vara en smaksak. Alla modeller bjuder på förenklingar och idealiseringar, och skiljer sig därmed från den verklighet de är tänkta att modellera. De skiljer sig också från varandra vad gäller vilka aspekter som idealiserats bort och vilka som inkorporerats. Huruvida en modell är bättre än en annan beror ofta på vilka aspekter man är intresserad av. I Chaitins modell har det radikala steget tagits att abstrahera bort den population av individer som finns i flertalet andra modeller på området. Istället finns i hans modell blott en enda individ, som successivt modifieras i ett slags slumpmässig bergsklättring i ett komplicerat fitnesslandskap. Ett ännu mer exotiskt inslag i hans modell är att den postulerar bruket av ett slags (troligen fysikaliskt omöjliga) tingestar som kallas orakelmaskiner.

Chaitin bjuder i sin bok på ett trevligt stycke ny matematik, vars eventuella relevans för biologin i nuläget är i bästa fall oklar. Mycket arbete återstår innan han eventuellt till slut kan anses ha gjort något av vikt för evolutionsbiologin, och jag önskar honom lycka till med det. Tills dess måste dock konstateras att han i Proving Darwin presenterar sin modell och sina resultat med en anspråksfullhet som är alldeles ogrundad och som gränsar till det löjliga. Och det hela blir inte bättre av att han i bokens andra hälft bjuder på ett par kapitel, rubricerade Theological aspects of metabiology och The politics of creativity, i vilka läsaren serveras 100% outspätt trams.


1) Den tredje föreläsaren var Häggström hävdar-bekantingen Claes Strannegård.

2) Det är en smula egendomligt att namnen Solomonoff och Kolmogorov inte förekommer i boken, trots att algortimsisk informationsteori spelar en central roll i den och trots att Chaitin lägger en del krut på historik. Vad detta iögonfallande utelämnande kommer sig kan jag inte veta säkert, men jag håller för troligt att Chaitin anser att Solomonoff och Kolmogorov jämfört med honom själv fått för stor del av äran för viktiga begrepp som Kolmogorovkomplexitet, och att han på detta vis försöker balansera den upplevda orättvisan.

3) Den är olycklig eftersom den tenderar att få den oinvigde att, helt felaktigt, tänka sig att evolutionen går till som i analogin med stormen i skrotupplaget.

lördag 5 oktober 2013

Om de två kulturerna

Begreppet "de två kulturerna" myntades 1959 av den engelske författaren och kemisten C.P. Snow, syftandes på å ena sidan humaniora, och å andra sidan det han kallade science, vilket är lite svårt att översätta till svenska eftersom vetenskap är för brett och naturvetenskap är för snävt. Hur som helst var Snows tes att det förelåg en klyfta och en brist på kommunikation mellan dessa båda kulturer, att klyftan var av ondo och att den borde överbryggas.

Mycket vatten har hunnit rinna under broarna sedan 1959, och en rad fora har genom åren skapats för just det slags överbryggning som Snow efterlyser. Sajten Edge är en sådan; en annan är kursen Naturvetenskap+ på Falkenbergs gymnasieskola, som jag härom veckan hade nöjet att göra ett litet inhopp i. Ändå förtjänar Snows budskap ännu att upprepas.

Från min föreläsning på Falkenbergs gymnasieskola den 26 september. (Foto Ola Folkesson, Hallands Nyheter)

I programförklaringen för Naturvetenskap+ skriver initiativtagarna Björn Bengtsson och Klas Broo vad kursen går ut på:
    Världen behöver människor som kombinerar naturvetenskap, samhällsvetenskap och humaniora. Kursen vill uppmuntra dig att bli en sådan människa.

    Naturvetenskap+ är en modern gymnasiekurs (Naturvetenskaplig specialisering) som behandlar evolutionsbiologi, kognitions- och socialpsykologi, logik, statistik, sannolikhet, retorik, argumentationsanalys, vetenskapshistoria och -teori, olika vetenskapliga metoder, filosofi och etik, samhälle, media och klimat. Med mer.

I en artikel i Hallands Nyheter den 28 september (tyvärr gömd bakom betalvägg) om min medverkan i kursen framgår att jag instämmer med herrarna Snow, Bengtsson och Broo:
    Olle Häggström tror att gymnasieskolans kurs har precis rätt tänk. För att klara utmaningar som mänskligheten står inför måste naturvetenskap kombineras med filosofi, samhällsvetenskap och humaniora.
Men det är en sak att upprepa slagorden om hur viktig överbryggningen är, och en annan att faktiskt förklara varför den är så viktig, som författaren och vännen Eva Franko nyligen antydde i en uppfordrande fråga till mig:
    Det skulle vara mycket värt om Häggström eller någon annan av samma kaliber fördjupar diskussionen och författar en mera klargörande text om hur det egentligen ligger till mellan Vetenskap och Humaniora inte bara inom den akademiska världen utan vad ett närmande mellan dessa discipliner skulle kunna innebära för samhället i stort.
Frågan om vikten av ett närmande mellan naturvetenskap och humaniora kan besvaras på flera plan. Ett är individuellt: den enskilde får en rikare begrepps- och tankevärld av att kunna belysa komplexa frågor från olika håll. Ett annat plan är att se till mänsklighetens samlade kunskapsproduktion, som i många fall gynnas kraftigt av ett närmande mellan de två kulturerna. Ett rykande färskt exempel på sådan kunskapsproduktion är den psykologiska studie som i veckan som gick rapporterades i Science och därefter för en bredare allmänhet i New York Times, där en forskargrupp funnit att människors empatiska förmåga gynnas av läsning av kvalitetslitteratur som Tjechov eller Alice Munro, på ett sätt som inte kunde skönjas om de istället läste kiosklitteratur.

Eva Frankos fråga föranleddes av en debatt mellan å ena sidan Steven Pinker, som i sin text Science is not your enemy förespråkar det slags brobyggande vi här talar om, och å andra sidan Leon Wieseltier, som i en text med den smaklösa rubriken Crimes against humanities istället vill resa murar för att skydda humaniora från naturvetenskapens hemska inflytande. Jag har själv kommenterat denna debatt i mina tidigare bloggposter Pinker om scientism och Akademiska gränsvakter. Den har sedan fortsatt, och Pinker ger i sitt senaste svar till Wielseltier exempel på frågor där en förening av naturvetenskapliga och humanistiska perspektiv har uppenbar potential att öka vår förståelse för viktiga frågor:
    In his commentary on my essay “Science is Not your Enemy,” Leon Wieseltier writes, “It is not for science to say whether science belongs in morality and politics and art.” I reply: It is not for Leon Wieseltier to say where science belongs. Good ideas can come from any source, and they must be evaluated on their cogency, not on the occupational clique of the people who originated them.

    Wieseltier’s insistence that science should stay inside a box he has built for it and leave the weighty questions to philosophy is based on a fallacy. Yes, certain propositions are empirical, others logical or conceptual or normative; they should not be confused. But propositions are not academic disciplines. Science is not a listing of empirical facts, nor has philosophy ever confined itself to the non-empirical.

    Why should either discipline stay inside Wieseltier’s sterile rooms? Does morality have nothing to do with the facts of human well-being, or with the source of human moral intuitions? Does political theory have nothing to learn from a better understanding of people’s inclinations to cooperate, aggress, hoard, share, work, empathize, or submit to authority? Is art really independent of language, perception, memory, emotion? If not, and if scientists have made discoveries about these faculties which go beyond received wisdom, why isn’t it for them to say that these ideas belong in any sophisticated discussion of these topics?

Lite längre fram i sitt läsvärda svar ger Pinker en rad konkreta exempel från sin egen verksamhet:
    Wieseltier doubts my sincerity when I note that the benefits of a consilience between the sciences and humanities go both ways. He bizarrely translates my observation that “the sciences [can] challenge their theories with the natural experiments and ecologically valid phenomena that have been so richly characterized by humanists” as “scientists think well and humanists write well." So let me explain the observation with a few examples of two-way traffic just from my own research. Theories of the mental representation of the visual field must accommodate the fact that the reproduction of linear perspective in painting is not cognitively natural but was a late invention in the history of art. A major theory of auditory scene analysis receives important confirmation from the phenomenon of virtual polyphony in music. Theories of mental imagery must account for the observations by analytical philosophers that images lack the geometric detail of visual percepts, and that even with such detail they would be unsuited to represent abstract concepts. Research in psycholinguistics depends heavily on philological scholarship on the history of words and grammatical constructions in English and other languages. Theories of cognitive categorization begin with contrasting views on the nature of concepts from Aristotle and Wittgenstein. The science of human aggression has learned immeasurably from the history of crime, war, genocide, criminal punishment, and religious and cultural attitudes toward violence. Examples could be multiplied from the research of others.
För den som (likt mig) anser att en utvidgning av mänsklighetens samlade vetande har ett värde i sig kan detta räcka som svar på Eva Frankos fråga, men vi kan också vidga diskussionen till ett tredje plan genom att föra in den mer praktiska betydelse för mänskligheten som antyds i citaten från Hallands Nyheter och Naturvetenskap+ ovan.

Ett exempel. I sin (av skäl som strax skall framgå helt bedrövliga) bok How to Spend $50 Billion to Make the World a Better Place1 från 2006 har den danske statsvetaren Bjørn Lomborg tagit hjälp av en panel ekonomer för att utröna vilka av en rad världsförbättrande åtgärder - malariabekämpning, vitamindistribution i tredje världen, begränsning av växthusgasutsläpp, etc - som ger störst utbyte för given kostnad. Projektet är inte i första hand naturvetenskapligt, men det är ekonomisk-teknokratiskt på ett sätt som lider svåra följder av bristen på humanistiskt perspektiv. För att över huvud taget kunna påbörja det slags jämförelser som Lomborg ägnar sig åt finns en rad djupt mänskliga värderingsfrågor att ta ställning till:

Är ett människoliv i Etiopien lika mycket värt som ett i New York, eller bör de värderas i förhållande till väntad ekonomisk produktivitet? Har vi moralisk rätt, gentemot kommande generationer, att utnyttja naturresurser i högre takt än de förnyas? Bör utrotningshotade djur- och växtarter värderas utifrån vilken framtida ekonomisk avkastning de kan tänkas ge, eller har de därutöver ett egenvärde? Hur mycket kan vi tänka oss att betala för att även i framtiden få njuta av skogspromenader och andra verkliga naturupplevelser, eller är vi beredda att avstå dessa och nöja oss med de fejkade dito som framtida virtual reality-teknik förhoppningsvis kan förse oss med? Är kortsiktig BNP-maximering viktigare än förhindrandet av en framtida klimatkatastrof? Varför skall vi över huvud taget göra något för framtiden - har den någonsin gjort något för oss? Etc, etc.

Se där några av de frågor som Lomborg kortsluter och inte låtsas om då han går rakt på sina kostnads-och-intäktskalkyler. Denna brist på humanistisk reflektion får hans projekt att urarta i barbari. Det är omöjligt att veta vad som hade hänt om Lomborg i sin ungdom hade haft lärare som Björn Bengtsson och Klas Broo på Falkenbergs gymnasieskola, men jag vill gärna föreställa mig att det hade resulterat i att How to Spend $50 Billion och Lomborgs övriga böcker hade blivit mer eftertänksamma och något mindre brutalt ekonomistiska.

Ett annat område där jag menar att ett närmande mellan de två kulturerna är fruktansvärt viktigt är den begynnande utvecklingen av farmakologisk, genetisk och elektronisk modifiering (eller "förbättring" som det oftast kallas) av människans fysiska och psykiska egenskaper. Om denna utveckling ses som ett naturvetenskapligt, medicinskt och teknologiskt projekt utan humanistiska inslag, så riskerar vi att hamna i den ena eller andra dystopiska framtid som vi inte ens reflekterat över i vår kortsiktiga jakt på förbättringar. Vad som måste integreras i de tekniska och naturvetenskapliga diskussionerna är djupa frågeställningar om (exempelvis) vad för slags varelser vi vill vara, vad som eventuellt kan pekas ut som de essentiellt mänskliga egenskaperna, och i vad mån dessa egenskaper är något vi bör värna om. Vad som bland annat behövs är humanistisk reflektion kring konkreta frågor av den typ som jag lite skämtsamt lyfte fram i somras i min bloggpost Testa dig själv: är du biokonservativ eller transhumanist - en reflektion och en diskussion som behöver gå långt mer på djupet jämfört med min lättsamma testa dig själv-lek i bloggposten.


1) Inget ont som inte har något gott med sig, heter det ju. Det var denna bok som en gång i tiden (2006) provocerade mig att börja engagera mig i klimatfrågan på allvar.

tisdag 1 oktober 2013

Michael Chorost har en dator i sitt huvud

Rubriken till dagens bloggpost syftar inte på det faktum att Michael Chorosts hjärna, liksom alla andras, är en (till stor del) elektrisk informationsbehandlingsapparat. Nej, vad den syftar på är att han har en programerbar liten dator av kisel och transistorer inopererad i huvudet. Det rör sig om ett så kallat cochleaimplantat, som via radiolänk tar emot och processar signaler från den så kallade transmittern, vilken sitter utanpå huvudet, och i sin tur har tagit emot signaler från exempelvis en mikrofon. Implantatet vidarebefordrar sedan de processade signalerna till hjärnans hörselnerver, vilket skänker (den i annat fall döve eller nästan döve) Chorost hörselupplevelser.

I sin läsvärda bok Rebuilt: How Becoming Part Computer Made Me More Human från 2005 berättar Chorost om hur han sommaren 2001, vid 36 års ålder, plöstligt går från den hörselskada han föddes med till att bli döv, och hur han med hjälp av det cochleaimplantat han får inopererat några månader senare successivt hittar tillbaka till en allt bättre hörsel.1 Han är inte förste bäraren av ett sådant implantat (före honom hade ett femsiffrigt antal personer fått cochleaimplantat, och antalet är nu en bra bit över 200 000) men han är först med att i bokform berätta om upplevelsen och om teknikens praktiska och filosofiska implikationer. Fokus i boken ligger på Chorosts egen berättelse, men vi får också lära oss den del om själva tekniken och om de blandade reaktioner med vilken den tagits emot i det amerikanska dövsamhället.

Att cochleaimplantatet är något helt annat än en vanlig hörapparat förstår man på ett konkret sätt då Chorost kan koppla upp sig mot exempelvis en telefon eller en CD-spelare, och på så sätt få ta del av ljudupplevelser utan att dessa härrör från några som helst ljudvågor eller vibrationer i rummet han befinner sig i. Intressant är också hur han får tillgång till alternativa programvaror som var och en ger sina karaktäristiska ljudbilder och ljudupplevelser, vilket gör att han blir osäker på hur det "sanna" ljudet verkligen låter och till slut inser att det inte finns någon objektiv sanning i frågan utan bara olika representationer.2

I bokens näst sista kapitel diskuterar Chorost ytterligare möjligheter att utveckla idén om direktkoppling mellan dator och nervsystem, bortom den specifika tillämpningen på hörselsinnet. Här vill han lägga band på den ohejdade teknikoptimism som andra författare som t.ex. Kevin Warwick ger uttryck för, och han vill dra en skarp skiljelinje mellan behandling och allmän förbättring, som i följande passage:
    These technologies are only for people with serious medical conditions. Warwick consistently neglects this important qualification. Upon having used his implant to pilot an electric wheelchair he comments, "I told everyone that this would ultimately mean, in the future, we should be able to drive a car around by picking up signals directly from the brain, and change direction just by thinking about it, right, left, and so on." For disabled people, this is an exciting prospect. But the rest of us already do drive with signals from our brains, picked up and executed perfectly by our arms and legs.

    Warwick might respond that having direct nervous control over an automobile would let us drive it better, since we wouldn't have to move around our heavy meat arms and legs. But then issues of practicality and safety come into play. (s 176-177)

Det finns mycket att invända mot i detta stycke, inklusive hans nästan löjligt malplacerade "perfectly". Men jag tror att det är överflödigt. Chorost verkar nämligen, efter författandet av Rebuilt, ha gjort en helomvändning i denna fråga. Marknadsföringen av hans uppföljare World Wide Mind: The Coming Integration of Humanity, Machines, and the Internet från 2011 mer än antyder att så är fallet. Jag får eventuellt ta och läsa den boken också.


1) Jag gillar alltså boken, men jag får tidigt en svårbestämd känsla av att inte gilla författaren. Så småningom inser jag att det handlar om en störande långt driven egocentricitet, och om att hans personbeskrivningar genomgående har något mekaniskt över sig. Särskilt störande blir detta i skildringen av det singelliv i vilket han är aktiv med anlitandet av en rad dejtingförmedlingar - en skildring där de kvinnor han möter aldrig framstår som intressanta i sig utan enbart som redskap för att om allt vill sig väl skänka Chorost ett långt och lyckligt äktenskap.

2) Tyvärr begår Chorost en märklig lapsus då han efter en diskussion om ljudupplevelsers logaritmiska karaktär (som en funktion av ljudvågors amplitud) levererar följande passage.
    Dear reader with organic ears, you do not percieve the world as it really is, and you never will. But be glad: a truly faithful rendition of the auditory world would either be flat and shallow, or unbearably painful. (s 150-151)
Kursiveringen är hans egen, men det jag vänder mig emot är den sista meningen. Någon "truly faithful" återgivning finns inte, och att efterfråga en sådan eller ens (som här) antyda dess existens är ett filosofiskt misstag som negerar de i övrigt kloka och riktiga saker Chorost har att säga i frågan. Allt som finns är olika avbildningar mellan fysisk verklighet och hörselupplevelser. Någon objektivt rätt avbildning finns inte (och en logaritmisk avbildning mellan fysisk amplitud och ljudupplevelse är knappast mindre rätt än en linjär), utan det bästa man kan hoppas på är en avbildning som ger pålitlig och användbar information om vad som finns därute.