onsdag 28 oktober 2015

Vilken egenskap hos mänskliga hjärnor är det som ger upphov till medvetande?

Ulf Danielsson och jag har under hösten fört ett lågintensivt bloggsamtal om artificiell intelligens och medvetandets plats i ett materiellt universum. Mitt senaste inlägg i samtalet - ett kort tillägg som jag den 18 oktober fogade till en bloggpost som i övrigt är från den 14 oktober - kokar ned till en fråga till Ulf, nämligen huruvida det är rätt tolkat att han underkänner CTOM (the computational theory of mind) som rimlig kandidat till förklaring till vad det egentligen är i vårt fysiska universum som ger upphov till medvetande. I sin nya bloggpost Dra ur sladden bekräftar Ulf att jag på denna punkt tolkar honom rätt:
    Min personliga uppfattning är att CTOM som hypotes är godtycklig och ogrundad. Jag ser inget som helst skäl till varför en digital maskin vars relevanta komponenter, enskilt eller i samspel, kan förstås i termer av välkänd och klassisk fysik skulle kunna leda till något som ett medvetande. Däremot tvingas jag med grund i min egen subjektiva erfarenhet erkänna existensen av ett medvetande i biologiska hjärnor. Den rimligaste slutsatsen, baserat på fysikalisk förståelse och subjektiv erfarenhet, blir att medvetanden så långt är förbehållna biologiska system där medvetande uppstår på ett för oss hittills okänt sätt.
Själv är jag inte med på Ulfs konklusion om vari "den rimligaste slutsatsen" består. Med sitt uttalande kommer han väldigt nära en ståndpunkt hos vetenskapsfilosofen Massimo Pigliucci, som jag bemöter i Avsnitt 3.8 i min kommande bok Here Be Dragons: Science, Technology and the Future of Humanity. I sitt bidrag till den spännande antologin Intelligence Unbound: The Future of Uploaded and Machine Minds från 2014 går Pigliucci till attack mot CTOM och mot David Chalmers försvar av teorin ifråga i samma antologi. Och i Here Be Dragons svarar jag så här, med ett resonemang som jag tycker duger även till att ifrågasätta Ulfs ovan citerade tankegång:
    [Pigliucci repeatedly asserts that] "consciousness is a biological phenomenon", and [he complains] that Chalmers' contribution to the same book
      proceeds as if we had a decent theory of consciousness, and by that I mean a decent neurobiological theory. (emphasis in the original)
    But this merely presupposes what Pigliucci wants to prove, namely that consciousness is a biological phenomenon. Pigliucci knows of one example of a conscious entity, namely himself, and he has a reasonable case for assuming that most other humans are conscious too, and also that in all these cases consciousness resides (at least to a large extent) in the brain. Since all these brains are neurobiological entities, isn't that just what we need for the claim that a theory of consciousness needs to be neurobiological? Well, no, because being neurobiological entities is not the only thing that these brains have in common. They are also, e.g., material objects, and they are computing devices. Pigliucci thinks that being a neurobiological entity is the relevant property around which a decent theory of consciousness needs to be centered. Other philosophers (panpsychists) think that being a material object is the relevant property, and yet others (supporters of CTOM) think that being a computational device is the relevant property. Any discussion of the pros and cons of CTOM ought to start with the admission that it is an open problem to decide which of these generalities (or some other one, such as being bipedal, or being created in the image of God) is the relevant one for the fundamental nature of consciousness. Instead postulating from the outset, as Pigliucci does, which of them is the right one, short-circuits the discussion in such a way as to make it trivial.

måndag 26 oktober 2015

Fem framträdanden i Göteborg (och två i Stockholm)

Det ser ut att bli en rad publika framträdanden för mig i november och december:

torsdag 22 oktober 2015

Tim Minchin om att skänka pengar till fattiga

Tim Minchin är underbar. Hans budskap är inte alltid särskilt originellt, men det egensinniga klarspråk med vilket han framför det är helt unikt. Här är hans kommentar till den flagranta omoral som både han, jag och i stort sett alla andra medelklassvästerlänningar dagligen gör sig skyldiga till:1

Fotnot

1) En något mer städad formulering av det Minchin säger står att finna i moralfilosofen Peter Singers välkända allegori om den drunknande barnet. I sin utmärkta bok Det liv du kan rädda ger Singer konkreta förslag om hur vi bör leva.

söndag 18 oktober 2015

Here Be Dragons: omslag och innehållsförteckning

Ha tålamod, kära läsare! Som tidigare meddelats så utkommer inte min bok Here Be Dragons: Science, Technology and the Future of Humanity förrän i januari. Redan nu finns dock ett omslag, anslaget såväl på förlaget (Oxford University Press) som på nätbokhandlar som t.ex. Amazon och Adlibris, och då vill inte jag vara sämre än att bjuda på omslaget även här:

Ganska coolt, tycker jag nog. En kritisk synpunkt jag träffat på är emellertid att det för tankarna till att boken skulle vara en science fictionroman för fjortonåringar. För att korrigera eventuell sådan villfarelse i bloggens läsekrets bjuder jag härmed även på bokens innehållsförteckning:
    1. Science for good and science for bad
    1.1. A horrible discovery
    1.2. The ethical dilemma of hiding research findings
    1.3. Some real-world examples
    1.4. The need for informed research policy
    1.5. A hopeless task?
    1.6. Preview

    2. Our planet and its biosphere
    2.1. A note to the reader
    2.2. Dramatic changes in past climate
    2.3. Greenhouse warming
    2.4. Milankovitch cycles
    2.5. The role of carbon dioxide
    2.6. The need for action
    2.7. A geoengineering proposal: sulfur in the stratosphere
    2.8. Other forms of geoengineering
    2.9. No miracle solution
    2.10. Searching for solutions further outside the box

    3. Engineering better humans?
    3.1. Human enhancement
    3.2. Human dignity
    3.3. The wisdom of repugnance?
    3.4. Morphological freedom and the risk for arms races
    3.5. Genetic engineering
    3.6. Brain-machine interfaces
    3.7. Longer lives
    3.8. Uploading: philosophical issues
    3.9. Uploading: practical issues
    3.10. Cryonics

    4. Computer revolution
    4.1. Cantor
    4.2. Turing
    4.3. Computer revolution up to now
    4.4. Will robots take our jobs?
    4.5. Intelligence explosion
    4.6. The goals of a superintelligent machine
    4.7. Searle's objection

    5. Going nano
    5.1. 3D printing
    5.2. Atomically precise manufacturing
    5.3. Nanobots in our bodies
    5.4. Grey goo and other dangers

    6. What is science?
    6.1. Bacon
    6.2. Are all ravens black?
    6.3. Popper
    6.4. A balanced view of Popperian falsificationism
    6.5. Is the study of a future intelligence explosion scientific?
    6.6. Statistical significance
    6.7. Decision makers need probabilities
    6.8. Bayesian statistics
    6.9. Is consistent Bayesianism possible?
    6.10. Science and engineering

    7. The fallacious Doomsday Argument
    7.1. The Doomsday Argument: basic version
    7.2. Why the basic version is wrong
    7.3. Frequentist version
    7.4. Bayesian version

    8. Doomsday nevertheless?
    8.1. Classifying and estimating concrete hazards: some difficulties
    8.2. Risks from nature
    8.3. Risks from human action
    8.4. How badly in trouble are we?

    9. Space colonization and the Fermi Paradox
    9.1. The Fermi Paradox
    9.2. The Great Filter
    9.3. Colonizing the universe
    9.4. Dysonian SETI
    9.5. Shouting at the cosmos

    10. What do we want and what should we do?
    10.1. Facts and values
    10.2. Discounting
    10.3. Existential risk prevention as global priority?
    10.4. I am not advocating Pascal's Wager
    10.5. What to do?

torsdag 15 oktober 2015

Robotattacken mot Alexander Gristjuk

Schack och robotar: två ämnen jag ofta återkommit till här på bloggen. Idag vill jag förena dem. Låt mig först rikta en gratulation till det ryska schackgeniet Alexander Gristjuk, som igår (och för tredje gången) tog hem segern i VM i blixtschack; till det slagna fältet hör bl.a. den norske megastjärnan Magnus Carlsen. Låt mig sedan bjuda på följande lite dråpliga videosnutt från 2012, där Gristjuk ställs mot en schackrobot av märket Kuka.1

Fotnot

1) En trolig reaktion efter att ha sett videon är måhända "Det var ju festligt, men en schackrobot kan ju inte rimligtvis bli farlig på riktigt". För den som känner sig böjd att dra den senare något förhastade slutsatsen rekommenderar jag Steve Omohundros viktiga uppsats The basic AI drives.

onsdag 14 oktober 2015

I diskussion med Ulf Danielsson om medvetandets natur

Stimulerade av en artikel i Forskning och Framsteg 7/2015 har Uppsalafysikern Ulf Danielsson och jag råkat i diskussion om vad utvecklingen inom artificiell intelligens kan föra med sig, och om medvetandets natur. Vi började med varsin bloggpost (min, Ulfs), fortsatte med varsitt brev publicerat i Forskning och Framsteg 8/2015, och har denna vecka följt upp med ännu en bloggpost var (min, Ulfs).1 I sin senaste bloggpost tar Ulf spjärn mot min argumentation då han lägger fram sin syn på medvetandet, och det kan tyckas som om vi står för diametralt olika synsätt. Jag tror emellertid att vi är mer överens än vad det först kan verka. Mycket av det Ulf skriver håller jag med om, men inte allt. För att klargöra detta tänker jag i det följande ta ställning till ett antal utsagor som Ulf gör i sin bloggpost.

*

UD: Till skillnad från Olle ställer jag upp på John Searles argument kring det kinesiska rummet. Jag menar helt enkelt att det finns fundamentala svårigheter när vi försöker förstå existensen av vårt subjektiva medvetande. Nuvarande vetenskap kan inte avgöra vilka system som har en subjektiv medvetenhet och kan därför heller inte skilja mellan en medveten varelse och en simulerande zombie. Detta är en avgörande brist vilken manar till försiktighet.

OH: Här håller jag med om nästan allt (inklusive i synnerhet maningen till försiktighet med att dra alltför tvärsäkra slutsatser om medvetandets natur) - och skulle hålla med om precis allt om det inte vore för att Ulf säger sig "ställ[a] upp på John Searles argument kring det kinesiska rummet". Jag anser att det kinesiska rummet är ett elegant tankeexperiment som snyggt illustrerar att (med Ulfs ord) "det finns fundamentala svårigheter när vi försöker förstå existensen av vårt subjektiva medvetande". Problemet är bara att Searle inte nöjer sig med denna slutsats - han hävdar att tankeexperimentet vederlägger den teori om medvetandet som benämns the computational theory of mind (CTOM) - och som (på ett ungefär) säger att medvetandet uppstår så snart vissa algoritmiska beräkningar implementeras, oavsett substrat (som t.ex. kan vara ett biologiskt nervsystem eller en elektronisk dator). Här har Searle enligt min mening fel - CTOM vederläggs på intet vis av det kinesiska rummet.2 Som skäl för denna ståndpunkt ansluter jag mig i stora drag till det som kommit att kallas the systems reply, och som Douglas Hofstadter vältaligt försvarar i det svar på Searles originaluppsats som han lägger fram på sidorna 373-382 i den underbara antologin The Mind's I - ett svar som även finns återgivet på nätet.3

*

UD: Trots, och i linje med, min (och Searles) argumentation kan det ju i princip vara möjligt att bygga farliga datorer alldeles oavsett om de är medvetna eller ej. Som Olle påpekar blir ju diskussionen om deras medvetenhet tämligen akademisk om de tar över jorden och förintar oss allihop.

OH: Om mänsklighetens överlevnad är det viktiga, så är frågan om huruvida robotarna är medvetna eller blott zombier ett akademiskt sidospår - om detta är Ulf och jag överens. Ändå vill jag göra en liten reservation här, ty om vi lyfter oss från det renodlat antropocentriska perspektivet inser vi att frågan om robotarnas medvetande likväl kan vara enormt viktig - för robotarna. Antag att robotarna utrotar mänskligheten, och sedan går vidare med att kolonisera såväl solsystemet och Vintergatan som resten av det synliga universum. Om de saknar medvetande så skulle jag betrakta detta som ett gräsligt utfall - ett bortslösat universum. Om de däremot har medvetande, och om de därtill har långt större förmåga än vi människor att uppleva t.ex. skönhet, kärlek eller allmänt välbefinnande (eller vilka andra goda upplevelser som vi kanske inte ens har namn på eller kan föreställa oss), då kan man hävda att en sådan framtid faktiskt vore bättre än en där mänskligheten blomstrar. (Jag måste dock medge att jag tvekar en smula inför denna slutsats; se även min bloggpost Superintelligence odds and ends II: The Milky Way preserve för besläktade tankegångar.)

*

UD: Biologiska varelser är enormt mycket mer komplicerade än de maskiner som vi i praktiken kan konstruera och sätta ihop. När vi beskriver biologiska organismer använder vi vilseledande metaforer som antyder pedagogiskt konstruerade maskiner vilka inte på något sätt fångar kraften i miljarder år av evolution. Konsekvensen blir att vi på ett fundamentalt sätt underskattar svårigheterna - detta oavsett vad vi har för uppfattning om medvetandets roll.

OH: Den fråga som Ulf här diskuterar - den om huruvida det står i vår makt att bygga verkligt intelligenta maskiner - måste rimligtvis anses vidöppen. Det kan hända att Ulf har rätt på denna punkt, men det kan också hända att han har fel, ty visserligen är det sant att evolutionen tog eoner på sig att skapa intelligens, men det bevisar inte att det inte finns smarta genvägar för oss att tillgripa. Personligen lutar jag åt att byggandet av sådana maskiner ligger inom möjligheternas ram. Så här skrev jag om saken i en annan bloggpost för ett par månader sedan:
    If we accept both naturalism and the Church-Turing thesis, then it is natural to think that intelligence is essentially an algorithmic property, so that if there exist superhumanly intelligent arrangements of matter, then there are computer programs that implement such intelligence. A nice framework for philosophizing over whether we could ever produce such a program is computer scientist Thore Husfeldt's recent image of the Library of Turing. Husfeldt used it to show that blind search in that library would no more be able to find the desired program than a group of monkeys with typewriters would be able to produce Hamlet. But might we be able to do it by methods more sophisticated then blind search? That is an open question, but I am leaning towards thinking that we can. Nature used Darwinian evolution to succed at the Herculean task of navigating the Library of Mendel to find genomes corresponding to advanced organisms such as us, and we ourselves used intelligent design for navigating the library of Babel to find such masterpieces as Hamlet and Reasons and Persons (plus The Da Vinci Code and a whole lot of other junk). And now, for searching the the Library of Turing in the hope of finding a superintelligent program, we have the luxury of being able to combine Darwinian evolution with intelligent design (on top of which we have the possibility of looking into our own brains and using them as a template or at least an inspiration for engineering solutions). To suggest that a successful such search is within grasp of future human technology seems a priori no more extraordinary than to suggest that it isn't, but one of these suggestions is true, so they cannot both be dismissed as extraordinary.

*

UD: Min slutsats blir att de datorer eller robotar som vi konstruerar inom en överblickbar framtid inte kommer ha några större likheter med medvetna hjärnor. Metaforer som går ut på att de är "medvetna" och agerar med "avsikt" i någon mänsklig mening riskerar därför att vara direkt missvisande när man skall undvika eller hantera eventuella farliga situationer.

OH: Åter vill jag förespråka epistemisk ödmjukhet. Det kan hända att vi skapar intelligenta maskiner om vilka det är vore ett fatalt misstag att tala om medvetande eller avsikter, men vi bör också vara öppna för eventualiteten att vi skapar intelligenta maskiner vilkas agerande vi får svårt att förstå utan dessa eller liknande begrepp.4 Inte minst gäller detta begreppet avsikter, och det finns faktiskt redan idag maskiner som - trots att de är mycket olika oss människor - vi inte klarar att handskas med utan att tillskriva dem avsikter. När jag spelar schack mot ett datorprogram hamnar jag ständigt i tankegångar där jag gör det - "Aha, maskinen spelar Tc8, det är nog med avsikten att kunna slå tillbaka med tornet ifall jag slår med löparen på c6, varvid den nog bedömer att kontrollen över c-linjen uppväger svagheten på e5" - och jag vågar påstå att den sortens antropomorfa avsiktstillskrivningar är helt oundgängliga om jag skall ha en chans att vinna partiet.

Fotnoter

1) Just som jag skall trycka på "publicera"-knappen för denna bloggpost blir jag varse att även den uppskattade bloggrannen Bo Sjögren nu har lagt sig i diskussionen med ett välargumenterat inlägg, vars inledande stycke lyder...
    Under gårdagen blev den läsvärda delen av bloggosfären översvämmad av kommentarer om John Searles berömda kinesiska rum; Olle Häggström förklarade kortfattat varför Searle har fel, och Ulf Danielsson förklarade nästan lika kortfattat varför Searle har rätt. Eftersom jag tror att båda två har fel - jag anser nämligen att Searle har både rätt och fel - så tänkte jag kasta mig in i debatten för att om möjligt komplicera saken ytterligare
...och omedelbart följs av en fotnot med följande gemytliga ordalydelse:
    Man kan ju naturligtvis i stället hävda att både Häggström och Danielsson har rätt, men frestelsen att försöka golva tre välrenommerade och välpublicerade professorer med en smäll blev för stark; ett sådant påstående är dessutom föga i samklang med det konfrontativa debattklimat som tycks råda i media för ögonblicket.

2) Härmed är inte sagt att CTOM är korrekt - det håller jag för att vara en öppen fråga. Däremot anser jag att CTOM är den rimligaste teori (om än en ofullständig sådan) vi idag har om medvetandets natur och plats i ett materiellt universum.

3) I Avsnitt 3.8, rubricerat Uploading: philosophical issues, i min bok Here Be Dragons: Science, Technology and the Future of Humanity som utkommer i januari, fördjupar jag mig i CTOM, i det kinesiska rummet och i the systems reply.

4) Att jag själv i högsta grad tar den eventualiteten på allvar framgår av att Avsnitt 4.6 i Here Be Dragons bär rubriken The goals of a superintelligent machine.

Edit 18 oktober 2015: I sin nya välskrivna och stillsamt reflekterande bloggpost Demokritos fattar galoppen fortsätter Ulf diskussionen. Mot slutet skriver han:
    Fällan det är lätt att gå i utgörs av att man trivialiserar frågan [om medvetandet och dess plats i ett materiellt universum] och återigen hänvisar till emergens och något ickemateriellt eller ickefysiskaliskt. Min bestämda uppfattning är att detta inte duger. Har man gett sig in i leken får man leken tåla. Om man betraktar medvetandet som något som det är möjligt att foga in i en naturvetenskaplig beskrivning måste det också vara något fysiskt.
En rimlig ståndpunkt. Jag är med på den, åtminstone om vi öppnar för att begreppet "fysiskt" kan tänkas inkludera ännu ej kända naturkrafter. Men jag vill här ställa en fråga till Ulf:

En kandidat till detta "något fysiskt" som medvetandet skulle kunna utgöra är fysisk realisering av rätt slags algoritmiska beräkningsstrukturer. Detta är vad CTOM går ut på. Anser du att denna kandidat på något vis är diskvalificerad från vad du menar med "något fysiskt"? Jag ställer denna fråga därför att dina tidigare bloggposter ger intryck av (och rätta mig gärna om jag har fel!) att du avvisar CTOM.

Edit 28 oktober 2015: Ulf har nu besvarat min fråga om CTOM, och jag har replikerat ännu en gång.

måndag 12 oktober 2015

John Searle tänker fel rörande AI-risk

Forskning och Framsteg hade i nummer 7/2015 en artikel om artificiell intelligens (AI), som bland mycket annat återgav en enligt min mening förfelad argumentation av John Searle. Detta framhöll jag i ett inlägg här på bloggen, men avstod från att förklara detaljerna, för att istället ge en framåthänvisning till min kommande bok Here Be Dragons (Oxford University Press, januari 2016) i vilken det searleska resonemanget vederläggs utan prut eller pardon. När redaktionen för Forskning och Framsteg fick se detta hörde de av sig med inbjudan om att i en kort replik förklara vad jag menar. Jag försökte skriva så kort jag kunde utan att tumma alltför mycket på vare sig begriplighet eller min önskan att göra reklam för min bok, vilket inte var lätt. Repliken kortades ned en del ytterligare inför publiceringen i det nya nummer 8/2015 av Forskning och Framsteg, vilket gör att den publicerade versionen balanserar på (eller bortom) det begripligas gräns.1 Nedan min ursprungliga lite längre version. För närmare förklaring hänvisar jag som sagt till Here Be Dragons.

* * *

"Möt forskarna som menar att maskinerna aldrig kan bli så smarta som vi" heter det på omslaget till FoF 7/2015, och i den åsyftade artikeln får vi bl.a. möta filosofen John Searle, som med stöd i sitt kända tankeexperiment det kinesiska rummet från 1980 hävdar att en dator inte kan ha verkligt medvetande, verkliga intentioner eller verklig vilja. Därför, menar han, behöver vi inte oroa oss för det slags undergångsscenarier som Nick Bostrom skisserat, där den första superintelligenta maskinen programmerats att ha en specifik målsättning, t.ex. maximering av framtida gemproduktion, vilket får den att bestämma sig för att genast utrota mänskligheten, då den ju helt korrekt förutsett att vi annars skulle försöka stoppa dess planer på att omvandla hela solsystemet (inklusive oss människor) till en jättelik hög med gem.

Searle, som lade fram samma kritik i New York Review of Books förra året, misstar sig dessvärre på vad hans kinesiska rummet-argument landade i. Man kan ha invändningar mot kinesiska rummet (vilket jag har) men om vi för resonemangets skull accepterar dess slutsatser, så handlar dessa enbart om datorns inre upplevelser (vilka enligt Searle är noll och intet), och inte om dess agerande utåt. Searle medgav själv i den debatt som följde på hans ursprungliga artikel 1980 att vad hans argument anbelangar är det fullt tänkbart att det går att programmera en dator så att den beter sig som om den hade en människas fulla uppsättning av intentioner, viljor, önskningar, etc. Mot dessa skenbara intentioner, viljor och önskningar svarar då vissa beräkningsstrukturer som vi kan kalla z-intentioner, z-viljor och z-önskningar ("z" som i "zombie"). Vi kan tänka oss att när Bostroms gem-undergång drar igång med robotar som urskiljningslöst avrättar människor så kommer panik att utbryta, men då kommer Searle att stå där och ropa "Lugn allesammans! Robotarna skjuter oss, men det är inte för att de har några verkliga intentioner att göra det. De är själlösa maskiner som blott har z-intentioner!" Detta kommer för oss andra att vara en ganska klen tröst.

I min bok Here Be Dragons: Science, Technology and the Future of Humanity, som utkommer på Oxford University Press i januari, ägnar jag flera längre avsnitt åt risker i samband med ett eventuellt framtida genombrott inom artificiell intelligens, inklusive en fördjupande diskussion kring datormedvetande, det kinesiska rummet, och de förhastade slutsatser som John Searle drar i detta sammanhang.

Fotnot

1) Min förkortade replik i Forskning och Framsteg publicerades tillsammans med en av fysikern Ulf Danielsson, där han (precis som någon månad tidigare i sin bloggpost Dum, dummare, robot) redovisar en ståndpunkt motsatt min och mer i linje med Searles.

Edit 12 oktober 2015 kl 18:00: Blott timmar efter denna bloggpost har Ulf skrivit ett svar, där han zoomar in på vad han menar är vår grundläggande meningsskiljaktighet i fråga om medvetandets natur. Våra respektive positioner förtjänar nog att preciseras ytterligare, och i själva verket tror jag att det finns mer som förenar oss än som skiljer oss åt i denna fråga. Jag borde (trots att jag har det aningen körigt just nu) försöka samla mig till ett svar där jag lite närmare klargör vad jag menar.

Edit 14 oktober 2015: Nu har jag levererat det halvt utlovade svaret.

lördag 10 oktober 2015

Stefan Svallfors' love letter - now in English!

Last year this blog featured a text by one of the foremost social scientists in Sweden today, Stefan Svallfors. The text takes the form of a "fictional" love letter to a university. He has now translated his letter into English, and offered to publish it here. Enjoy!

* * *

Dearest University - a love letter

Stefan Svallfors

(This is a completely fictional love letter from a completely fictional researcher to a completely fictional university. Any similarities with actually existing researchers and universities are unintended, even unavoidable.)

Dearest sweetest University,

We have to talk. Things haven’t been so good lately. It feels like you’re suffocating me and like we’re constantly frustrated with each other. Or maybe that we don’t trust each other.

When I think about it, it has been a long time since it felt really good. And yet we had something special, you and I. How did it happen, where did it disappear? When did we get on that downhill slope?

Oh I remember the first time, when I fell in love with you. Intoxication, and yet the feeling of deepest importance, of coherence. The feeling of coming home, finding what I had always searched for. You made me understand how it all fit together. And I was among equals, others who were like me. For the first time in my life included, supported.

The crystal sharpness of the late autumn air, when I stepped out from the library and darkness had already fallen, the feeling of clarity and space. Of meaning and belonging. How I loved you then.

But the mature love was in some ways even better. When we got to know each other, when I thought I saw exactly who you were – in all your shortcomings and failings as we all have – but still only loved you more. You were a little tedious from time to time, and had that need for control – as if you didn’t really trust my love for you. But you let me grow and I gave you all I had. We had a wonderful life together. I learned how to say “we” and mean “you and I”, and for me such things have never come easily.

When somebody asked me if perhaps they should try to hook up with a University I always said: of course. If this is who you are and what you want there is no better place in this world. Of course you should try. These days I’m not so sure how to answer. “Perhaps”, I would start in a lingering voice. If you think you can arrange things in thus and such a way. If you think you can stand this, and this. If not, go elsewhere. Search for someone else.

Surely I should have seen it coming. That nagging suspicion you had that I wasn’t doing everything I should. Although I gave you everything, more than anyone could have expected. I sometimes looked with amusement at the others, those who seemed to have a much cooler and shallower relationship to their University, as if they were just any employee with just any employer. But to me you were The University, and I wanted only you. But it was as if you didn’t really believe me, as if you always had to test how much I really cared. And nothing I did seemed to matter. All the millions in research grants I brought home, all the publications in my name and yours. Oh yes, you smiled and took it, but it was as if nothing was ever good enough.

I have to be frank. It isn’t me, it’s you.

I think a lot of it happened the way it did because you were after all a Public Authority. And a Public Authority is supposed to act in a certain way, which didn’t fit with who you really were. A Public Authority is supposed to keep a stiff upper lip, steer people, wait for and issue orders, force its will through. And every time you tried to be a Public Authority I distanced myself, didn’t do what you wanted, became troublesome and sarcastic. And you were hurt. But it was only because I wanted you to be all the beautiful things you could be that I became so difficult. I meant no harm.

It always became worse when you had been with the other Public Authorities. Those who thought they were real Public Authorities, while you didn’t really pass in their eyes. Bullies like the Government Offices and the National Audit Office, who made fun of you because you didn’t really know what your researchers were up to, and because we so often ignored your attempts to steer us. “But I stand for other values”, you tried, but it had a hollow ring to it and I could tell their sneers really got to you. Every time you came back from the other Public Authorities we had a fight. You wanted to boss me around more, as if to show the world that you were a real Public Authority. And I started to avoid you, became mean, chose new paths so that I didn’t have to see you so often. We yelled at each other, slammed doors, sulked, found our way back to each other. But every time it was as if something died in me.

And then it became even worse, when you began to listen to those self-styled relationship experts, the ones who called themselves “New Public Management”. I mean, didn’t you see their name as a warning sign? But they promised our lives together would be so much better if we only listened to their advice. I would have a better idea about what I was really supposed to do, and you would have a better sense of control over what I was really doing. Then we would evaluate it all and everything should be sooo good.

But of course it only became worse. I felt more and more frustrated and suffocated and you felt more and more suspicious with every report I sent. In the end it all became self-fulfilling: I started to go behind your back, make up things I hadn’t really done, keeping to myself, doing my own thing. After a while I almost never felt bad about it, or maybe just a little.

And I started to feel – and I cry a little when I write this – that you were ugly and disgusting. That everything that had attracted me in the beginning had disappeared. Even if I knew it was still there, deepest down, only hidden under all the “visionary documents” and “policies” and “development plans”. But the nasty truth was that you had begun to sicken me, you and all the jerks who just made life miserable for us. And since I had never really stopped loving you – as strange as it may sound – I was almost torn apart. We could have been so much for each other and now we are almost nothing.

Perhaps I should leave you. But it hurts too much to even think about it. Maybe I’m just scared – what I do with you is the only thing I can do. How could I live without you? And I know I have so much to give you, if you could just accept it.

But we can’t live like this anymore. We have to find some other way to be together. Where we can once again view each other with love and respect. Where we are not so suspicious any more. Where you can relax a little, and I can stop my constant sarcasms. I really want to try. Do you?

You will find me in the library café this afternoon, between three and four. Come by if you want to talk. But come only if you really think we can start all over. I can’t handle any more disappointments.