onsdag 28 oktober 2015

Vilken egenskap hos mänskliga hjärnor är det som ger upphov till medvetande?

Ulf Danielsson och jag har under hösten fört ett lågintensivt bloggsamtal om artificiell intelligens och medvetandets plats i ett materiellt universum. Mitt senaste inlägg i samtalet - ett kort tillägg som jag den 18 oktober fogade till en bloggpost som i övrigt är från den 14 oktober - kokar ned till en fråga till Ulf, nämligen huruvida det är rätt tolkat att han underkänner CTOM (the computational theory of mind) som rimlig kandidat till förklaring till vad det egentligen är i vårt fysiska universum som ger upphov till medvetande. I sin nya bloggpost Dra ur sladden bekräftar Ulf att jag på denna punkt tolkar honom rätt:
    Min personliga uppfattning är att CTOM som hypotes är godtycklig och ogrundad. Jag ser inget som helst skäl till varför en digital maskin vars relevanta komponenter, enskilt eller i samspel, kan förstås i termer av välkänd och klassisk fysik skulle kunna leda till något som ett medvetande. Däremot tvingas jag med grund i min egen subjektiva erfarenhet erkänna existensen av ett medvetande i biologiska hjärnor. Den rimligaste slutsatsen, baserat på fysikalisk förståelse och subjektiv erfarenhet, blir att medvetanden så långt är förbehållna biologiska system där medvetande uppstår på ett för oss hittills okänt sätt.
Själv är jag inte med på Ulfs konklusion om vari "den rimligaste slutsatsen" består. Med sitt uttalande kommer han väldigt nära en ståndpunkt hos vetenskapsfilosofen Massimo Pigliucci, som jag bemöter i Avsnitt 3.8 i min kommande bok Here Be Dragons: Science, Technology and the Future of Humanity. I sitt bidrag till den spännande antologin Intelligence Unbound: The Future of Uploaded and Machine Minds från 2014 går Pigliucci till attack mot CTOM och mot David Chalmers försvar av teorin ifråga i samma antologi. Och i Here Be Dragons svarar jag så här, med ett resonemang som jag tycker duger även till att ifrågasätta Ulfs ovan citerade tankegång:
    [Pigliucci repeatedly asserts that] "consciousness is a biological phenomenon", and [he complains] that Chalmers' contribution to the same book
      proceeds as if we had a decent theory of consciousness, and by that I mean a decent neurobiological theory. (emphasis in the original)
    But this merely presupposes what Pigliucci wants to prove, namely that consciousness is a biological phenomenon. Pigliucci knows of one example of a conscious entity, namely himself, and he has a reasonable case for assuming that most other humans are conscious too, and also that in all these cases consciousness resides (at least to a large extent) in the brain. Since all these brains are neurobiological entities, isn't that just what we need for the claim that a theory of consciousness needs to be neurobiological? Well, no, because being neurobiological entities is not the only thing that these brains have in common. They are also, e.g., material objects, and they are computing devices. Pigliucci thinks that being a neurobiological entity is the relevant property around which a decent theory of consciousness needs to be centered. Other philosophers (panpsychists) think that being a material object is the relevant property, and yet others (supporters of CTOM) think that being a computational device is the relevant property. Any discussion of the pros and cons of CTOM ought to start with the admission that it is an open problem to decide which of these generalities (or some other one, such as being bipedal, or being created in the image of God) is the relevant one for the fundamental nature of consciousness. Instead postulating from the outset, as Pigliucci does, which of them is the right one, short-circuits the discussion in such a way as to make it trivial.

23 kommentarer:

  1. Jag kanske har missat någonting jag borde ha läst, men jag saknar en definition, eller åtminstone en diskussion om vad medvetande betyder. Som jag ser det bör medvetande, liksom intelligens, om det alls ska vara meningsfullt att tala om dem, definieras i termer av hur de får organismer att bete sig – på ett utifrån observerbart sätt. Men här, som i många andra sammanhang, tycks det istället handla om en ”känsla”: om hur man själv upplever de nervsignaler som studsar runt i dess inre, utifrån en representation av andra nervsignaler som studsar runt i ens inre, och interfererar med de första signalerna. Alltså om ens egen subjektiva upplevelse av förmågan istället för förmågan i sig. Jag har svårt att se hur det skulle kunna leda till någon djupare insikt.

    Det är ganska populärt att hävda att den fria viljan är en illusion (vilket jag i o.f.s. tycker är nonsens). Borde man inte då analogt hävda att också medvetandet är en illusion? Eller, som jag föredrar, att vilja och medvetande är språkliga begrepp som är meningsfulla i den abstrakta modell av verkligheten vi intuitivt arbetar med, men är ointressanta i fysikaliskt perspektiv.

    SvaraRadera
    Svar
    1. Medvetandet är notoriskt svårt att definiera exakt, men din läsning av debatten här, att det handlar mer om subjektiv upplevelse än om något objktivt mätbart, är riktig. Jag kan hysa viss förståelse för din önskan om en operationaliserad definition (och Dennett drar åt samma håll), men jag är också rädd att ett sådant drag vore att ducka för själva kärnfrågan - den som Chalmers döpt till the Hard Problem och som exempelvis kan formuleras i termer av "Varför är vi inte zombier?".

      Radera
    2. Ja, jag förmodar att jag håller med Dennet, även om jag mest har blivit irriterad över det jag läst av honom i detta ämne. Zombiefrågan har jag svårt att ta på allvar, och jag behöver en vetenskaplig förklaring av min känsla av medvetande lika lite som jag behöver vetenskapliga argument för att jag föredrar Sidney Bechet framför James Last.

      Radera
    3. Förlåt om jag nu svarar lite plumpt, men det där sista, om att du inte "behöver en vetenskaplig förklaring av [d]in känsla av medvetande", låter i mina öron en smula antiintellektuellt.

      Radera
    4. Bara om man sätter likhetstecken mellan intellektuellt och vetenskapligt. Jag är en stor fan av [natur-]vetenskap, men ser föga poäng i att försöka applicera den på sådant som inte är mätbart, eller består enbart i subjektiva upplevelser – metarepresentationer oåtkomliga för nervsystemets narrativa funktioner.

      Radera
    5. Hur vet Häggström att denne inte är en zombie?
      Det är väl endast definitionen av en zombietillvaro som gör att man definierar sig som mer än zombie. Om en filosof sitter ner tillräckligt länge eller går i sin egen fantasivärld djupt försjunken i sina tankar - kan inte denne betraktas som zombie av utomstående men se sig själv som i högsta grad alert och i gengäld betrakta alla andra som zombier där de genomför sina liv i inrutade mönster.

      Radera
    6. Vättern, jag menade zombie i ordets medvetandefilosofiska betydelse - se länken jag gav i kommentaren 10:18 ovan.

      Radera
  2. Förutom det så är väl frågan om hur viktig en sådan egenskap är för AI rätt öppen?

    SvaraRadera
    Svar
    1. Yep. Och frågan har flera dimensioner. Viktig på vad sätt, och för vem?

      Radera
  3. På något sätt verkar det rimligt att anta att medvetandet har sina rötter i någon form av complex hjärnaktivitet som kanske kan beskrivas som en beräkning. Men vid vilken komplexitetsgrad uppstår det medvetandet? Är en räknesticka eller min dator medveten? Hur komplext måste det vara? Är medvetandet i så fall en epifenomen eller kan medvetandet styra materien (hårdvaran)?

    Vet ej om det är långsökt, men: Har en tillräcklig stor myrstack något som kan kallas medvetande? Eller skulle man hävda att strukturen i den och myrornas sätt att skapa vägar fram till mat etc inte är en form av beräkning?

    SvaraRadera
    Svar
    1. I den mån jag tror på CTOM (dvs i viss mån, men inte med någon bergfast övertygelse) så tror jag inte att det enbart är storleken det kommer an på. Jag har svårt att tro att en jättestor dator som inte gör något annat än att medelst skolboksalgoritmen addera enormt stora heltal skulle uppnå medvetande hur stora talen än är - låt dem vara 10^30-siffriga (dvs tal i storleksordningen 10^(10^30)) eller vad du vill...

      Denna poäng är lite viktig i AI-debatten, för att avväpna en del vulgärargumentation (ack så vanligt förekommande; ett typexempel är Brooks) som målar upp karikatyrbilden av dem som tror på strong AI såsom troendes att tillräckligt stora datorer automatiskt blir medvetna.

      Tanken att en insektskoloni (eller till och med ett mänskligt samhälle) åtminstone i princip skulle kunna vara medveten har dryftats en hel del i medvetandefilosofin, och synes mig inte alls orimlig.

      Radera
    2. Håller med angående storlek på datorn. Men jag menade komplexitet. Vad det nu är. Jag tänker mig (helt enkelt ...) ett stort antal hjärnceller med rätt många synapser vardera som dessutom har en slags fuzzy-logik. Och problemet är att på något sätt definiera när medvetandet uppstår.

      Sedan räcker det kanske att konstatera att medvetande finns och kalla det emergent?

      Radera
    3. "Vad det nu är" - my (implicit) point exactly! Dvs, jag undvek det ordet och talade om storlek istället, just för att vi inte vet vad den eventuellt relevanta definitionen av komplexitet skulle vara, och att tal om "tillräcklig komplexitet" utan att ange vad det är riskerar att bli för oprecist för att säga något alls...

      Radera
  4. Medvetandet skiljt från materia?
    Det finns fortfarande de som tror att själen, medvetandet, nuos är skiljt från kroppen. Där medvetandet bebor kroppen och nyttjar hjärnstammen och neo cortex som ett filter för att sortera ut vissa signaler ur ett kaosartat universum. Ögon-hjärnkomplexet sorterar fram vissa frekvenser, öron-hjärnakomplexet andra frekvenser och hud-hjärnakomplexet ytterligare frekvenser (exempelvis olika intensiteter av infraröd strålning eller genom skadlig ultraviolett).

    Tänk ett medvetande som registrerar frekvenser långt högre eller lägre än vad den mänskliga kroppen uppfattar.

    SvaraRadera
  5. Njae, jag tycker inte du formulerar problemet korrekt. Problemet, som jag ser det, är att andra djur också har "computational devices" men ändå ingenting som liknar mänskligt medvetande.

    Jag kan fråga dig hur du känner när du hatar, älskar, tänker och så vidare, och du kan svara med en beskrivning som jag kan känna igen mig i (eller inte) genom att jämföra med mina egna känslor. Om du påstår att hat är som att äta en apelsin kan jag avfärda ditt påstående som att du inte har förstått någonting, trots att jag inte känner vad du känner. Ditt medvetande är nåbart för mitt. Djurs är det inte.

    Så när du frågar vilken egenskap det är hos *mänskliga* hjärnor som ger upphov till medvetande och pekar på vårt "computational device" som ett tänkbart svar tycker jag du missar du något väsentligt i problemet. Varför ger vissa hjärnor upphov till medvetande men andra inte? Alternativt, varför är vissa medvetanden åtkomliga för oss men andra inte?

    SvaraRadera
    Svar
    1. Men då talar vi om helt olika problem, Patrik. Vad jag (och även Ulf om jag förstår honom rätt) är ute efter är vad medvetandets plats i ett materiellt universum är. Vad du nu frågar efter är snarare vad som ligger till grund för det specifikt mänskliga medvetandet och hur det skiljer sig från andra medvetanden - en helt annan fråga, förvisso intressant, men inte den som är föremål för Ulfs och mitt meningsutbyte. Jag misstänker att det var den möjligen lite olyckliga bloggpostrubriken som ledde dig fel härvidlag - my bad.

      Radera
    2. Det stämmer bra det, vi pratar om olika problem och det föranleddes faktiskt avsiktligt av min läsning av rubriken. Men det finns en viktig poäng där, menar jag, nämligen att svaret "enhet X har en computational device" inte räcker för att utröna om enhet X har medvetande eller inte, utan det finns något specifikt hos vissa "computational devices" som ger medvetande, något vissa enheter har men andra inte. Vad detta "något" skulle vara ser jag inte att du alls berört i dina i övrigt intressanta bloggningar. Jag håller med dig i allt du skriver men saknar dina tankar om detta.

      Radera
    3. Patrik, går du möjligtvis med på att det troligtvis finns medvetna människor som inte kan meddela sig om sitt medvetande till dig...? Jag tänker på stumma personer. Eller kanske mer problematiskt, de som inte heller kan meddela sig på andra sätt. Exempel är spädbarn eller förståndshandikappade, grupper där det verkar naturligt att anse att de har ett medvetande, även om deras medvetande inte är /nåbara/ för ditt. Jag tror det kriterium du föreslår (om /nåbarhet/) kan vara lite godtyckligt för att skarpt dra gränsen att andra djur inte kan ha något som liknar mänskligt medvetande. Jag tror risken är att du utesluter vissa människor när du ska göra detta kriterium tillräckligt specifikt. Jag tror att enbart kriteriet om nåbarhet kan vara problematiskt.

      Radera
    4. Patrik 19:54 - nu tycker jag att du är betydligt mer spot on! CTOM, i dess grundform, går ut på att medvetandet uppstår i samband med rätt slags algoritmiska beräkningsstrukturer, men preciserar inte närmare vad som menas med "rätt slags". Det sistnämnda är givetvis en brist hos CTOM, och jag har dessvärre inte något förlösande att komma med. Ganska populär för närvarande är Giulio Tononis förslag om informationsteoretiskt grundad presicering av "rätt slags", som försvaras av Christof Koch i hans bok Consiousness: Confessions of a Romantic Reductionist, men jag känner mig ännu inte jätteövertygad. Andra ansatser att närma sig en precisering finner man t.ex. hos Dennett och hos Hofstadter. I synnerhet Hofstadter finner jag förtjusande, men huruvida han har rätt är såklart en annan sak.

      Radera
  6. Ville,
    Nåbarhet var inte tänkt som ett kriterium för att avgöra vem som är medveten och vem som inte är det, utan enbart ett sätt att visa att alla andra medvetna varelsers medvetanden inte nödvändigtvis är helt okontrollerbara.

    SvaraRadera
  7. Olle,
    Det är ju det här jag försökt prata om hela tiden! Jaja, ok, lite ospecificerat så, men ändå. Jag håller med dig om det förtjusande hos Hofstadter, det är lite det som gör att jag tycker den här diskussionen är så vansinnigt intressant, men än så länge finns (väl?) inget riktigt empiriskt stöd för att han är rätt ute. Tyvärr. Jag har kollegor som driver en intressant tes med bättre empiri, men det kan jag inte tala om så länge det inte är publicerat. Jag är dock inte överens med dem, trots empirin, utan är mer på Hofstadters linje - rekursion is the shit. Men tack för tipset om Tononi, honom har jag inte läst.

    SvaraRadera
  8. För att spinna vidare på Hofstadters "feedback loops" och Tononis "nested loops" kan det kanske vara intressant att se detta försök till matematisk matrismodel av "Conscious Agents" av Donald Hoffman:
    https://www.youtube.com/watch?v=TSBbGr0pELQ
    (15 min in börjar han presentera modellen och vid 30 min kommer några spekulativa hypoteser om medvetandet med anknytning till partikelns vågekvation och kvantfysik).
    Om man tänker sig medvetandet som en stor mängd loopar (Perception - Decision - Action) i komplexa nestade loopar, där minnet är villkor i D. Problemet som i alla reglertekniska analyser är att hitta överföringsfunktionen i en öppen loop. Är överföringen olinjär och/eller dynamisk är det ytterligare knepigare att studera en sluten loop.

    Med vänliga hälsningar,
    Dan

    SvaraRadera