fredag 14 augusti 2015

Ett osökt tillfälle till reklam

Stora framsteg har gjorts det senaste årtiondet på området artificiall intelligens (AI), men huruvida det till slut kommer att bli möjligt för oss att skapa en maskin som i fråga om allmänintelligens övertrumfar människans förmåga måste rimligtvis ses som en öppen fråga. Det händer emellanåt att filosofer och andra meddelar att att ett sådant AI-genombrott är omöjligt, men jag har hittills utan undantag funnit deras argumentation slarvig och förhastad.

Därför blev jag en liten smula provocerad när jag fick se att omslaget till det pinfärska numret 7/2015 av utmärkta populärvetenskapsmagasinet Forskning och Framsteg pryds av krigsstilsrubriken "Dummare än du tror", följt av underrubriken "Möt forskarna som menar att maskinerna aldrig kan bli så smarta som vi". Det visar sig emellertid att rubrikerna åsyftar en alldeles utmärkt artikel av Joanna Rose, där ett brett spektrum av olika ståndpunkter redovisas.1 Artikeln ger mig dessutom osökt tillfälle att göra reklam för min kommande bok Here Be Dragons, som behandlar tänkbara konsekvenser för mänskligheten av framtida framsteg inom AI och en rad andra teknologier, och som utkommer på Oxford University Press i januari. Det är nämligen så att två av de tänkare som ges störst utrymme i artikeln och som stödjer omslagets tal om att "maskinerna aldrig kan bli så smarta som vi" - John Searle och Massimo Pigliucci - delar på äran att ha fått sina argument dissekerade och vederlagda i min (sedan flera månader tillbaka färdigskrivna) bok. Interssantast av dessa båda är fallet Searle. I Forskning och Framsteg-artikeln stödjer han sig på sitt berömda kinesiska rummet-argument för att döma ut Nick Bostroms paperclip Aramgeddon-scenario2 såsom "enfaldigt", och han kommer sedan fram till följande:
    Om du bara vill att din dator ska fungera, spela schack eller få flygplanet att landa, så spelar det ju ingen roll om du tror att den är intelligent eller inte. Frågan är bara viktig när du ger maskinen ett psykologiskt eller filosofiskt innehåll. Så om vi fruktar att illasinnad superintelligens ska förgöra oss så är det viktigt att apokalypshotet är verkligt. Men utan ett medvetande kan maskinen inte ha egna avsikter, motiv eller mål. Den är ju bara en mycket komplex hög av skrot.
Det Searle här säger är i allt väsentligt en upprepning av den argumentation som han lade fram i sin recension förra året i New York Review of Books av Bostroms bok Superintelligence - en recension som triggade mig att i min egen bok inkludera en detaljerad vederläggning av Searles argument. I själva verket tillintetgör jag i Here Be Dragons hans argumentation dubbelt upp, genom att påvisa (a) att kinesiska rummet-argumentet inte håller, och (b) att även om vi skulle acceptera Searles slutsats från hans kinesiska rum så krävs en rejält "enfaldig" (för att nu låna lite av Searles egen terminologi) tankelapsus för att ur den slutsatsen kunna blåsa faran över rörande "att illasinnad superintelligens ska förgöra oss" à la paperclip Armageddon.

Mer har jag inte för avsikt att säga här och nu om de argument och motargument som figurerar i denna diskussion, utan hänvisar till Here Be Dragons och ber läsekretsen om några månaders tålamod tills dess att boken utkommit. Jag får återkomma längre fram med exakt publiceringsdatum för boken så att ni alla får tillfälle att hänga på bokhandelslåset den aktuella morgonen.

Fotnoter

1) Forskning och Framsteg har behandlat frågan om utsikterna för ett framtida AI-genombrott även i tidigare texter; se t.ex. min egen krönika om detta ämne i nr 7/2014.

2) Jag har tidigare diskuterat paperclip Aramgeddon såväl här på bloggen som i föredragsform.

5 kommentarer:

  1. Vi behöver inte ens en illasinnad superintelligent robotras för att förgöra oss själva för vi tycks vara på god väg att lyckas med ett globalt självmord ex. via klimatförändringarna och även via överkonsumtionen av naturresurserna. (Vilket gör att vi borde minska vår hybris rörande det mänskliga förnuftet.)

    SvaraRadera
  2. Läste Johanna Rose artikel. Mycket intressant! John Searles distinktion mellan kunskap och existens , och subjektiv och objektiv sådan, är förvisso intressant. Jag antar, och här kan jag ha missuppfattat honom, att han menar att en jämförbar AI måste ha alla de egenskaperna för att komma i närheten av en människa.

    Det förs också ett resonemang kring motivation, och att en AI inte skulle kunna ha det.

    Jag tycker detta är oerhört intressant, och definitivt en diskussion som verkligen behövs.

    Men jag tycker ändå det är processerna som är det intressanta, och inte exakt hur det går till. En maskin kanske aldrig kommer att kunna uppbåda motivation i någon subjektiv mening, men det räcker väl att den förefaller ha motivation. Hur skiljer vi en sådan "konstgjord" motivation från "verklig" motivation i så fall?

    Sedan har jag en annan synpunkt. Vad är det som säger att en maskin som är överlägsen oss människor(eller tar makten över oss) måste vara det på ett sätt som påminner om mänsklig intelligens...?

    På något sätt blir det ändå resultatet som räknas i slutänden, oberoende av hur det går till. Vad kommer att hända?
    Kjell Eriksson

    SvaraRadera
  3. Olle jag tror helt enkelt du missförstått frågan och missar målet eftersom du inte vet var det är!
    Searle pratar om MEDVETANDET, ett kinesiskt rum är inte medvetet. Men det innebär inte att att icke medvetna system skulle vara ofarliga.. eller som du säger "att även om vi skulle acceptera Searles slutsats från hans kinesiska rum så krävs en rejält "enfaldig" (för att nu låna lite av Searles egen terminologi) tankelapsus för att ur den slutsatsen kunna blåsa faran över rörande "att illasinnad superintelligens ska förgöra oss" à la paperclip Armageddon."
    Dock ett icke medvetet system kan inte var "illasinnad".
    Vad jag menar är att vi kan konstruera en väldigt effektiv dator med avancerade algoritmer som också har ett inslag av självlärande som skulle kunna förgöra allt liv på jorden UTAN ATT VAR MEDVETEN!
    Algoritmerna skulle helt enkelt kunna räkna ut att allt liv på jorden behöver utrotas, systemet kanske till och med skulle kunna handa via input/output enheter so att detta sker men systemet behöver inte vara medvetet.
    DEt är alltså rimligt att anta att artficiella system kan vara farliga utan att vara medvetna. Alltså kan vi diskutera faran med AI utan att bry oss om medvetande problemet.
    Searle vill förklara medvetande och hans poäng är att vi kan skapa artificiella simuleringar som verkar medvetna utan att de ÄR medvetna. En annan poäng blir då att artificiella simuleringar inte blir ett bra sätt att förstå medvetandet.
    (jag har lite fler kommentarer under Patriks L's inlägg på humanist bloggen)

    SvaraRadera
    Svar
    1. På tal om "missförstått" så verkar det som att du här fått för dig att jag har en ståndpunkt som är rakt motsatt den jag försvarar i bloggposten. Läs punkt (b) i bloggposten en gång till!

      Radera
    2. En AI utan medvetande eller intention kan inte vara "illasinad" så det finns, om kinesiska rummet stämmer och medveten AI inte är möjlig inte heller möjlighet till "illasinnade" AI..
      Det jag tror du menar är att ett helt omedvetet AI skulle kunna utföra handlingar som är orsakade av dess algoritmer som om de skulle utföras av medveten och intentional varelse skulle kunna klassas som "illsinnad" :-)

      Radera