Singulariteten - det hypotetiska framtidsscenario där ett genombrott inom artificiell intelligens (AI) leder till en extremt snabbt eskalerande spiral av allt intelligentare maskiner med genomgripande konsekvenser för hela vår värld - har jag skrivit en hel del om här på bloggen. Än så länge är emellertid diskussioner om Singulariteten i stort sett frånvarande i mainstreammedia och den allmänna debatten. Böcker som James Millers
Singularity Rising och James Barrats
Our Final Invention har inte förmått ändra på detta mer än högst marginellt, och frågan är om vi kan hoppas på mer av Nick Bostroms länge emotsedda
Superintelligence, som utkommer denna sommar. DN:s vetenskapsredaktör Maria Gunther Axelsson tog, som jag
berättade i min förra bloggpost, ett litet steg i riktning mot att väcka det allmänna medvetandet i frågan, genom att i förrgår ägna en
DN-krönika (dock dessvärre gömd bakom betalvägg) åt ämnet.
En person vars intresse för frågan Gunther Axelsson lyckades väcka är
bloggaren Per Kraulis, som med sin bloggpost
Datorns existentiella ångest: Därför har Stephen Hawking fel ventilerar sin skepsis mot det slags katastrofscenarier som diskuteras i
den aktuella DN-texten och i
en artikel i The Independent den 1 maj i år av Stephen Hawking och tre medförfattare. Kraulis invändning går ut på att dessa scenarier förutsätter att AI-maskinen har drivkrafter att
"hålla sig själv vid liv, föröka sig och ta över", drifter som följer naturligt ur biologisk evolution, men som (enligt Kraulis) knappast kommer att föreligga hos en AI. I DN-krönikan citeras jag med en formulering som innehåller passagen
"du är uppbyggd av atomer som [AI-maskinen]
kan ha annan användning för",
1 vilken Kraulis kritiserar med följande stycken.
Den springande punkten här är orden ”kan ha en annan användning för”. Jag ställer mig frågan: Vem, eller vad, bestämmer denna användning, detta syfte? För en maskin är det alltid maskinens design som avgör vad den ”strävar” efter. Det är konstruktören, det vill säga, vi människor, som avgör det. Det finns inga maskiner som själva kan formulera syften, önskemål eller värderingar. Det finns, mig veterligen, inte ens ansatser inom AI till hur en sådan maskin skulle se ut.
Många skulle svara: Men det är väl självklart vad en intelligent maskin skulle ha för mål? En självmedveten maskin vill ju hålla sig själv vid liv, föröka sig och ta över, om den bara kunde!
Men detta, hävdar jag, är ett felslut. Det är inte alls självklart att en självmedveten maskin skulle vilja det.
Vi tycker det vore självklart därför att vi, som biologiska organismer, genetiskt präglade av ca 3,6 miljarder års evolution, är så hårt programmerade att se överlevande och förökning som självklart goda saker. Om vi kunde spåra alla våra släktingar i rakt nedstigande led till de första cellerna, så skulle vi se att det som förenar samtliga anfäder och anmödrar var önskan och förmågan att fortplanta sig. Av de organismer som tappade lust eller förmåga att fortplanta sig, så har ingen avkomma överlevt. Trivialt, men samtidigt fundamentalt!
Evolutionens mekanismer fungerar alltså så att den organism som sammantaget har största drivkraften och förmågan att föröka sig och ta över så mycket som möjligt av sin miljö, är den som i det långa loppet har bäst chans att överleva. Följden är att vi har livsdriften bokstavligt talat kodad i våra gener. Endast de organismer som har generna för denna obändiga vilja till liv och expansion är de som faktiskt överlever. Alla andra försvinner.
Inget av detta gäller AI-maskiner. De har aldrig utsatts för evolution på så sätt att en maskin som, på något rudimentärt sätt, uppvisat en förmåga att motstå att bli avstängd har gynnats genom att man tillverkat flera sådana maskiner.
Detta är mycket intressanta tankegångar, som varje seriös Singulariteten-teoretiker behöver vara bekant med och ta ställning till.
Kraulis bloggpost är väl värd att läsa i dess helhet. Men vad Kraulis inte verkar ha klart för sig är att de evolutionsbiologiska tankegångarna redan är välbekanta i litteraturen om Singulariteten, och det stämmer inte alls som han säger att denna
"bygger på fysik, matematik och datalogi, medan det biologiska tänkandet är helt frånvarande";
2 se t.ex.
Bostrom och Shulman (2012) och
Hanson och Yudkowsky (2013) för arbeten om Singulariteten där det evolutionsbiologiska perspektivet är framträdande.
Och även om Kraulis synpunkter är värda att beakta, så menar jag att de inte håller för slutsatsen att en AI kommer att sakna drivkrafter att
"hålla sig själv vid liv, föröka sig och ta över". Jag skall här ge tre separata argument (1), (2) och (3) för att en AI trots allt kan komma att ha dessa drivkrafter. Av dessa argument håller jag (3) för att vara det klart intressantaste och viktigaste, och i jämförelse med det ser jag (1) och (2) mer som intellektuell uppvärmning. Hur som helst:
(1) Om det nu skulle vara som Kraulis påstår, att de drivkrafter vi diskuterar förutsätter att varelsen ifråga har uppkommit genom den darwinska processen av mutation, selektion och reproduktion, så är det relevant att konstatera att en icke oäven del av AI-utvecklingen idag äger rum inom det ramverk som benämns evolutionära algoritmer, och som bygger på just dessa darwinska mekanismer. Precis som den biologiska evolutionen spontant (och som Kraulis förklarar) verkar leda fram till drifterna att "hålla sig själv vid liv, föröka sig och ta över", så är det knappast orimligt att detsamma skulle kunna hända inom evolutionära algoritmer.
(2) Man kan också tänka sig att en AI-utvecklare med vett och vilje bygger in drivkrafter i sin AI om att försvara sig, förbättra sig, reproducera sig och ta över världen. Det finns knappast några principiella hinder mot att programmera något sådant. En invändning skulle dock kunna vara att det förefaller så katastrofalt livsfarligt att göra det att ingen någonsin skulle försöka sig på en sådan sak. Historien ger emellertid inte några entydigt positiva besked om vår förmåga att stå emot frestelsen att bygga domedagsvapen, och det finns tillräckligt med fanatiska terrorister och Kim Jong-un-typer (för att inte tala om alla uttråkade tonåringar med hackerböjelser) för att vi inte rimligtvis skall känna oss säkra på att inga sådana AI-projekt pågår eller är att vänta.
(3) Det finns en mycket intressant teori utvecklad av Steve Omohundro som handlar om en uppsättning instrumentella drivkrafter som varje tillräckligt intelligent, självständigt och flexibelt tänkande AI kan väntas utveckla, nästan oavsett vilka ultimata drivkrafter som programmerats in i den från början; se Omohundros uppsatser The Basic AI Drives och Rational Artificial Intelligence for the Greater
Good, och Nick Bostroms The Superintelligent Will. En AI kan vara tillverkad för ett till synes helt harmlöst syfte, som att tillverka så många gem som möjligt eller att vinna så många schackpartier mot starka spelare som möjligt, men kommer ändå då den nått en viss grad av allmänintelligens att sträva efter att förbättra sig själv, att få tillgång till större beräkningskapacitet, att undvika att bli avstängd och att bygga många kopior av sig själv - helt enkelt som ett instrument för att uppnå den ultimata målsättningen i termer av gemtillverkning eller schacksegrar. Detta kan få katastrofala konsekvenser, och vi vill verkligen inte att vår galax skall omvandlas till att enbart bestå av en enorm uppsättning gem.
Jag vill inte med detta ha sagt att jag vet vad som kommer att hända - sådan tvärsäkerhet är knappast påkallad inom ett så outvecklat och vanskligt område som förutsägelser om framtida AI. Min ambition här begränsar sig till att framhålla att Per Kraulis argument för att någon katastrofal Singularitet knappast är att vänta inte är invändningsfria.
Fotnoter
2) Om man skall vara riktigt noga är det bara Gunther Axelssons DN-krönika som Kraulis med dessa ord dömer ut, men implicit i hans argumentation ligger antagandet att hela teoribygget kring Singulariteten lider av samma defekt.