Ett ofta anfört argument avsett att tona ned talet om katastrofrisker i samband med ett genombrott inom AI (artificiell intelligens) är att de forskare som lyfter fram dessa risker i regel kommer från andra områden än AI och datalogi, och därför (så lyder argumentationen) saknar den expertkompetens som behövs för att kunna göra sådana bedömningar. Så t.ex. är Max Tegmark och Stephen Hawking båda fysiker, medan Nick Bostrom är filosof, och jag själv är matematisk statistiker.1 Jag finner argumentet olyckligt av flera skäl. Ett är att det som vanligen avses med AI-forskning, nämligen forskning som syftar till att skapa högpresterande AI, inte alltid självklart är det mest relevanta kompetensområdet när det gäller att värdera futurologiska AI-scenarier. Ett annat är att jag tycker mig ha noterat att en viss benägenhet (mer eller mindre omedveten) att inte vilja se riskerna med teknisk utveckling inom det egna forskningsområdet är vanligt förekommande, både bland AI-forskare och på andra områden.
Hur som helst tycker jag att det är bra att kraften i det anförda argumentet punkteras en smula av att en av världens mest respekterade AI-forskare, Stuart Russell vid UC Berkeley, träder fram i en färsk intervju i tidskriften Quanta Magazine och förklarar varför han anser att katastrofscenarierna förtjänar att tas på största allvar.2 Läs intervjun här!
Fotnot
1) För att inte tala om hur en av mina absoluta favorittänkare på detta område, Eliezer Yudkowsky, ofta avfärdas med att han är autodidakt utan någon akademisk examen överhuvudtaget.
2) Ett annat framträdande motexempel är datalogen Roman Yampolskiy.
Låt oss säga att en intelligens endast kan skapa en intelligens som har IQn > IQn+1, det vill säga i mitt rudimentära tankesätt, utan matematisk skolning säger jag att en intelligens ej kan skapa intelligentare, utan endast mindre intelligent. MEN:
SvaraRaderaOm gruppintelligens kan vara större än individintelligens kan
IQgrupp > IQart > IQn > IQn+1
Det vill säga om framstående forskare kan skapa en intelligens som är skarpare än de individuella forskarna, men mindre än forskarnas samlade intelligens, så skapas grogrunden för en trappstegsformation, där grupper av högre intelligenser kollektivt skapar ytterligare högre individintelligenser. Sedan är frågan hur mycket energi som krävs i varje steg. Slutligen kanske systemet kraschar av att för mycket energi går åt till tomgångsberäkningar. Det kan även gå som för människan, beräkningshuvudet kan inte ta sig igenom födelsekanalen utan förödande bristningar.
Jäviga datorer? Det tycks vara något man får se upp med i framtiden.
SvaraRaderahttp://www.svd.se/kultur/understrecket/datorerna-allt-battre-pa-domstolarnas-jobb_4516012.svd
Ett inlägg i AI-debatten:
SvaraRaderahttps://svenerland.wordpress.com/2015/04/25/regeringsarbetet-effektiviseras-med-ai/