tisdag 9 februari 2016

En smula synlighet på Chalmers

I samband med min nya bok Here Be Dragons: Science, Technology and the Future of Humanity, min debattartikel i Svenska Dagbladet häromveckan, och mitt seminarium på torsdag, har Chalmers kommunikationsavdelning beslutat skänka mig en smula rampljus. Så nu finns ett nyhetsinslag om mig som kan nås via Chalmers hemsida.

Edit 10 februari 2016: Nästan samtidigt har en annan text om mig med i stort sett samma vinkling kommit upp i en annan del av Chalmers webb. (Det verkar ju som att Chalmers kommunikationsavdelning och institutionernas vid samma lärosäte informatörer inte samordnar helt och hållet, och själv tackar jag glatt ja till varje liten stråle rampljus utan invändningar av typen "blir det inte lite mycket på en gång med det här?").

4 kommentarer:

  1. Hej Olle

    Alltid intressant att läsa inläggen på bloggen. Frågan om en aggressiv kommande AI är viktig, och en seriös diskussion är viktig. Jag vill minnas att Nick Boström vid något tillfälle sa att en AI behöver inte nödvändigtvis vara superintelligent för att vara farlig, den behöver bara vara extremt "duktig" på det den är programmerad att göra. Boström avfärdade också (som jag minns det) att AI:n behöver medvetande för att förbättra sig själv. Jag är lite skeptiskt till detta, en AI som inte är medveten om sin existens har väl ingen "drivkraft" att förbättra sig? Drivkraften skulle i så fall vara en inprogrammerad algoritm? (Har jag missat något väsentligt i resonenmanget?)Vad tror du om medvetande som en förutsättning för en expanderande AI?

    SvaraRadera
    Svar
    1. Hej Lars, tack för vänliga ord!

      Jag anser att frågan om robotmedvetande är intressant (se den här bloggposten på OUPblog) men tror inte att den har någon bäring på frågan om robotar kan ha drivkrafter. Jag tycket att den Omohundro-Bostrom-teori för ultimata kontra instrumentella drivkrafter som jag skisserar i Anvnitt 4.6 i Here Be Dragons gör detta ganska klart (men så dåligt som vi förstår medvetandebegreppet vore jag förstås tokig om jag inte medgav att jag kan ha fel i denna fråga). Se även behandlingen i Avsnitt 4.7 (sammanfattad i en annan OUP-bloggpost) av den hypotetiska men enligt min mening lärorika dikotomin drivkraft vs z-drivkraft (där z betyder zombie).

      Radera
  2. Tack för svaret. Man skulle alltså kunna säga att en (superintelligent) AI gör allt för att uppnå sitt mål, och är likgiltig inför konsekvenserna? Jag tänker mig att en AI blir farlig om den har möjlighet att uppfatta oss människor som ett hot (att vi t ex gör allt i vår makt för att stänga av den). Men då krävs väl också att AI:n kan uppfatta (alltså i någon mening vara medveten om) omvärlden? Eller kan den artificiella intelligensen "resonera" sig fram till att vi människor existerar?

    En situation som jag funderat över (kanske du också) är om vi programmerar en artificiell intelligens till att lösa klimatfrågan, säg att hålla jordens medeltemperatur på en viss nivå, har vi då löst frågan, eller försatt oss i en än värre situation?

    Med vänlig hälsning Lars B

    SvaraRadera
    Svar
    1. En "AI gör allt för att uppnå sitt mål..."

      Ja.

      "...och är likgiltig inför konsekvenserna."

      Nej. Men konsekvenserna värderas utifrån grad av måluppfyllelse.

      Om en superintelligent AI har som mål att stabilisera klimatet (men inget annat inbyggt i sin målfunktion), så förefaller det sannolikt att den hittar ett sätt att göra det, men att det inbegriper eliminerandet av mänskligheten (eftersom mänskligheten tenderar att ha en destabiliserande inverkan på klimatet).

      Allt detta enligt den Omohundro-Bostromteori jag redivisar i Avnitt 4.6.

      Radera