fredag 7 november 2014

Med Claes Strannegård i samtal om framtida artificiell intelligens

I det nyutkomna nr 6/2014 av Göteborgs universitets tidning GU-journalen är jag på sidorna 14-15 intervjuad tillsammans med forskarkollegan och gode vännen Claes Strannegård. Intervjun har rubriken I väntan på de intelligenta robotarna,1 och följande ingress:
    Vad händer när de intelligentaste varelserna på jorden inte längre är vi? Det är en fråga som borde tas på största allvar, menar Olle Häggström, professor i matematisk statistik, och Claes Strannegård, forskare i tillämpad informationsteknologi. Det handlar om AI, det handlar om singularitet, och lite om Darwin också.
Läs hela samtalet här (i pdf-format) eller här (i html).

Jag gillar för övrigt fotot ovan, hämtat från artikeln i GU-journalen. Det är taget på min arbetsplats, just utanför mitt tjänsterum, men känns det inte som att det vilar en Roy Anderssonsk stämning över miljön?

Fotnot

1) OK, det är en sympatiskt Beckett-klingande rubrik, så jag skall väl inte döma ut den totalt, men på sätt och vis talar den tvärt emot det budskap jag helst skulle vilja få fram. De intelligenta robotarnas genombrott kan leda till ofantligt mycket gott, men också helt åt helvete. Vi kan och bör påverka utvecklingen för att maximera möjligheterna till ett gott utfall - tvärtemot tanken att sitta passivt "i väntan på" genombrottet.

3 kommentarer:

  1. Intressant artikel i GU. Reflektion ang "symbol grounding problem". Om t.ex. drönare kan fatta egna beslut när det skall skjuta, avfyra bomber mm. På något sätt är de mao programmerade att "fatta egna beslut" utifrån vissa kriterier (förvisso definierade av en programmerare). Det förefaller ändå tillräckligt allvarligt. Låt oss säga att drönarna skall försvara byggnader, eller en hel stad, och att de som skall kontrollera drönarna av misstag också blir skjutna. Förvisso hypotetiskt. Men det känns som att AI:n skulle kunna få allvarliga konsekvenser även utan att man löst "symbol grounding problem". Men jag antar forskningen menar att utan att man löst "symbol grounding problem" så kan inte AI:n bli överlägsen människan, eller få övertaget......
    Kjell Eriksson

    SvaraRadera
    Svar
    1. Någon vetenskaplig konsensus finns knappast att luta sig mot i dessa svåra frågor, Kjell, och personligen skulle jag nog säga att ditt avslutande påstående att "utan att man löst 'symbol grounding problem' så kan inte AI:n bli överlägsen människan, eller få övertaget..." mycket väl kan komma att visa sig fatalt förhastat.

      Radera
  2. Om vi nu skall gå över singularitetströskeln, vill vi då inte ha en AI med empati? Empati är ju trots allt också en funktion av våra neurala närverk, och därför något som man kan studera och kanske även förstärka eller förbättra. Tanke på en hyperintelligent psykopat låter inte så jäkla lockande däremot om jag ska vara ärlig.

    SvaraRadera