Om fjorton dagar, fredagen den 24 februari kl 10.15, avser jag hålla ett föredrag med rubriken When human reasoning is transcended i seminarieserien Human reasoning på Institutionen för filosofi, lingvistik och vetenskapsteori vid Göteborgs universitet. Det blir möjligen det viktigaste ämne jag talat över i föredragsform. Därtill är det ett ämne om vilket jag är katastrofalt okunnig. Att jag trots detta sistnämnda dristar mig att tala om det försvarar jag med att alla andra1 är minst lika okunniga som jag, och att kollektiv brist på kunskap i en viktig fråga inte är någon godtagbar ursäkt för att ignorera den.
Läsare i göteborgstrakten är mycket välkomna att komma för att lyssna och diskutera. Allra mest givande tror jag att diskussionen kan bli om de kritiska invändningarna höjer sig över känslomässiga och sakligt ogrundade utrop som "Det där tror jag inte kan hända!" och istället är sakligt förankrade och noga genomtänkta, gärna efter kritiskt studium av någon eller några av de uppsatser som jag avser utgå ifrån i mitt föredrag:
Läsare i göteborgstrakten är mycket välkomna att komma för att lyssna och diskutera. Allra mest givande tror jag att diskussionen kan bli om de kritiska invändningarna höjer sig över känslomässiga och sakligt ogrundade utrop som "Det där tror jag inte kan hända!" och istället är sakligt förankrade och noga genomtänkta, gärna efter kritiskt studium av någon eller några av de uppsatser som jag avser utgå ifrån i mitt föredrag:
- Nick Bostrom och Eliezer Yudkowsky: The ethics of artificial intelligence
- David Chalmers: The Singularity: a philosophical analysis
- Bill Joy: Why the future doesn't need us
- Luke Muehlhauser: Facing the Singularity
- Eliezer Yudkowsky: Artificial intelligence as a positive and negative factor in global risk
Fotnot
1) Detta är blott en mild överdrift. Det finns ett litet antal personer, inklusive flertalet av de i slutet av bloggposten uppräknade författarna, vilkas okunskap i ämnet bara är nästan lika stor som min, men likväl ändå klart inom gränserna för vad som förtjänar betecknas som katastrofalt.
1) Detta är blott en mild överdrift. Det finns ett litet antal personer, inklusive flertalet av de i slutet av bloggposten uppräknade författarna, vilkas okunskap i ämnet bara är nästan lika stor som min, men likväl ändå klart inom gränserna för vad som förtjänar betecknas som katastrofalt.
Jag är tyvärr upptagen denna dag, men min insats hade nog ändå blivit av det osakliga slaget, då ämnet, som sagt, tillhör okunnighetens domän.
SvaraRaderaDet tror jag inte kan hända.
SvaraRaderaÅterigen, med dagens sätt att programmera datorer kommer vi aldrig dit. For-next loopar duger inte. Datalogin måste komma med något nytt. Kisel kan ha ett medvetande, sure :)
SvaraRaderaSkulle singulariteten vara ett bevis för en materialistisk verklighetsbeskrivning? Beviset för att själen, anden och livskraften är överflödig? Eller är det endast singulariteten själv som kan veta om den är självmedveten?
SvaraRaderaFredrik
Ett fantasieggande ämne, både tekniskt och filosofiskt. Artiklarna du refererar till ser intressanta ut. Jag har några funderingar som tar avstamp från mitt intresse av psykologi och kognition som förhoppnings inte är alltför irrelevanta.
SvaraRaderaDet man i vardagstal menar med intelligens och som jag tror man vill att en artificiell superintelligens ska ha är dels det psykologerna menar med (generell) intelligens, och som kan mätas med exempelvis IQ-test, men också det som betecknas som ett rationellt tänkande. Keith Stanovich argumenterar i 'What Intelligence Tests Miss' att dessa två viktiga kognitiva förmågorna måste särskiljas. Superintelligensen måste också vara kreativ om man vill att den ska kunna utveckla förbättrade versioner av sig själv. Men kreativitet är endast korrellerat med IQ upp till en viss nivå. Dessutom visar modern forskning om kreativitet (se Sawyer, 'Explaining Creativity') att individuella kognitiva skillnader inte kan förklara allt. För att skapa en superintelligens kanske det inte räcker att skapa en IQ-smart intelligens och hoppas på att det andra löser sig. Om så är fallet och vi inte lyckas med detta så är en framtida evolution av superintelligenser inte så säker, eller?
En del människor som fått sina centrum för känslor förstörda, som i fallet med Phineas Gage, och personer som har ett nästan obefintligt känsloliv (psykopater) kan ha hög generell intelligens men agerar impulsivt, är dåliga på att planera och på andra sätt beter sig irrationellt pekar också på skillnaden mellan intelligens och rationalitet. Även bristande förståelse av intentioner och förmåga att läsa av känslor hos andra (som hos personer med autistiska drag) kan också ställa till problem. Det är en god gissning att anta att känslor spelar en stor roll för vår förmåga att fungera rationellt. Skulle någon form av 'känslor' även behövas hos en superintelligens eller kommer den att bli en psykopat? Då våra känslor har sitt ursprung i våra sensoriska sinnen hur ter sig då 'känslorna' hos en superintelligens? Känslor kan hos oss människor köra över förnuftet och göra oss okänsliga för rationella resonemang eller direkta bevis. Kommer detta i så fall ske med en superintelligens och vad blir då konsekvenserna?
Applåderar ditt tilltag och beklagar att jag inte kan närvara. Det är härligt med vetenskapliga discipliner som är så erbarmligt outforskade att en dilletant som jag bara är några tomtesteg efter intelligentian :-)
SvaraRaderaDelar av detta är redan utvecklat. Googla Magnus Olsson mindcontrol
SvaraRaderaOjdå, bäst att vidta säkerhetsåtgärder!
Radera