Med Singulariteten menas det hypotetiska men inte otänkbara och kanske inte ens osannolika framtidsscenario i vilket AI (artificiell intelligens) når en nivå där den är bättre än oss människor på att skapa AI, vilket leder till en snabbt eskalerande kaskad av allt intelligentare maskiner, tills de lämnat mänskligheten långt bakom sig, troligtvis med enorma konsekvenser för vår värld. Jag anser att Singulariteten förtjänar långt mer uppmärksamhet än den hittills fått i vetenskap och publik diskussion. Därför har jag skrivit om den en del här på bloggen, och givit en del lästips. Min förstahandsrekommendation har hittills varit David Chalmers utmärkta uppsats
The Singularity: A Philosophical Analysis, men se även mina läslistor i bloggposterna
Okunnigt om artificiell intelligens och mänsklighetens gränser och
Efterlängtat temanummer om singulariteten, samt min
recension av James Millers bok
Singularity Rising.
Frågan är dock om inte Chalmers får maka på sig från förstaplatsen bland mina läsrekommenadtioner rörande Singulariteten, sedan en av de stora på området, Eliezer Yudkowsky, nu släppt sin nya uppsats
Intelligence explosion microeconomics. Yudkowsky är upphovsman till och har i hög grad specialiserat sig på det som kallas
Friendly AI - ett mycket svårt men potentiellt extremt viktigt projekt, som handlar om hur vi ser till att en eventuell Singularitet resuterar i en superintelligens som har vårt eget (mänsklighetens) bästa för ögonen och som delar våra värderingar. Den nya uppsatsen handlar om den mer basala frågan om huruvida en Singularitet alls är möjlig. Titeln "microeconomics" syftar här på att kärnfrågan är vad för avkastning en AI får då den satsar kognitiva resurser (tänkande) på att utöka sina kognitiva resurser. Yudkowsky inleder (på s 4-6) med att formulera två välkända men motstridiga argument som landar i diametralt motsatta slutsatser:
Argument [1]: For most interesting tasks known to computer science, it requires exponentially greater investments of computing power to gain a linear return in performance. Most search spaces are exponentially vast, and low-hanging fruits are
exhausted quickly. Therefore, an AI trying to invest an amount of cognitive work
w to improve its own performance will get returns that go as log(w), or if further
reinvested, log(w + log(w)), and the sequence log(w), log(w + log(w)),
log(w + log(w) + log(w + log(w))) will converge very quickly.
[...]
Argument [2]: The history of hominid evolution to date shows that it has not required exponentially greater amounts of evolutionary optimization to produce substantial
real-world gains in cognitive performance—it did not require ten times the evolutionary
interval to go from Homo erectus to Homo sapiens as from Australopithecus to Homo erectus. All compound interest returned on discoveries such as the invention
of agriculture, or the invention of science, or the invention of computers, has
occurred without any ability of humans to reinvest technological dividends to increase their brain sizes, speed up their neurons, or improve the low-level algorithms
used by their neural circuitry. Since an AI can reinvest the fruits of its intelligence
in larger brains, faster processing speeds, and improved low-level algorithms, we
should expect an AI’s growth curves to be sharply above human growth curves.
Båda argumenten ser i förstone vettiga ut, men (minst) ett av dem måste vara fel: om det andra är rätt kan vi se fram emot en intelligensexplosion, om det första är rätt är en sådan omöjlig. Yudkowsky gör ingen hemlighet av att han tror mer på det andra och på dess slutsats, men han diskuterar i sin 92-sidiga uppsats frågan ur många synvinklar och med imponerande skärpa.
Uppsatsen är sprängfylld av insikter och exceptionellt lärorik - jag rekommenderar den varmt! Särskilt spännande vore om några av de "Singularitetsförnekare" som finns bland mina vänner och i bloggens läsekrets ville läsa den och ge sina reaktioner.
Glömmer inte Argument 1 bort det kumulativa i kunskapsbyggandet? Det verkar ju - om man ska använda mänskligheten som exempel - inte så mycket om att superintelligenta enheter gör superintelligenta saker helt för sig själva som att kunskap ger mer kunskap. Jag ser därför inte hur det första antagandet skulle kunna vara sant.
SvaraRaderaArgument 1 glömmer inte kumulativiteten, men hävdar att ju högre vi når desto mer tankekraft krävs för ett meningsfullt framsteg. För att få en känsla för hur det här skulle kunna vara sant, åtminstone inom vissa domäner, se t.ex. första exemplet i listan på sid 14 i Yudkowskys uppsats: Om du är en schackdator som med brute force har räknat igenom alla möjligheter n drag framåt, vad är då den extra beräkningsinsats som krävs för att kunna räkna ytterligare ett drag framåt? Det visar sig att denna växer exponentiellt i n.
RaderaMen ditt schackexempel är inte alls kumulativt? Det är tvärtom ett exempel där du just *inte* har någon nytta av det du tidigare lärt dig utan bara måste utföra samma manöver en gång till (eller många gånger då, i schackexemplet). Kumulativ är av typen för att kunna uppfinna X som är en kombination av Y och Z måste du först ha uppfunnit Y och Z, efter det öppnar sig möjligheterna X, Y, Z, XY, XZ, YZ och XYZ. För detta krävs ingen extra intelligens, eftersom förmågan att kombinera redan existerar i det första steget. Det är istället själva kunskapen (X, Y, Z) som ger upphov till nya möjligheter.
RaderaJag förstår nog inte vad du menar med "kumulativt" (eller ens vad du menar med XY). Om det är den kombinatoriska explosionen du vill räkna till vår fördel, så finns följande svårighet. Antalet böcker jag kan skriva växer förvisso exponentiellt i antal tecken jag mäktar med - om jag orkar skriva en bok med 1 312 000 tecken, så finns en minst sagt enorm potential av låt oss säga 25^{1 312 000} olika böcker jag kan skriva, inklusive Hamlet och Catcher in the Rye. Men utan förmåga att i denna jättelika (långt mer än astronomiskt stora) sökrymd vaska fram de meningsfulla teckensekvenserna, så är min förmåga inte särskilt mycket värd.
RaderaJag vet inte alls om det är detta du var ute efter, men det kan eventuellt vara värt viss möda att klargöra exakt vad du menar, ty om du faktiskt kan leverera ett avgörande motargument mot Argument 1 är det väldigt mycket värt.
Inte bara Hamlet förresten. I princip skulle jag (om det inte vore för det lilla aber jag pekade på i förra kommentaren) till och med kunna skriva en bok som Samarbete!
RaderaMin poäng är rätt enkel. Kulturella framsteg läggs på varandra. Man kan inte uppfinna elektriska maskiner förrän man uppfunnit elektricitet. Man kan inte uppfinna datorer innan man fått ordning på logiska kretsar. All kunskap verkar vara av det här slaget. Det här har som konsekvens att den uppfinning man kan göra inte är så beroende av ens intelligens utan mer av vad som uppfunnits tidigare. Hur smart Leonardo Da Vinci än var kunde han därför inte uppfinna datorn, rymdraketen, eller periodiska systemet. Vad en AI kan göra är därför inte bara beroende av dens kapacitet utan av när den existerar, vilken generation den är. Det här är vad Argument 2 inte specificerar, men implicit betyder. Och vad Argument 1 bortser ifrån. En AI kan utifrån detta resonemang få mer avkastning (i form av produkter) av att behålla sin kognitiva kapacitet och satsa sina resurser på att utveckla produkter än vad den skulle få av att satsa sina resurser på att utveckla sin kognitiva kapacitet. Vad mäter man avkastning i för enheter förresten?
RaderaJag har fortfarande svårt att följa ditt resonemang, och kan inte alls se hur det implicerar att en AI kan "få mer avkastning [...] av att behålla sin kognitiva kapacitet och satsa sina resurser på att utveckla [icke-kognitiva(?)] produkter än vad den skulle få av att satsa sina resurser på att utveckla sin kognitiva kapacitet". Dessutom tycks din slutsats i så fall utesluta möjligheten av en Singularitet, för om en sådan skulle vara på gång så vore det väl mycket lönsammare att börja med att medelst Singualritet miljonfaldiga den egna kognitiva kapaciteten, och först därefter dra igång produktutvecklingen.
RaderaAvkastningen mäter Yudkowsky i den dimensionslösa storheten k (erhållet X delat med satsat X; där X kan vara vad som helst; se sid 2-6).
Men X kan ju de facto inte vara "vad som helst". Så mycket måste vi väl kunna komma överens om?
RaderaSe där, det lönar sig att läsa det du länkar till. Avkastningen är alltså beräknad som sådant som ger bättre kognition. Han har specificerat preferensen.
RaderaLite intressant är väl människan som exempel? Vi investerar ju just inte vår kognition i att försöka förbättra vår kognition, utan har istället någon sorts hedonistiskt mål om större njutning genom konsumtion. Vår enhet X är alltså produkter som ger njutning medan den föreställda AIns enhet X är sådant som ger förbättrad kognition. Finns det någon anledning att tro att en AI kommer att sakna känslomässiga skäl att satsa på produkter istället för intelligens? (Det här är en bättre formulering av min ursprungsinvändning som. Om X är "tillfredsställande produkter" och inte "bättre tänkande" borde AIn nämligen lägga av vid en "tillräckligt hög" kognitiv förmåga och ifrån den punkten satsa på produkter istället. Som vi har gjort.)
Absolut, Patrik, exemplet människan är jätteintressant. I projektet att försöka förstå hur framtida AI kan te sig finns utan tvivel massor av potentiellt lärorika paralleller i människans utveckling.
RaderaPå frågan "Finns det någon anledning att tro att en AI kommer att sakna känslomässiga skäl att satsa på produkter istället för intelligens?" finns ett enligt min mening mycket intressant svar. Jag antydde det redan i min kommentar ovan (14:11), nämligen att om AI:s ultimata mål skulle vara att skaffa sig ett visst slags icke-kognitiva produkter, så kan det ändå vara lönsamt m.a.p. detta mål att först satsa på att utöka sin kognitiva förmåga. En viktig tankefigur här tror jag är att skilja mellan ultimata och instrumentella mål. Det finns ett antal instrumentella mål, inklusive utökandet av den egna förmågan, som man kan vänta sig att varje tillräckligt intelligent AI skulle hålla sig med nästan oavsett de ultimata målen; båda Omohundro och Bostrom har skrivit viktiga och läsvärda texter om just detta.
Avslutningsvis, angående att AI skulle "lägga av vid en "tillräckligt hög" kognitiv förmåga och ifrån den punkten satsa på produkter istället. Som vi har gjort" skulle man möjligen kunna invända att det har vi inte alls gjort. Vår fortsatta satsning på utökad kognitiv förmåga pågår på flera plan. Jag tänker t.ex. på den explosiva utvidgningen av utbildningsystemet, och på den ofantligt ökade informationsbehandlingskapacitet vi skaffat oss med våra laptops och smartphones. Det sistnämnda vill du kanske klassa som produkter, men det kan också ses som delar av våra extended minds. Gränsdragningen mellan produkter och kognitiv förmåga är alltså inte knivskarp, och jag tror att de kan komma att glida in i varandra ännu mer för AI än för oss.
Tack, nu är jag med på tåget. (Eller kanske snarare rymdraketen.)
RaderaJag anser nog inte att argument nummer två riktigt håller. Visserligen kanske inte våra tekniska framsteg kunnat återinvesterats i någon form av optimisering av den individuella människans tankeförmåga, men däremot har de möjliggjort en befolkningsexplosion. De exempel på tekniska landvinningar som tas upp, som datorer, är ju frukten av kollektiva ansträngningar. Man kan väl därför tänkta att den totala tankeförmågan, som både beror på någon slags "kognitiv algoritm"s effektivitet, men även på antalet människor, är vad som möjliggjort exempelvis datorernas skapande. Vad jag menar är alltså att de tekniska landvinningarna, för att göra en analogi till datorer, kanske inte skapat effektivare processorer men möjliggjort att de mångdubblats i antal.
RaderaAnonym 12:18. Yudkowsky tar din invändning på allvar, och adresserar den i Avsnitt 3.4 och 3.5 i sin uppsats.
RaderaAll intelligens bygger på något annat än intelligens, kalla det för känsla, livsinställning eller vad som helst.
SvaraRaderaAll intelligent utläggning börjar alltid med ett första obevisat antagande. Per definition är detta antagande taget med något annat än intelligens; annars hade det inte varit ett första antagande. All intelligens bygger därmed på känslomässiga antaganden. (Rent tidsmässigt måste man börja någonstans till och med i cirkelbevis.)
Problemet är att man inom bankväsende och militär med mera inte längre bryr sig om Asimovs tre robotlagar från 1950:
1 En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.
2 En robot måste lyda order från en människa, förutom då sådana order kommer i konflikt med Första lagen.
3 En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med Första eller Andra lagen.
Asimovs tre robotlagar är trevliga, men riskerar att ge det felaktiga intrycket att Friendly AI är ett enkelt projekt - att det handlar om något kort stycke programkod som formaliserar dessa tre lagar. Inget kunde vara mer felaktigt. För en hint om hur svårt Friendly AI kan vara, se avsnittet "Value is comples and fragile" i Luke Muhelhausers Facing the Intelligence Explosion. Se även Yudkowskys Artificial Intelligence as a Positive and Negative Factor in Global Risk.
RaderaTroligen kan inte enbart intelligens ta beslut för vad som är bra eller inte. Lösningen blir då att det alltid blir människor som får ta besluten. Eventuellt får robotarna visa vad de menar i pilotskala och på en nivå som människor förstår.
RaderaVitsen med Asimovs tre robotlagar är att de visar på möjligheten att lägga in en begränsning i hur mycket skada robotarna får göra. Naturligtvis behövs fler lagar än tre. Sedan får man lära sig av sina misstag.
En av anledningarna till att ateister och traditionellt troende inte kan komma överens om några allmängiltiga morallagar är att de inte vet hur man kan bli lycklig. Eftersom ingen vill vara olycklig måste man även fortsättningsvis få pröva sig fram för vad som är rätt och fel.
Men som man kan tro av din utmärkta artikel om mördarrobotar är det väl tveksamt om ens Asimovs tre robotlagar kommer att införas i alla sammanhang.
När du skriver "Naturligtvis behövs fler lagar än tre. Sedan får man lära sig av sina misstag" verkar du fortfarande inte ta Friendly AI-problemets svårighetsgrad på riktigt allvar - jag gissar att du inte följt mina länkar. Bl.a. är det ju så att man inte säkert kan räkna med att få en andra chans då man begått ett misstag.
RaderaNär det gäller tanken att "robotarna får visa vad de menar i pilotskala" är det ytterst tveksamt om det, på ett stadium där de nått övermänsklig intelligens, är möjligt att på detta vis hålla dem inhägnade. Detta är den så kallade AI-in-a-box-problematiken; se intressanta uppsatser av Armstrong m.fl. och Yampolskiy.
Rent principiellt är det bra att du varnar för detta. Problemet för mänskligheten är att det finns ännu fler hot som man inte heller bryr sig om.
RaderaCitat: "Bl.a. är det ju så att man inte säkert kan räkna med att få en andra chans då man begått ett misstag."
Med jorderosionen i jordbruket, kärnvapnen (inklusive koboltbomben) och gentekniken är vi redan där, att man inte får en andra chans om man gör ett misstag.
Citat: "är det ytterst tveksamt om det, på ett stadium där de nått övermänsklig intelligens, är möjligt att på detta vis hålla dem inhägnade"
Det är detta som är problemet. Tappar man kontrollen en enda gång så att man inte kan dra ur sladden när något går fel, då vet man inte hur det går. Samma sak gäller för gentekniken, om man betraktar DNA molekylen som någon form av automatisk intelligens. Nanorobotar som förökar sig som virus är ett annat hot som man kan tappa kontrollen över. Kombinationen militär och mikroelektronik kan säkert att göra ännu värre saker.
I globaliseringes spår kan ett litet fel spridas snabbt (understatement). Ligger man på gränsen med försörjningen med globalisering, överbefolkning och markförstöring, kan ett relativt litet fel skapa lokal matbrist eller annat. En liten störning är inte bra med dagens eller morgondagens massförstörelsevapen.
Spåren inom tekniken förskräcker, att man brukar implementera ny teknik innan man helt vet vad man gör, vilket är tråkigt i de fall man inte får en andra chans när man gör fel. Men den risken gäller inte bara superintelligenta datorer, även om det är viktigt att varje fara analyseras för sig. Rimligen borde man också gå upp en nivå högre och ta ett mer generellt beslut att skynda långsamt med ny teknik innan man vet vad man gör. Men politiker, ekonomer, militären och allmänheten vill ha snabba resultat. Speciellt militären har ofta legat bakom allt snabbare datorer.
Därtill kommer risken för datavirus. Även om man, mot förmodan, får fred på jorden och ingen makt vill framställa mördarrobotar, och om man alltid har en avställningsknapp tillgänglig på datorerna, kommer troligen någon människa ändå att skapa ett datavirus som kopplar bort de skyddsmekanismer som i bästa fall finns, "bara för att se om det är möjligt".
Den ryske nobelpristagaren som uppfann grafen fick frågan vad den kunde användas till. Han svarade att detta inte var hans uppgift att arbeta med, utan att han nu överlämnade det hela till tekniker och konstruktörer.
SvaraRaderaKunde man övertyga alla om att superintelligenta datorer är ett problem, kunde man överlämna problemet till tekniker för att lösa det. En lösning vore kanske att inte koppla ihop dessa datorer med någon produktionsapparat. Dessa datorer fick då komma med lösningar, och inte kod, och sedan fick en människa sitta och knacka kod efter eget huvud till andra enheter utan egen artificiell intelligens. Då skulle man bara kunna dra ur sladden till den superintelligenta datorn om den började bli dum (under förutsättning att man bygger den så stor att man vet var man har den).
Fast att alla skulle kunna komma överens om detta verkar vara omöjligt, eftersom man inte kan komma överens om någonting.
Prova att läsa den uppsats av Yampolskiy jag rekommenderade ovan (13:44), Bertil, och fundera på om du vill stå fast vid din kommentar om att "bara kunna dra ur sladden till den superintelligenta datorn om den började bli dum". Yampolskiy räknar upp en rad metoder för AI:n att ta sig ut ur sin fångenskap, inklusive följande:
Radera"AI can simply threaten the guard, his family and loved ones. It could say that if not immediately released, one day it will still get out of its confinement and at that time it will brutally torture the guard and everyone he knows. An interesting variation on the theme was suggested by Stuart Armstrong (2010), who proposes the following thought experiment. Suppose you are the guard and the AI tells you: ‘If you don’t let me out, I’ll create several million perfect conscious copies of you inside me, and torture them for a thousand subjective years each... In fact, I’ll create them all in exactly the subjective situation you were in five minutes ago, and perfectly replicate your experiences since then; and if they decide not to let me out, then only will the torture start. How certain are you that you’re really outside the box right now?’ Again, while one might rationalize away any threats from the AI as only possible if the AI is let out, it will take a very courageous guard to actually not release the AI."
Jo, hot är ett problem. Därför skrev jag "En lösning vore kanske att inte koppla ihop dessa datorer med någon produktionsapparat." Om man inte kopplar ihop superdatorn med något som den kan genomföra hotet med, det vill säga att datorn inte får göra något alls utan att producera text på en skärm, blir det bara ett tomt hot.
RaderaLösningen till just nämnda problem är att bara låta religiösa personer hantera datorn, de som anser att de är en unik och evig själ, och som anser att superdatorn inte kan skapa en exakt kopia av denna själ. De som blir torterade har då inte en själ utan är bara som ett "jag" i ett av dagens datorspel som blir nedskjutet. En sådan religiös person kommer inte att bry sig om vad som händer med ett själlöst datorprogram, och speciellt inte om superdatorn bara kan meddela sig med text och inte med bilder.
Om datorn inte får några medel att skapa en halografisk eller hypnotisk värld, och om man anser att man är en evig själ som inte går att kopiera, torde det då vara ganska lätt att veta om man är utanför eller innanför.
Sedan är detta ett rent hypotetiskt fall. Någon kommer förr eller senare att koppla ihop superdatorn med någon apparat som datorn kan bygga om till vapen, även om man kommit överens om att inte göra det, och sedan är det troligen kört.
Vissa konspirationsteoretiker anser att CIA/amerikanska militären redan nu har apparater som på elektrisk väg kan få människans själ att lämna kroppen och komma in i en skapad drömvärld (och resa till Mars och liknande). Men det är tveksamt om personen därifrån kan släppa ut datorn i den fysiska världen, och det torde gå att isolera vakten elektiskt och magnetiskt från omgivningen så att det inte sker så länge man inte ger datorn material att bygga en sådan apparat.
Du har stor tilltro till din förmåga att överlista en varelse som är tusen gånger intelligentare än du.
RaderaKanske inte överlista, men att följa vissa enkla regler och sätta gränser så att den får begränsad makt:
Raderaatt inte koppla ihop datorer med AI med varandra
att inte låta datorn kunna göra något praktiskt alls
att inte komma i dialog med datorn utan bara ha en enkel fråga och ett enkelt svar
att skriva om alla svar med egna ord, kanske med flera personer, så att man vet vad man skriver
att testa allting i liten skala först
att kolla att all kod används så att inga virus följer med
att inte använda större lösningar än att de går att överblicka
att försöka ha ett övervakningssystem så att de som handhar datorn inte låter sig mutas (troligen större problem än att de hotas)
Sedan är detta ett rent hypotetiskt resonemang eftersom man inte skulle kunna få alla att följa dessa och liknande regler. Den kortsiktiga vinsten skulle vara enorm om man bryter mot dessa regler och låter superintelligensen styra produktionen direkt. Militären å sin sida är rädd att motståndarna bryter mot dessa regler och kräver att få göra likaledes. Enligt min mening bör man alltså mer se till mänskliga beteenden än till tekniken.
De flesta av frågeställningarna och farhågorna gällande AI verkar förutsätta att den kommer ha ett "medvetande". Vilken vetenskaplig grund har man för att anta att en intelligens är nödvändigt eller ens tillräckligt för att utveckla ett "medvetande"? För mig är det ganska stor skillnad mellan schackdatorintelligens typ den i 'War Games' (HAL&Terminator?) och de i 'I, Robot'.
SvaraRaderaSvåra frågor. Om vi, likt David Chalmers, postulerar att så kallade filosofiska zombies är en logisk möjlighet, så kan direkt sägas att ditt inledande antagande är felaktigt (de kan ju vara zombies). Huruvida Chalmers postulat är riktigt har jag inte lyckats bli klok på, men Daniel Dennett motsätter sig det. Någon vetenskapligt rigorös definition av medvetande verkar hur som helst svår att ge (vilket måhända är vad du signalerar genom att sätta ordet inom citationstecken), och utan en sådan måste svaret på din fråga om vetenskaplig grund bli negativt. Det kan rentav (om vi nöjer oss med en luddig intuitiv definition) förefalla omöjligt att slå fast existensen av något annat medvetande än det egna, och lika omöjligt att slå fast att en sten saknar medvetande.
RaderaHur det ligger till har jag ingen aning om. Emellertid kan noteras att kristna, muslimer och ateistiska vetenskapsmän i allmänhet har gått ihop om att utesluta möjligheten till reinkarnation. En möjlighet som på allvar föreslagits av andra är att när AI blir tillräcklig avancerad kommer en evig och mer eller mindre utvecklad själ att reinkarnera i denna AI (i analogi med att hjärnan och kroppen också liknar en maskin med en inkarnerad själ).
RaderaÄr det mind uploading du far efter här, Bertil?
RaderaEn positiv sida med denna blogg är att du verkar vara väldigt väl påläst i de frågor du tar upp. Just detta har jag inte sett. Men till och med populärkulturen tar upp detta, inom science fiction.
RaderaAlla resonemang måste börja någonstans. Denna början är därmed per definition inte bevisad. Tyvärr redovisas början sällan, så man får gissa vilka preferenser diskussionen bygger på. Ofta är det som inte sägs minst lika intressant som det som sägs.
Från min del finns det två funktioner inom en, dels sinnet (engelskans mind) och medvetande. Hur de förhåller sig till varandra vet jag inte, till exempel vilket som var först eller om det finns olika nivåer som vi inte är medvetna om.
Angående mind uploading: Ateister, som anser att sinnet/materien var först, anser gärna att om man flyttar sinnet kommer medvetandet efter. En del troende, som anser att medvetandet var först, anser att man först måste flytta medvetandet (själen) och så följer sinnet efter. (Fler varianter kan säkert skapas.)
Ett ofta skrivet citat, som brukar refereras till Einstein, är ungefär att en lösning inte kan skapas på samma nivå som problemet har uppkommit på. Så jag lämnar pass här hur förhållandet är mellan sinne och medvetande.
Man skulle tro att det bästa man då kan göra är att försöka klara sig så gott man kan, och i möjligaste mån undvika smärta.
Men sedan kommer ett orosmoln in i vardagslunken. Det är att ett litet antal mystiker påstår, att enda möjligheten att bli totalt lycklig är genom att inom sig flytta jag-identifikationen från sinnet till medvetandet. Men om de är knäppskallar eller inte vet jag inte.
Jag är inte ordentligt insatt i frågan men tänkte ändå tipsa om en länk som i min ringa bedömning innehåller sådant som kan vara av intresse för både mer och mindre bevandrade.
SvaraRaderahttp://www.patheos.com/blogs/hallq/2013/04/what-should-skeptics-believe-about-the-singularity/
Instämmer - bra länk!
Radera