tag:blogger.com,1999:blog-8131794231697217573.post3279726163325196914..comments2024-03-28T09:06:16.955+01:00Comments on Häggström hävdar: Rekommenderad läsning: Yudkowsky om SingularitetenOlle Häggströmhttp://www.blogger.com/profile/07965864908005378943noreply@blogger.comBlogger30125tag:blogger.com,1999:blog-8131794231697217573.post-92035731387238385832013-05-14T07:48:33.943+02:002013-05-14T07:48:33.943+02:00Instämmer - bra länk!Instämmer - <a href="http://www.patheos.com/blogs/hallq/2013/04/what-should-skeptics-believe-about-the-singularity/" rel="nofollow">bra länk</a>!Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-43535568850389611142013-05-13T22:17:53.704+02:002013-05-13T22:17:53.704+02:00Jag är inte ordentligt insatt i frågan men tänkte ...Jag är inte ordentligt insatt i frågan men tänkte ändå tipsa om en länk som i min ringa bedömning innehåller sådant som kan vara av intresse för både mer och mindre bevandrade.<br />http://www.patheos.com/blogs/hallq/2013/04/what-should-skeptics-believe-about-the-singularity/Krokbennoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-87422355562022434772013-05-12T13:19:28.693+02:002013-05-12T13:19:28.693+02:00Anonym 12:18. Yudkowsky tar din invändning på allv...Anonym 12:18. Yudkowsky tar din invändning på allvar, och adresserar den i Avsnitt 3.4 och 3.5 i <a href="http://intelligence.org/files/IEM.pdf" rel="nofollow">sin uppsats</a>.Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-86459407033520106592013-05-12T12:18:06.281+02:002013-05-12T12:18:06.281+02:00Jag anser nog inte att argument nummer två riktigt...Jag anser nog inte att argument nummer två riktigt håller. Visserligen kanske inte våra tekniska framsteg kunnat återinvesterats i någon form av optimisering av den individuella människans tankeförmåga, men däremot har de möjliggjort en befolkningsexplosion. De exempel på tekniska landvinningar som tas upp, som datorer, är ju frukten av kollektiva ansträngningar. Man kan väl därför tänkta att den totala tankeförmågan, som både beror på någon slags "kognitiv algoritm"s effektivitet, men även på antalet människor, är vad som möjliggjort exempelvis datorernas skapande. Vad jag menar är alltså att de tekniska landvinningarna, för att göra en analogi till datorer, kanske inte skapat effektivare processorer men möjliggjort att de mångdubblats i antal.Anonymousnoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-46069651990748726432013-05-09T11:30:51.065+02:002013-05-09T11:30:51.065+02:00En positiv sida med denna blogg är att du verkar v...En positiv sida med denna blogg är att du verkar vara väldigt väl påläst i de frågor du tar upp. Just detta har jag inte sett. Men till och med populärkulturen tar upp detta, inom science fiction.<br /><br />Alla resonemang måste börja någonstans. Denna början är därmed per definition inte bevisad. Tyvärr redovisas början sällan, så man får gissa vilka preferenser diskussionen bygger på. Ofta är det som inte sägs minst lika intressant som det som sägs.<br /><br />Från min del finns det två funktioner inom en, dels sinnet (engelskans mind) och medvetande. Hur de förhåller sig till varandra vet jag inte, till exempel vilket som var först eller om det finns olika nivåer som vi inte är medvetna om.<br /><br />Angående mind uploading: Ateister, som anser att sinnet/materien var först, anser gärna att om man flyttar sinnet kommer medvetandet efter. En del troende, som anser att medvetandet var först, anser att man först måste flytta medvetandet (själen) och så följer sinnet efter. (Fler varianter kan säkert skapas.)<br /><br />Ett ofta skrivet citat, som brukar refereras till Einstein, är ungefär att en lösning inte kan skapas på samma nivå som problemet har uppkommit på. Så jag lämnar pass här hur förhållandet är mellan sinne och medvetande.<br /><br />Man skulle tro att det bästa man då kan göra är att försöka klara sig så gott man kan, och i möjligaste mån undvika smärta. <br /><br />Men sedan kommer ett orosmoln in i vardagslunken. Det är att ett litet antal mystiker påstår, att enda möjligheten att bli totalt lycklig är genom att inom sig flytta jag-identifikationen från sinnet till medvetandet. Men om de är knäppskallar eller inte vet jag inte.Bertil Åkerblomnoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-62041087453711941472013-05-09T09:09:06.615+02:002013-05-09T09:09:06.615+02:00Är det mind uploading du far efter här, Bertil?Är det <a href="http://hplusmagazine.com/2013/04/21/goertzel-contra-dvorsky-on-mind-uploading/" rel="nofollow"><i>mind uploading</i></a> du far efter här, Bertil?Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-567380973145015472013-05-09T08:00:25.106+02:002013-05-09T08:00:25.106+02:00Hur det ligger till har jag ingen aning om. Emelle...Hur det ligger till har jag ingen aning om. Emellertid kan noteras att kristna, muslimer och ateistiska vetenskapsmän i allmänhet har gått ihop om att utesluta möjligheten till reinkarnation. En möjlighet som på allvar föreslagits av andra är att när AI blir tillräcklig avancerad kommer en evig och mer eller mindre utvecklad själ att reinkarnera i denna AI (i analogi med att hjärnan och kroppen också liknar en maskin med en inkarnerad själ).Bertil Åkerblomnoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-19323756464160201752013-05-08T22:57:17.508+02:002013-05-08T22:57:17.508+02:00Svåra frågor. Om vi, likt David Chalmers, postuler...Svåra frågor. Om vi, likt <a href="http://www.amazon.com/Conscious-Mind-Search-Fundamental-Philosophy/dp/0195117891" rel="nofollow">David Chalmers</a>, postulerar att så kallade <a href="http://en.wikipedia.org/wiki/Philosophical_zombie" rel="nofollow">filosofiska zombies</a> är en logisk möjlighet, så kan direkt sägas att ditt inledande antagande är felaktigt (de kan ju vara zombies). Huruvida Chalmers postulat är riktigt har jag inte lyckats bli klok på, men <a href="http://www.amazon.com/Consciousness-Explained-Daniel-C-Dennett/dp/0316180661" rel="nofollow">Daniel Dennett</a> motsätter sig det. Någon vetenskapligt rigorös definition av medvetande verkar hur som helst svår att ge (vilket måhända är vad du signalerar genom att sätta ordet inom citationstecken), och utan en sådan måste svaret på din fråga om vetenskaplig grund bli negativt. Det kan rentav (om vi nöjer oss med en luddig intuitiv definition) förefalla <a href="http://haggstrom.blogspot.se/2012/01/om-solipsism.html" rel="nofollow">omöjligt att slå fast existensen av något annat medvetande än det egna</a>, och lika omöjligt att slå fast att en sten saknar medvetande. Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-5487928498336002802013-05-08T21:43:44.061+02:002013-05-08T21:43:44.061+02:00De flesta av frågeställningarna och farhågorna gäl...De flesta av frågeställningarna och farhågorna gällande AI verkar förutsätta att den kommer ha ett "medvetande". Vilken vetenskaplig grund har man för att anta att en intelligens är nödvändigt eller ens tillräckligt för att utveckla ett "medvetande"? För mig är det ganska stor skillnad mellan schackdatorintelligens typ den i 'War Games' (HAL&Terminator?) och de i 'I, Robot'. <br /><br /><br /><br />Anonymousnoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-8559105460118872622013-05-08T15:10:32.373+02:002013-05-08T15:10:32.373+02:00Tack, nu är jag med på tåget. (Eller kanske snarar...Tack, nu är jag med på tåget. (Eller kanske snarare rymdraketen.)Patrik Lindenforshttps://www.blogger.com/profile/16644154132810106218noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-53116143643673458172013-05-08T08:47:20.701+02:002013-05-08T08:47:20.701+02:00Absolut, Patrik, exemplet människan är jätteintres...Absolut, Patrik, exemplet människan är jätteintressant. I projektet att försöka förstå hur framtida AI kan te sig finns utan tvivel massor av potentiellt lärorika paralleller i människans utveckling. <br /><br />På frågan <i>"Finns det någon anledning att tro att en AI kommer att sakna känslomässiga skäl att satsa på produkter istället för intelligens?"</i> finns ett enligt min mening mycket intressant svar. Jag antydde det redan i min kommentar ovan (14:11), nämligen att om AI:s ultimata mål skulle vara att skaffa sig ett visst slags icke-kognitiva produkter, så kan det ändå vara lönsamt m.a.p. detta mål att först satsa på att utöka sin kognitiva förmåga. En viktig tankefigur här tror jag är att skilja mellan <i>ultimata</i> och <i>instrumentella</i> mål. Det finns ett antal instrumentella mål, inklusive utökandet av den egna förmågan, som man kan vänta sig att varje tillräckligt intelligent AI skulle hålla sig med nästan oavsett de ultimata målen; båda <a href="http://selfawaresystems.files.wordpress.com/2008/01/ai_drives_final.pdf" rel="nofollow">Omohundro</a> och <a href="http://www.nickbostrom.com/superintelligentwill.pdf" rel="nofollow">Bostrom</a> har skrivit viktiga och läsvärda texter om just detta.<br /><br />Avslutningsvis, angående att AI skulle <i>"lägga av vid en "tillräckligt hög" kognitiv förmåga och ifrån den punkten satsa på produkter istället. Som vi har gjort"</i> skulle man möjligen kunna invända att det har vi inte alls gjort. Vår fortsatta satsning på utökad kognitiv förmåga pågår på flera plan. Jag tänker t.ex. på den explosiva utvidgningen av utbildningsystemet, och på den ofantligt ökade informationsbehandlingskapacitet vi skaffat oss med våra laptops och smartphones. Det sistnämnda vill du kanske klassa som produkter, men det kan också ses som delar av våra <a href="http://en.wikipedia.org/wiki/The_Extended_Mind" rel="nofollow"><i>extended minds</i></a>. Gränsdragningen mellan produkter och kognitiv förmåga är alltså inte knivskarp, och jag tror att de kan komma att glida in i varandra ännu mer för AI än för oss. Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-75052512170623854762013-05-08T07:09:46.156+02:002013-05-08T07:09:46.156+02:00Se där, det lönar sig att läsa det du länkar till....Se där, det lönar sig att läsa det du länkar till. Avkastningen är alltså beräknad som sådant som ger bättre kognition. Han har specificerat preferensen.<br /><br />Lite intressant är väl människan som exempel? Vi investerar ju just <i>inte</i> vår kognition i att försöka förbättra vår kognition, utan har istället någon sorts hedonistiskt mål om större njutning genom konsumtion. Vår enhet X är alltså produkter som ger njutning medan den föreställda AIns enhet X är sådant som ger förbättrad kognition. Finns det någon anledning att tro att en AI kommer att sakna känslomässiga skäl att satsa på produkter istället för intelligens? (Det här är en bättre formulering av min ursprungsinvändning som. Om X är "tillfredsställande produkter" och inte "bättre tänkande" borde AIn nämligen lägga av vid en "tillräckligt hög" kognitiv förmåga och ifrån den punkten satsa på produkter istället. Som vi har gjort.)Patrik Lindenforshttps://www.blogger.com/profile/16644154132810106218noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-58274101569513034872013-05-08T06:50:52.549+02:002013-05-08T06:50:52.549+02:00Men X kan ju de facto inte vara "vad som hels...Men X kan ju de facto inte vara "vad som helst". Så mycket måste vi väl kunna komma överens om?Patrik Lindenforshttps://www.blogger.com/profile/16644154132810106218noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-69367043768033057632013-05-07T23:35:37.582+02:002013-05-07T23:35:37.582+02:00Kanske inte överlista, men att följa vissa enkla r...Kanske inte överlista, men att följa vissa enkla regler och sätta gränser så att den får begränsad makt:<br />att inte koppla ihop datorer med AI med varandra<br />att inte låta datorn kunna göra något praktiskt alls<br />att inte komma i dialog med datorn utan bara ha en enkel fråga och ett enkelt svar<br />att skriva om alla svar med egna ord, kanske med flera personer, så att man vet vad man skriver<br />att testa allting i liten skala först<br />att kolla att all kod används så att inga virus följer med<br />att inte använda större lösningar än att de går att överblicka<br />att försöka ha ett övervakningssystem så att de som handhar datorn inte låter sig mutas (troligen större problem än att de hotas)<br /><br />Sedan är detta ett rent hypotetiskt resonemang eftersom man inte skulle kunna få alla att följa dessa och liknande regler. Den kortsiktiga vinsten skulle vara enorm om man bryter mot dessa regler och låter superintelligensen styra produktionen direkt. Militären å sin sida är rädd att motståndarna bryter mot dessa regler och kräver att få göra likaledes. Enligt min mening bör man alltså mer se till mänskliga beteenden än till tekniken.Bertil Åkerblomnoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-28900031070241740022013-05-07T22:11:46.521+02:002013-05-07T22:11:46.521+02:00Du har stor tilltro till din förmåga att överlista...Du har stor tilltro till din förmåga att överlista en varelse som är tusen gånger intelligentare än du. Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-46868885026877836952013-05-07T21:55:58.490+02:002013-05-07T21:55:58.490+02:00Jo, hot är ett problem. Därför skrev jag "En ...Jo, hot är ett problem. Därför skrev jag "En lösning vore kanske att inte koppla ihop dessa datorer med någon produktionsapparat." Om man inte kopplar ihop superdatorn med något som den kan genomföra hotet med, det vill säga att datorn inte får göra något alls utan att producera text på en skärm, blir det bara ett tomt hot. <br /><br />Lösningen till just nämnda problem är att bara låta religiösa personer hantera datorn, de som anser att de är en unik och evig själ, och som anser att superdatorn inte kan skapa en exakt kopia av denna själ. De som blir torterade har då inte en själ utan är bara som ett "jag" i ett av dagens datorspel som blir nedskjutet. En sådan religiös person kommer inte att bry sig om vad som händer med ett själlöst datorprogram, och speciellt inte om superdatorn bara kan meddela sig med text och inte med bilder.<br /><br />Om datorn inte får några medel att skapa en halografisk eller hypnotisk värld, och om man anser att man är en evig själ som inte går att kopiera, torde det då vara ganska lätt att veta om man är utanför eller innanför.<br /><br />Sedan är detta ett rent hypotetiskt fall. Någon kommer förr eller senare att koppla ihop superdatorn med någon apparat som datorn kan bygga om till vapen, även om man kommit överens om att inte göra det, och sedan är det troligen kört.<br /><br />Vissa konspirationsteoretiker anser att CIA/amerikanska militären redan nu har apparater som på elektrisk väg kan få människans själ att lämna kroppen och komma in i en skapad drömvärld (och resa till Mars och liknande). Men det är tveksamt om personen därifrån kan släppa ut datorn i den fysiska världen, och det torde gå att isolera vakten elektiskt och magnetiskt från omgivningen så att det inte sker så länge man inte ger datorn material att bygga en sådan apparat. <br /><br /><br /><br />Bertil Åkerblomnoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-49348880002694119002013-05-07T20:30:42.943+02:002013-05-07T20:30:42.943+02:00Prova att läsa den uppsats av Yampolskiy jag rekom...Prova att läsa den <a href="http://dl.dropboxusercontent.com/u/5317066/2012-yampolskiy.pdf" rel="nofollow">uppsats</a> av Yampolskiy jag rekommenderade ovan (13:44), Bertil, och fundera på om du vill stå fast vid din kommentar om att <i>"bara kunna dra ur sladden till den superintelligenta datorn om den började bli dum"</i>. Yampolskiy räknar upp en rad metoder för AI:n att ta sig ut ur sin fångenskap, inklusive följande:<br /><br /><i>"AI can simply threaten the guard, his family and loved ones. It could say that if not immediately released, one day it will still get out of its confinement and at that time it will brutally torture the guard and everyone he knows. An interesting variation on the theme was suggested by Stuart Armstrong (2010), who proposes the following thought experiment. Suppose you are the guard and the AI tells you: ‘If you don’t let me out, I’ll create several million perfect conscious copies of you inside me, and torture them for a thousand subjective years each... In fact, I’ll create them all in exactly the subjective situation you were in five minutes ago, and perfectly replicate your experiences since then; and if they decide not to let me out, then only will the torture start. How certain are you that you’re really outside the box right now?’ Again, while one might rationalize away any threats from the AI as only possible if the AI is let out, it will take a very courageous guard to actually not release the AI."</i>Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-60951651717549384172013-05-07T18:43:04.183+02:002013-05-07T18:43:04.183+02:00Den ryske nobelpristagaren som uppfann grafen fick...Den ryske nobelpristagaren som uppfann grafen fick frågan vad den kunde användas till. Han svarade att detta inte var hans uppgift att arbeta med, utan att han nu överlämnade det hela till tekniker och konstruktörer.<br /><br />Kunde man övertyga alla om att superintelligenta datorer är ett problem, kunde man överlämna problemet till tekniker för att lösa det. En lösning vore kanske att inte koppla ihop dessa datorer med någon produktionsapparat. Dessa datorer fick då komma med lösningar, och inte kod, och sedan fick en människa sitta och knacka kod efter eget huvud till andra enheter utan egen artificiell intelligens. Då skulle man bara kunna dra ur sladden till den superintelligenta datorn om den började bli dum (under förutsättning att man bygger den så stor att man vet var man har den).<br /><br />Fast att alla skulle kunna komma överens om detta verkar vara omöjligt, eftersom man inte kan komma överens om någonting.Bertil Åkerblomnoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-51272233685018512942013-05-07T15:24:17.318+02:002013-05-07T15:24:17.318+02:00Rent principiellt är det bra att du varnar för det...Rent principiellt är det bra att du varnar för detta. Problemet för mänskligheten är att det finns ännu fler hot som man inte heller bryr sig om.<br /><br />Citat: "Bl.a. är det ju så att man inte säkert kan räkna med att få en andra chans då man begått ett misstag."<br /><br />Med jorderosionen i jordbruket, kärnvapnen (inklusive koboltbomben) och gentekniken är vi redan där, att man inte får en andra chans om man gör ett misstag. <br /><br />Citat: "är det ytterst tveksamt om det, på ett stadium där de nått övermänsklig intelligens, är möjligt att på detta vis hålla dem inhägnade"<br /><br />Det är detta som är problemet. Tappar man kontrollen en enda gång så att man inte kan dra ur sladden när något går fel, då vet man inte hur det går. Samma sak gäller för gentekniken, om man betraktar DNA molekylen som någon form av automatisk intelligens. Nanorobotar som förökar sig som virus är ett annat hot som man kan tappa kontrollen över. Kombinationen militär och mikroelektronik kan säkert att göra ännu värre saker.<br /><br />I globaliseringes spår kan ett litet fel spridas snabbt (understatement). Ligger man på gränsen med försörjningen med globalisering, överbefolkning och markförstöring, kan ett relativt litet fel skapa lokal matbrist eller annat. En liten störning är inte bra med dagens eller morgondagens massförstörelsevapen. <br /><br />Spåren inom tekniken förskräcker, att man brukar implementera ny teknik innan man helt vet vad man gör, vilket är tråkigt i de fall man inte får en andra chans när man gör fel. Men den risken gäller inte bara superintelligenta datorer, även om det är viktigt att varje fara analyseras för sig. Rimligen borde man också gå upp en nivå högre och ta ett mer generellt beslut att skynda långsamt med ny teknik innan man vet vad man gör. Men politiker, ekonomer, militären och allmänheten vill ha snabba resultat. Speciellt militären har ofta legat bakom allt snabbare datorer.<br /><br />Därtill kommer risken för datavirus. Även om man, mot förmodan, får fred på jorden och ingen makt vill framställa mördarrobotar, och om man alltid har en avställningsknapp tillgänglig på datorerna, kommer troligen någon människa ändå att skapa ett datavirus som kopplar bort de skyddsmekanismer som i bästa fall finns, "bara för att se om det är möjligt".Bertil Åkerblomnoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-90837535454363766292013-05-07T14:11:55.535+02:002013-05-07T14:11:55.535+02:00Jag har fortfarande svårt att följa ditt resoneman...Jag har fortfarande svårt att följa ditt resonemang, och kan inte alls se hur det implicerar att en AI kan <i>"få mer avkastning <i>[...]</i> av att behålla sin kognitiva kapacitet och satsa sina resurser på att utveckla </i>[icke-kognitiva(?)]<i> produkter än vad den skulle få av att satsa sina resurser på att utveckla sin kognitiva kapacitet"</i>. Dessutom tycks din slutsats i så fall utesluta möjligheten av en Singularitet, för om en sådan skulle vara på gång så vore det väl mycket lönsammare att börja med att medelst Singualritet miljonfaldiga den egna kognitiva kapaciteten, och först därefter dra igång produktutvecklingen. <br /><br />Avkastningen mäter Yudkowsky i den dimensionslösa storheten k (erhållet X delat med satsat X; där X kan vara vad som helst; se sid 2-6). Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-47384038781800934982013-05-07T13:44:19.298+02:002013-05-07T13:44:19.298+02:00När du skriver "Naturligtvis behövs fler laga...När du skriver <i>"Naturligtvis behövs fler lagar än tre. Sedan får man lära sig av sina misstag"</i> verkar du fortfarande inte ta <i>Friendly AI</i>-problemets svårighetsgrad på riktigt allvar - jag gissar att du inte följt mina länkar. Bl.a. är det ju så att man inte säkert kan räkna med att få en andra chans då man begått ett misstag. <br /><br />När det gäller tanken att <i>"robotarna får visa vad de menar i pilotskala"</i> är det ytterst tveksamt om det, på ett stadium där de nått övermänsklig intelligens, är möjligt att på detta vis hålla dem inhägnade. Detta är den så kallade AI-in-a-box-problematiken; se intressanta uppsatser av <a href="http://www.aleph.se/papers/oracleAI.pdf" rel="nofollow">Armstrong m.fl.</a> och <a href="http://dl.dropboxusercontent.com/u/5317066/2012-yampolskiy.pdf" rel="nofollow">Yampolskiy</a>.Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-72525585023672847422013-05-07T13:32:17.144+02:002013-05-07T13:32:17.144+02:00Min poäng är rätt enkel. Kulturella framsteg läggs...Min poäng är rätt enkel. Kulturella framsteg läggs på varandra. Man kan inte uppfinna elektriska maskiner förrän man uppfunnit elektricitet. Man kan inte uppfinna datorer innan man fått ordning på logiska kretsar. All kunskap verkar vara av det här slaget. Det här har som konsekvens att den uppfinning man kan göra inte är så beroende av ens intelligens utan mer av vad som uppfunnits tidigare. Hur smart Leonardo Da Vinci än var kunde han därför inte uppfinna datorn, rymdraketen, eller periodiska systemet. Vad en AI kan göra är därför inte bara beroende av dens kapacitet utan av när den existerar, vilken generation den är. Det här är vad Argument 2 inte specificerar, men implicit betyder. Och vad Argument 1 bortser ifrån. En AI kan utifrån detta resonemang få mer avkastning (i form av produkter) av att behålla sin kognitiva kapacitet och satsa sina resurser på att utveckla produkter än vad den skulle få av att satsa sina resurser på att utveckla sin kognitiva kapacitet. Vad mäter man avkastning i för enheter förresten?Patrik Lindenforshttps://www.blogger.com/profile/16644154132810106218noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-67522285519700919362013-05-07T11:31:40.709+02:002013-05-07T11:31:40.709+02:00Troligen kan inte enbart intelligens ta beslut för...Troligen kan inte enbart intelligens ta beslut för vad som är bra eller inte. Lösningen blir då att det alltid blir människor som får ta besluten. Eventuellt får robotarna visa vad de menar i pilotskala och på en nivå som människor förstår. <br /><br />Vitsen med Asimovs tre robotlagar är att de visar på möjligheten att lägga in en begränsning i hur mycket skada robotarna får göra. Naturligtvis behövs fler lagar än tre. Sedan får man lära sig av sina misstag.<br /><br />En av anledningarna till att ateister och traditionellt troende inte kan komma överens om några allmängiltiga morallagar är att de inte vet hur man kan bli lycklig. Eftersom ingen vill vara olycklig måste man även fortsättningsvis få pröva sig fram för vad som är rätt och fel.<br /><br />Men som man kan tro av din utmärkta artikel om mördarrobotar är det väl tveksamt om ens Asimovs tre robotlagar kommer att införas i alla sammanhang. Bertil Åkerblomnoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-41116436805960672312013-05-07T10:06:17.338+02:002013-05-07T10:06:17.338+02:00Asimovs tre robotlagar är trevliga, men riskerar a...Asimovs tre robotlagar är trevliga, men riskerar att ge det felaktiga intrycket att <i>Friendly AI</i> är ett enkelt projekt - att det handlar om något kort stycke programkod som formaliserar dessa tre lagar. Inget kunde vara mer felaktigt. För en hint om hur svårt <i>Friendly AI</i> kan vara, se avsnittet <a href="http://intelligenceexplosion.com/2012/value-is-complex-and-fragile/" rel="nofollow">"Value is comples and fragile"</a> i Luke Muhelhausers <i>Facing the Intelligence Explosion</i>. Se även Yudkowskys <a href="http://intelligence.org/files/AIPosNegFactor.pdf" rel="nofollow"><i>Artificial Intelligence as a Positive and Negative Factor in Global Risk</i></a>.Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-66414161126773565382013-05-07T09:24:21.933+02:002013-05-07T09:24:21.933+02:00All intelligens bygger på något annat än intellige...All intelligens bygger på något annat än intelligens, kalla det för känsla, livsinställning eller vad som helst.<br /><br />All intelligent utläggning börjar alltid med ett första obevisat antagande. Per definition är detta antagande taget med något annat än intelligens; annars hade det inte varit ett första antagande. All intelligens bygger därmed på känslomässiga antaganden. (Rent tidsmässigt måste man börja någonstans till och med i cirkelbevis.)<br /><br />Problemet är att man inom bankväsende och militär med mera inte längre bryr sig om Asimovs tre robotlagar från 1950:<br /><br />1 En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.<br /><br />2 En robot måste lyda order från en människa, förutom då sådana order kommer i konflikt med Första lagen.<br /><br />3 En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med Första eller Andra lagen.<br />Bertil Åkerblomnoreply@blogger.com