En medborgare och matematiker ger synpunkter på samhällsfrågor, litteratur och vetenskap.
Av alla de förmågor som tekniken har vunnit åt mänskligheten är det en som utmärker sig: vår förmåga att tillintetgöra oss själva. Denna tvivelaktiga färdighet kan först sägas ha förvärvats i och med atomvapnets tillkomst, men är numera också en konsekvens av tekniker som vi normalt uppfattar som konstruktiva: nanoteknologi, bioteknologi och robotik.
[...]
Till [litteraturen om detta] kan även Olle Häggströms nyutkomna bok "Here be dragons. Science, technology and the future of humanity" (Oxford University Press) räknas; en appell för att medvetandegöra riskerna med ny teknik, och därigenom kunna fatta informerade beslut om en önskvärd riktning för den teknologiska utvecklingen.
Föreställ dig en framtid där omhändertagandet om såväl barn som äldre och sjuka sedan länge automatiserats; där vår grundläggande försörjning i än högre grad än idag gjorts beroende av maskiner, eftersom de nu också har förmågan att självständigt besluta om produktionsnivåer och transportkedjor; där genuppsättningen hos varje barn som föds är medvetet vald för att eliminera ärftliga sjukdomar, och optimera begåvning, utseende och fysisk hälsa.
Eller, för att följa den transhumanistiska visionen till dess slutpunkt: en framtid där vi kan leva för evigt i en virtuell verklighet, genom att ladda upp våra medvetanden på datorer. En framtid där vi så väl behärskar den mänskliga kroppens biokemi att vi inte längre behöver vara lyckliga för att kunna få känna lycka.
Samtliga dessa ting skulle mycket väl kunna vara resultatet av en serie fullt autonoma mänskliga beslut, som alla i sin enskildhet måste uppfattas som oproblematiska - men som icke desto mindre skulle summera till en allvarlig inskränkning av det vi idag förstår som mänsklighet. Om vi inte är beredda att tala om mänsklig värdighet - eller om den fysiska verklighetens prioritet över den virtuella - har vi slutligen ingenting att sätta emot sådana visioner. Men oavsett hur vi ställer oss till dem, bör vi vara överens om att det för ingen av dem är värt att riskera det biologiska livets fortsatta existens.
Att premiera och stödja den bästa forskningen - i betydelsen den forskning som bäst flyttar fram gränserna för mänsklighetens samlade vetande, utan hänsyn till praktiska tillämpningar - är ett ideal som ligger nära Vetenskapsrådets, och som jag länge var svag för. På senare år har jag dock blivit alltmer tveksam. Låt mig förklara varför.
Vetenskapliga framsteg har en ofantlig inverkan på våra liv. Tänk på hur världen och våra liv såg ut i början av 1900-talet, på hur de ser ut idag, och på vilken stor del av denna väldiga transformation som möjliggjorts av vetenskapliga framsteg. Om vi tänker vidare på vad mobilteknologi och Internet gjort för oss de senaste tjugo åren, så inser vi att någon inbromsning i förändringstakten knappast har skett. I själva verket är det troligt att vetenskapliga framsteg under återstoden av innevarande sekel kommer att bjuda på ännu mer genomgripande förändringar än 1900-talets. Till de områden som sannolikt kommer att få omvälvande konsekvenser hör exempelvis syntetisk biologi, nanoteknik och artificiell intelligens, samt inte minst olika sätt att förändra den mänskliga naturen och vässa våra kognitiva förmågor med hjälp av farmakologiska preparat, genmodifiering eller elektroniska hjärnimplantat.
De potentiella vinsterna med genombrott på dessa och andra områden är enorma, men detsamma gäller riskerna. Ett exempel är artificiell intelligens, vars potential för ekonomiska och andra vinster är närmast obegränsade, samtidigt som det idag finns en berättigad oro för om maskinerna skall slå ut oss på arbetsmarknaden, samt (på lite längre sikt) huruvida mänskligheten skall kunna behålla herraväldet eller ens överleva den dag vi själva inte längre är de varelser på vår planet som har den högsta allmänintelligensen. Sistnämnda scenario kan låta extremt, men förtjänar att tas på allvar, och har det senaste året uppmärksammats av bland andra Nick Bostrom, Stephen Hawking, Max Tegmark och Bill Gates. Andra nya teknologier är tveeggade på liknande vis, och den möjligen största utmaningen på bara ett eller ett par decenniers sikt är hur vi skall undvika att kunskapsspridning inom syntetisk biologi leder till ohyggliga massförstörelsevapen i händerna på terrorister.
När så här mycket står på spel är det enligt min mening alltför ansvarslöst att prioritera mellan forskningsområden med hänsyn enbart till forskningens kvalitet och inte till dess utsikter att påverka samhället och våra liv. Om forskningens potentiella konsekvenser bara var av godo skulle jag kunna köpa tanken att enbart se till forskningens kvalitet och strunta i de samhälleliga konsekvenserna – särskilt för en finansiär som Vetenskapsrådet med ett särskilt ansvar för grundforskningen. Men med tanke på riskerna finner jag detta ohållbart. Ingen forskningsfinansiär bör tillåta sig att stödja forskning vars risker för mänskligheten är större än de positiva möjligheterna.
Så vilka framtida teknologier och forskningsområden bör vi i första hand satsa på för att maximera chanserna för ett lyckligt utfall för mänskligheten? Vilka områden är mindre viktiga, vilka bör vi beträda med stor försiktighet, och finns det rentav områden som vi helt bör undvika? Vår kunskap i dessa frågor är ytterst ofullständig, men vi behöver göra vad vi kan för att besvara dem. Att ignorera dem, vilket mestadels är vad vi gör idag, är liktydigt med att med bindel för ögonen springa rakt fram i ett minfält.
Ett rimligt första steg skulle kunna vara att ta fram en systematisk översikt över den kunskap som redan idag faktiskt finns beträffande globala risker med nya teknologier och relaterade framtidsfrågor. En sådan kunskapsöversikt skulle sedan kunna fungera som som stöd för de ämnesmässiga prioriteringar som Vetenskapsrådet och andra forskningsfinansiärer gör. Under mina drygt fem år som ledamot i Vetenskapsrådets NT-råd har jag då och då – så ofta jag vågat med hänsyn till risken att framstå som en omöjlig monoman – tagit upp hur angeläget detta är. Dessa ansträngningar har dock inte krönts med framgång, och de ämnesöversikter Vetenskapsrådet tog fram förra året (i vilka faror i samband med nya teknologier blott berörs pliktskyldigast och i största förbigående) fyller inte alls den önskade funktionen. Jag har därför försökt mig på även andra vägar framåt, inklusive författandet av boken Here Be Dragons: Science, Technology and the Future of Humanity (Oxford University Press, planerat boksläpp i januari 2016), i vilken jag efter bästa förmåga skisserar de möjligheter och faror som ligger framför oss, och argumenterar för framsynthet.
Jag har här fokuserat på forskningsfinansiärens roll och ansvar, men det finns givetvis andra aktörer som också har ett ansvar i frågan, inte minst politiker och forskarna själva. I ett komplext samhällsmaskineri med många olika aktörer är det frestande att rycka på axlarna och tycka att ansvaret borde vila på någon annan, men ett sådant förhållningssätt duger inte - lika lite för forskningsfinansiärer som för politiska makthavare, universitet och den enskilde forskaren.
The question, then, is [...] whether it was important that the medalist enabled the publication of the result to occur at an earlier date. The value of this temporal transport should be compared to the value that a world-class mathematical mind could have generated by working on something else. At least in some cases, the Fields Medal might indicate a life spent solving the wrong problem - perhaps a problem whose allure consisted primarily in being famously difficult to solve.
Similar barbs could be directed at other fields, such as academic philosophy. Philosophy covers some problems that are relevant to existential risk mitigation - we encountered several in this book. Yet there are also subfields within philosophy that have no apparent link to existential risk or indeed any practical concern. As with pure mathematics, some of the problems that philosophy studies might be regarded as intrinsically important, in the sense that humans have reason to care about them independently of any practical application. The fundamental nature of reality, for instance, might be worth knowing about, for its own sake. The world would arguably be less glorious if nobody studied metaphysics, cosmology, or string theory. However, the dawning prospect of an intelligence explosion shines a new light on this ancient quest for wisdom.
The outlook now suggests that philosophic progress can be maximized via an indirect path rather than by immediate philosophizing. One of the many tasks on which superintelligence (or even just moderately enhanced human intelligence) would outperform the current cast of thinkers is in answering fundamental questions in science and philosophy. This reflection suggests a strategy of deferred gratification. We could postpone work on some of the eternal questions for a little while, delegating that task to our hopefully more competent successors - in order to focus our own attention on a more pressing challenge: increasing the chance that we will actually have competent successors. This would be high-impact philosophy and high-impact mathematics.
(b) there is no extra value in having the two different proofs of the result compared to having just one (plain false),
(c) without the two works, it would have taken another ten years for the scientific community to come up with a proof of Parisi's conjecture (pure speculation on my part).
Such superadditivity of values is not unusual. A hot dog on its own may be worthless to me, and the same may go for a bun, but together they constitute a highly delicious and valuable meal. But the Linusson-Wästlund and the Nair-Prabhakar-Sharma papers, exhibiting the same superadditivity, still does not fit the hot-dog-and-bun pattern, because unlike the hot dog and the bun, each of the papers contains, on its own, the whole thing we value (the early arrival of the proof of Parisi's conjecture). Strange.
Many emerging technologies show potential to solve major global challenges, but some of these technologies come with possible catastrophic downsides. In this talk I will discuss the great dilemma that these technologies pose: should society accept the risks associated with using these technologies, or should it instead accept the burdens that come with abstaining from them? I will use stratospheric aerosol geoengineering as an illustrative example, which could protect humanity from many burdens of global warming but could also fail catastrophically. Other technologies that pose this great downside dilemma include certain forms of biotechnology, nanotechnology, and artificial intelligence, whereas nuclear fusion power shows less downside.
The key to the current ecological success of Homo sapiens is that our species has been able to deliberately reshape its environment to suit its needs. This in turn hinges on our ability to maintain a culture that grows cumulatively. We are now starting to develop technologies that enable us to reshape ourselves and our abilities - genetic engineering, cognitive enhancement, man-machine symbiosis. This talk will examine some of the implications of a self-enhancing humanity and possible paths it could take.
Engineers have maneged risk in complex systems for hundreds of years. Their approach differs radically from what economists refer to as “risk mangement”. The heuristics developed by engineers are very useful to understand and develop strategies to reduce global catastrophic risks. I discuss a potentially disruptive technology: control of ageing and argue that the risks of such a program have been underestimated.
Many scientists, futurologists and philosophers have predicted that humanity will achieve a technological breakthrough and create artificial general intelligence (AGI) within the next one hundred years. It has been suggested that AGI may be a positive or negative factor in the global catastrophic risk. After summarizing the arguments for why AGI may pose significant risk, I will survey the field’s proposed responses to AGI risk, with particular focus on solutions advocated in my own work.
Naturvetenskap+ är en modern gymnasiekurs (Naturvetenskaplig specialisering) som behandlar evolutionsbiologi, kognitions- och socialpsykologi, logik, statistik, sannolikhet, retorik, argumentationsanalys, vetenskapshistoria och -teori, olika vetenskapliga metoder, filosofi och etik, samhälle, media och klimat. Med mer.
Wieseltier’s insistence that science should stay inside a box he has built for it and leave the weighty questions to philosophy is based on a fallacy. Yes, certain propositions are empirical, others logical or conceptual or normative; they should not be confused. But propositions are not academic disciplines. Science is not a listing of empirical facts, nor has philosophy ever confined itself to the non-empirical.
Why should either discipline stay inside Wieseltier’s sterile rooms? Does morality have nothing to do with the facts of human well-being, or with the source of human moral intuitions? Does political theory have nothing to learn from a better understanding of people’s inclinations to cooperate, aggress, hoard, share, work, empathize, or submit to authority? Is art really independent of language, perception, memory, emotion? If not, and if scientists have made discoveries about these faculties which go beyond received wisdom, why isn’t it for them to say that these ideas belong in any sophisticated discussion of these topics?
Warwick might respond that having direct nervous control over an automobile would let us drive it better, since we wouldn't have to move around our heavy meat arms and legs. But then issues of practicality and safety come into play. (s 176-177)
(2) The study of the ramifications, promises, and potential dangers of technologies that will enable us to overcome fundamental human limitations, and the related study of the ethical matters involved in developing and using such technologies.