Sam Altman is CEO of OpenAI, and in that capacity he qualifies easily on my top ten list of the world's most influential people today. So when a biography of him is published, it does make some sense to read it. But Keach Hagey's The Optimist: Sam Altman, OpenAI, and the Race to Invent the Future turned out to be a disappointment.1 One of the things I want most from a biography, regardless of whether it is about someone I admire or someone I consider morally corrupt, is a window into the subject's inner world that allows me (at least to some extent) to understand and to empathize with them. The Optimist does not achieve this, because even though the main focus of every chapter of the book is Altman, he remains an opaque and distant character throughout. I am uncertain about whether this opacity is a personality trait of Altman (despite his often powerful and spellbinding stage performances) or a shortcoming of the book. What perhaps speaks for the latter interpretation is that all the supporting characters of the book come across as equally distant.
Overall, I found the book boring. Altman's childhood and adolescence is given only a very cursory treatment, and the description of his adventures with his first startup Loopt is equally shallow but filled with Silicon Valley and venture capital jargon. Especially boring is how, about a dozen times, the author starts a kind of one-page mini-biography of some supporting character, beginning with their place of birth and parents' occupation, etc, but one is never rewarded with any insights to which this background information comes across as particularly relevant. Somewhat more attuned to my interest are the later chapters of the book, about OpenAI, but to those of us who have been following the AI scene closely in recent years, there is very little in the direction of new revelations.
One aspect of Altman's personality and inner world that strikes me as especially important to understand (but to which the book does not have much to offer) is his view of AI existential risk. Up until "the blip" in November 2023, it seemed that Altman was fairly open about the risk that the technology he was developing might spell doom - ranging from his pre-OpenAI statement that "AI will probably most likely lead to the end of the world, but in the meantime there will be great companies created" to his repeated statements in 2023 about the possibility of "lights out for all of us" and his signing of the CAIS open letter on extinction risk the same year. But after that, he became suddenly very quiet about that aspect of AI. Why is that? Did he come across some new evidence suggesting we are fine when it comes to AI safety, or did he just realize it might be bad for business to speak about how one's product might kill everyone? We deserve to know, but remain in the dark about this.
In fact, Altman still leaks the occasional utterance suggesting he remains concerned. On July 22 this year, he tweeted this:
-
woke up early on a saturday to have a couple of hours to try using our new model for a little coding project.
done in 5 minutes. it is very, very good.
not sure how i feel about it...
-
Sam Altman, you creep, excuse my French but could you shut the f*** up? Or to state this a bit more clearly: if you feel conflicted because your next machine might do damage to the world, the right way is not to be a crybaby and treat your four million Twitter followers and all the rest of us as if we were your private therapist; the right way is to NOT BUILD THAT GODDAMN MACHINE!
Footnotes
1) Another Altman biography, Karen Hao's Empire of AI, was published this spring, almost simultaneously with Hagey's. So perhaps that one is better? Could be, but Shakeel Hashim, who has read both books, actually likes The Optimist better than Empire of AI, and a lot better than I did.
2) In late 2023 I left Twitter in disgust over how its CEO was using it.
Så tröttsamt med dessa skränfockar på Internet och tröttsamt när en bildad (eller i fall fall högutbildad) person berömmer sig över att vara en av dem.
SvaraRaderaJa, frågan är viktig och ja, Sam Altman är en figur vars roll och uttalanden borde analyseras och diskuteras, också djupt kritiskt.
Det närliggande försvaret som en i Altmans ställning kan anföra är: Om inte jag gör det, så gör någon annan det, och då sannolikt en person mångfalt värre än jag.
Inte för att försvaret är vattentätt, men en normalt bildad person kan behöva tänka igenom saken.
När Sam Altman är beredd att riskera mänsklighetens överlevnad och när jag säger ifrån mot honom på skarpen, så väljer du alltså agera något slags det nya millenniets Emily Post genom att rikta din kritik mot mig. Du är givetvis fri att göra det valet, men jag hävdar att det är en felprioritering och ett skott mot budbäraren.
RaderaAngående "om inte jag så någon annan"-försvaret så tar jag upp det i en artikel jag just nu arbetar med och hoppas offentliggöra inom kort, rubricerad "Advanced AI and the ethics of risking everything". Om du är för otålig för att invänta den så kan jag rekommendera ett föredrag i december 2023 där jag berörde frågan: https://www.youtube.com/watch?v=Ivvm72SxLjY
Du antar att Altman gör en skillnad och en negativ sådan. Kanske du har rätt, kanske inte. Visst är jag nyfiken på dina argument i frågan.
SvaraRaderaVad jag inte gillar är moralisk tvärsäkerhet på skakigt underlag. Kalla det vad du vill.
Jag tycker själv att utvecklingen är oroande och redan idag på praktiska grunder. Eskaleringen av Rysslands krig i Ukraina med allt “intelligentare” morddrönare är obehaglig.
Men även där finns liknande argument: Om inte vi gör det så gör andra sidan det och det är mycket värre.
Genom många små steg, där vart och ett kan synas motiverat, hamnar båda parterna och kanske hela världen i worst case.
Frågan är om sådana förlopp går att avbryta om man antar rationella, icke samvetsömma, aktörer. Samt för optimistiska moralister: Vilken är den minimala moral som måste tillskrivas sådana aktörer för att de inte ska förstöra världen?
Jag önskar dig lycka till - och menar det.
Du läser mellan raderna på ett sätt som inte har något stöd i vad jag skriver, vare sig här eller någon annan stans. Jag "antar" inte att Altmans påverkan på världen är "negativ". Jag gör inga anspråk på att kunna göra säkra förutsägelser om framtiden, och vad mig anbelangar kan det mycket väl komma att visa sig att GPT-5 eller GPT-6 sätter igång en intelligensexplosion som blir det bästa som någonsin hänt mänskligheten, så att Altmans avtryck på världen blir fabulöst positiv.
RaderaMina omdömen om hur han agerar bygger alltså inte på några inbillat säkra förutsägelser om hur det kommer att gå, utan på att han tar enorma risker med allas våra liv. Han går i bräschen för en vansinneskapplöpning som riskerar att leda till slutet för Homo sapiens. Att den risken är en realitet är inte bara min bedömning, utan den delas av flertalet bland världens mest citerade AI-forskare, av Nobelpristagare, och av ledarna för de främsta AI-företagen - inklusive av Altman själv, vilket bland annat framgår av hans "lights out for all of us"-yttranden, etc. Trots denna konsensus om riskens realitet bland snart sagt alla sansade bedömare på området så framhärdar Altman med att trycka gasen i botten, och på så viss riskera mitt liv, ditt liv, vära vänners och anhörigas liv, och övriga åtta miljarder människors liv. Och han har inte ens bett oss om lov att göra detta.
Jag älskar livet och vill inte bli dödad i en AI-apokalyps, och Altmans arroganta vansinnesrisktagande gör mig därför rosenrasande, så till den grad att att jag ibland undslipper mig ett och annat svärord då jag diskuterar saken. Du verkar vara en lugnare natur som lättare står ut med att andra riskerar ditt och dina nära och käras liv, och som inte svär ve och förbannelse över saken. Good for you - ett godmodigt och förnöjsamt sinnelag är nog bra för ett lyckligt liv. (Eller kanske bryr du dig inte om livet? Det skulle också förklara saken.)
Men du borde öva på din empati och försöka visa lite förståelse för oss som inte lika lätt överser med kaliforniska IT-entreprenörer som leker med våra liv. Om du kunde hålla tillbaka ditt tontrolleri så skulle du dessutom vinna på att inte framstå som så gravt oproportionerlig i dina prioriteringar, där ett svärord eller två framstår som en i din ögon värre försyndelse än att med berått mod riskera andra människors liv.
Din retoriska knorr och spekulationer om min person finns ingen anledning att kommentera. Jag prioriterar mitt försvar av framtiden till det mer överhängande hotet mot demokratin, nämligen Putins krig mot Ukraina och hans hybridkrig mot Väst. Medborgerlig anti- propaganda är inte en trivsam diskussionsklubb, diskret sagt.
SvaraRaderaTvå frågor: 1) Är inte anden redan ur flaskan? Kanske inte precis på det sätt du varnat för, men vi kanske redan tar många små steg dit? Jag oroas allra mest av de militära applikationerna i Rysslands krig mot Ukraina där en intelligenseskalation redan pågår.
Att AI kommer att spela en avgörande roll på alla krigföringens nivåer är nog ostoppbart. Hastigheten av medel för angrepp och medel för försvar minimerar mänsklig möjlighet att interagera. Cyberangrepp på civil infrastruktur tycks vara svåra att spåra och är hur som helst deniable. Ömsesidig avskräckning kan fungera i fred men mer tveksamt i pågående krig.
Jag kan inte se att återhållsamhet hos Altman skulle göra någon skillnad för den vandring mot helvetet vi redan inlett.
2) Vilken roll är realistisk för moraliska invändningar att ta verkan? Moral har en chans bara om det finns konkreta sociala, ekonomiska och politiska mekanismer som kan omsätta den. Det var ekonomin, inte främst moralen, som fick stopp på kärnvapenupprustningen Öst-Väst.
Tyvärr kan jag inte se mekanismer som kan bromsa, inte ens för en närliggande militär intelligenseskalation med kända drivkrafter. Kommittéer i Bryssel och mediastormar lär inte påverka ett pågående krig där existentiella värden står på spel.
Det finns ett starkt självuppfyllande element i den pessimism och uppgivenhet du uttrycker då du nu byter samtalsämne till "But if [...] the risk is actually real, is there anything at all we can do about it?" på exakt det vis som jag i min "Pro tip"-bloggpost för ett par månader sedan (https://haggstrom.blogspot.com/2025/06/pro-tip-on-discussions-about-ai-xrisk.html) deklarerade att jag inte ämnar följa med på, och jag avböjer därför fortsatt diskussion.
RaderaDu har säkert rätt om vikten att undvika sidetracks, både för dig och för mig.
SvaraRaderaJag tenderar att utgå från worst case och ställa frågan om vi kan undvika eller skjuta upp den utvecklingen. Det är vanligt att det uppfattas som uppgivenhet.
Omvänt uppfattar jag alternativa problemanalyser som fluffiga eller önsketänkande, vilket jag läser in i ditt sätt att nalkas ämnet.
Yesterday GPT-5 was released with great fanfare. The day before, Sam Altman tweeted (without further explanation) an image of the Death Star rising from the horizon (https://x.com/sama/status/1953264193890861114). How is this cryptic message to be interpreted? Two alternative explanations come to mind:
SvaraRadera(1) His usual "don't worry, we've got it under control" attitude is partly a facade. Underneath is anxiety and concern that he usually keeps at bay, except that sometimes his internal pressure causes him too leak. The July 22 "not sure how i feel" quote that I reproduced in the blog post would be an example of that, and the Death Star image another. In both of these instances, he manages to retain deniability through a sufficiently ambiguous and semi-ironic communication style.
(2) He is just mocking those of us who are concerned about AI safety and existential risk.
In either case it's a pretty bad deviation from the stance of responsible adulthood that we have a right to expect from one of the most powerful decision makers in the world. In case of (1), I repeat that the obvious right way to proceed is to NOT BUILD THAT GODDAMN MACHINE, while in case of (2), he is simply an asshole and I am compelled to ask him to SHUT THE FUCK UP! Perhaps most likely, the truth is some vague mix of (1) and (2) where even Altman himself is not sure about the proportions, in which case my response... well, I really don't like excessively using all-caps, but you get the picture.